هوش مصنوعی دوستانه ماشین هایی هستند که از ابتدا برای به حداقل رساندن خطرات هوش مصنوعی به زبان ساده برای کودکان و انتخاب هایی که به نفع انسان هستند طراحی شده اند. Eliezer Yudkowsky، که این اصطلاح را ابداع کرد، استدلال میکند که توسعه هوش مصنوعی دوستانه باید یک اولویت تحقیقاتی بالاتر باشد: ممکن است نیاز به سرمایهگذاری بزرگ داشته باشد و قبل از تبدیل شدن هوش مصنوعی به یک خطر وجودی باید تکمیل شود.[232]
ماشینهای هوشمند این پتانسیل را دارند که از هوش خود برای تصمیمگیری اخلاقی استفاده کنند. حوزه اخلاق ماشینی اصول و رویههای اخلاقی را برای حل معضلات اخلاقی در اختیار ماشینها قرار میدهد.[233] حوزه هوش مصنوعی به زبان ساده برای کودکان اخلاق ماشینی نیز اخلاق محاسباتی نامیده می شود،[233] و در سمپوزیوم AAAI در سال 2005 تأسیس شد.[234]
رویکردهای دیگر عبارتند از "عوامل اخلاقی مصنوعی" وندل والاک[235] و سه اصل استوارت جی راسل برای توسعه ماشینهای قابل اثبات سودمند.[236]
متن باز
سازمانهای فعال در جامعه منبع باز هوش مصنوعی عبارتند از Hugging Face، [237] Google، [238] EleutherAI و Meta.[239] مدلهای مختلف هوش مصنوعی، مانند Llama 2، Mistral یا Stable Diffusion، با وزن باز ساخته شدهاند، [240][241] به این معنی که معماری و پارامترهای آموزشدیده آنها ("وزن") در دسترس عموم است. مدلهای وزن باز را میتوان آزادانه تنظیم کرد، که به شرکتها اجازه میدهد آنها را با دادههای هوش مصنوعی به زبان ساده برای کودکان خود و برای موارد استفاده خود تخصصی کنند.[242] مدلهای وزن باز برای تحقیق و نوآوری مفید هستند، اما میتوانند مورد سوء استفاده قرار گیرند. از آنجایی که میتوان آنها را دقیق تنظیم کرد، هرگونه اقدام امنیتی داخلی، مانند اعتراض به درخواستهای مضر، میتواند تا زمانی که بیاثر شود، آموزش داده شود. برخی از محققان هشدار میدهند که مدلهای هوش مصنوعی آینده ممکن است قابلیتهای خطرناکی (مانند پتانسیل تسهیل شدید بیوتروریسم) ایجاد کنند و پس از انتشار در اینترنت، در صورت نیاز نمیتوان آنها را در همه جا حذف کرد. آنها ممیزی های قبل از انتشار و تجزیه و تحلیل هزینه-فایده را توصیه می کنند.[243]
چارچوب ها
پروژههای هوش مصنوعی میتوانند هنگام طراحی، توسعه و پیادهسازی یک هوش مصنوعی به زبان ساده برای کودکان سیستم هوش مصنوعی، مجاز بودن اخلاقی آنها را آزمایش کنند. یک چارچوب هوش مصنوعی مانند Care and Act Framework حاوی مقادیر SUM - که توسط موسسه آلن تورینگ ایجاد شده است، پروژهها را در چهار حوزه اصلی آزمایش میکند:[244][245]
به کرامت افراد احترام بگذاریم
صمیمانه، آشکارا و فراگیر با افراد دیگر ارتباط برقرار کنید
برای رفاه همه مراقبت کنید
از ارزش های اجتماعی، عدالت و منافع عمومی محافظت کنید
پیشرفتهای دیگر در چارچوبهای اخلاقی شامل مواردی است که در کنفرانس آسیلومار، اعلامیه مونترال برای هوش مصنوعی مسئول، و ابتکار اخلاق سیستمهای خودمختار IEEE، از جمله موارد دیگر تصمیمگیری شد؛[246] اما، این اصول بدون انتقاد نمیمانند، به ویژه در رابطه با افراد انتخاب شده به این چارچوب ها کمک می کنند.[247]
ارتقای رفاه مردم و جوامعی که این فناوریها بر آنها تأثیر هوش مصنوعی به زبان ساده برای کودکان میگذارند، مستلزم در نظر گرفتن پیامدهای اجتماعی و اخلاقی در تمام مراحل طراحی، توسعه و پیادهسازی سیستم هوش مصنوعی، و همکاری بین نقشهای شغلی مانند دانشمندان داده، مدیران محصول، مهندسان داده، دامنه است. کارشناسان و مدیران تحویل.[248]
مؤسسه ایمنی هوش مصنوعی در بریتانیا مجموعه ابزار آزمایشی به نام «بازرسی» را برای ارزیابیهای ایمنی هوش مصنوعی منتشر کرده است که تحت مجوز منبع باز MIT در دسترس است که به صورت رایگان در Github در دسترس است و میتوان آن را با بستههای شخص ثالث بهبود بخشید. میتوان از آن برای ارزیابی مدلهای هوش مصنوعی در حوزههای مختلفی از جمله دانش اصلی، توانایی استدلال، و قابلیتهای مستقل استفاده کرد.[249]
مقررات
مقالات اصلی: تنظیم هوش مصنوعی، تنظیم الگوریتمها و ایمنی هوش مصنوعی
اجلاس ایمنی هوش مصنوعی
اولین اجلاس جهانی ایمنی هوش مصنوعی در سال 2023 با هوش مصنوعی به زبان ساده برای کودکان اعلامیه ای برگزار شد که خواستار همکاری بین المللی شد.
مقررات هوش مصنوعی، توسعه سیاستها و قوانین بخش عمومی برای ترویج و تنظیم هوش مصنوعی (AI) است. بنابراین به تنظیم گستردهتر الگوریتمها مربوط میشود.[250] چشم انداز نظارتی و سیاست گذاری برای هوش مصنوعی یک موضوع در حال ظهور در حوزه های قضایی در سطح جهان است.[251] طبق شاخص هوش مصنوعی در استنفورد، تعداد سالانه قوانین مرتبط با هوش مصنوعی تصویب شده در 127 کشور مورد بررسی از یک مورد تصویب شده در سال 2016 به 37 مورد تصویب شده در سال 2022 تنها افزایش یافته است.[252][253] بین سالهای 2016 و 2020، بیش از 30 کشور استراتژیهای اختصاصی برای هوش مصنوعی اتخاذ کردند.[254] اکثر کشورهای عضو اتحادیه اروپا استراتژیهای هوش مصنوعی ملی را منتشر کرده بودند، مانند کانادا، چین، هند، ژاپن، موریس، فدراسیون روسیه، عربستان سعودی، امارات متحده هوش مصنوعی به زبان ساده برای کودکان عربی، ایالات متحده و ویتنام. برخی دیگر از جمله بنگلادش، مالزی و تونس در حال توسعه استراتژی هوش مصنوعی خود بودند.[254] مشارکت جهانی در زمینه هوش مصنوعی در ژوئن 2020 راه اندازی شد و بیان می کند که نیاز به توسعه هوش مصنوعی مطابق با حقوق بشر و ارزش های دموکراتیک برای اطمینان از اعتماد عمومی و اعتما Artificial intelligence in plain language for children د به این فناوری است.[254] هنری کیسینجر، اریک اشمیت و دانیل هاتنلوچر جویایی منتشر کردند