باید و نباید هوش مصنوعی به زبان ساده برای کودکان

۹ بازديد

هوش مصنوعی دوستانه ماشین هایی هستند که از ابتدا برای به حداقل رساندن خطرات هوش مصنوعی به زبان ساده برای کودکان  و انتخاب هایی که به نفع انسان هستند طراحی شده اند. Eliezer Yudkowsky، که این اصطلاح را ابداع کرد، استدلال می‌کند که توسعه هوش مصنوعی دوستانه باید یک اولویت تحقیقاتی بالاتر باشد: ممکن است نیاز به سرمایه‌گذاری بزرگ داشته باشد و قبل از تبدیل شدن هوش مصنوعی به یک خطر وجودی باید تکمیل شود.[232]

 

ماشین‌های هوشمند این پتانسیل را دارند که از هوش خود برای تصمیم‌گیری اخلاقی استفاده کنند. حوزه اخلاق ماشینی اصول و رویه‌های اخلاقی را برای حل معضلات اخلاقی در اختیار ماشین‌ها قرار می‌دهد.[233] حوزه  هوش مصنوعی به زبان ساده برای کودکان اخلاق ماشینی نیز اخلاق محاسباتی نامیده می شود،[233] و در سمپوزیوم AAAI در سال 2005 تأسیس شد.[234]

 

رویکردهای دیگر عبارتند از "عوامل اخلاقی مصنوعی" وندل والاک[235] و سه اصل استوارت جی راسل برای توسعه ماشین‌های قابل اثبات سودمند.[236]

 

متن باز

سازمان‌های فعال در جامعه منبع باز هوش مصنوعی عبارتند از Hugging Face، [237] Google، [238] EleutherAI و Meta.[239] مدل‌های مختلف هوش مصنوعی، مانند Llama 2، Mistral یا Stable Diffusion، با وزن باز ساخته شده‌اند، [240][241] به این معنی که معماری و پارامترهای آموزش‌دیده آن‌ها ("وزن") در دسترس عموم است. مدل‌های وزن باز را می‌توان آزادانه تنظیم کرد، که به شرکت‌ها اجازه می‌دهد آن‌ها را با داده‌های هوش مصنوعی به زبان ساده برای کودکان  خود و برای موارد استفاده خود تخصصی کنند.[242] مدل‌های وزن باز برای تحقیق و نوآوری مفید هستند، اما می‌توانند مورد سوء استفاده قرار گیرند. از آنجایی که می‌توان آن‌ها را دقیق تنظیم کرد، هرگونه اقدام امنیتی داخلی، مانند اعتراض به درخواست‌های مضر، می‌تواند تا زمانی که بی‌اثر شود، آموزش داده شود. برخی از محققان هشدار می‌دهند که مدل‌های هوش مصنوعی آینده ممکن است قابلیت‌های خطرناکی (مانند پتانسیل تسهیل شدید بیوتروریسم) ایجاد کنند و پس از انتشار در اینترنت، در صورت نیاز نمی‌توان آن‌ها را در همه جا حذف کرد. آنها ممیزی های قبل از انتشار و تجزیه و تحلیل هزینه-فایده را توصیه می کنند.[243]

 

چارچوب ها

پروژه‌های هوش مصنوعی می‌توانند هنگام طراحی، توسعه و پیاده‌سازی یک هوش مصنوعی به زبان ساده برای کودکان  سیستم هوش مصنوعی، مجاز بودن اخلاقی آن‌ها را آزمایش کنند. یک چارچوب هوش مصنوعی مانند Care and Act Framework حاوی مقادیر SUM - که توسط موسسه آلن تورینگ ایجاد شده است، پروژه‌ها را در چهار حوزه اصلی آزمایش می‌کند:[244][245]

 

به کرامت افراد احترام بگذاریم

صمیمانه، آشکارا و فراگیر با افراد دیگر ارتباط برقرار کنید

برای رفاه همه مراقبت کنید

از ارزش های اجتماعی، عدالت و منافع عمومی محافظت کنید

پیشرفت‌های دیگر در چارچوب‌های اخلاقی شامل مواردی است که در کنفرانس آسیلومار، اعلامیه مونترال برای هوش مصنوعی مسئول، و ابتکار اخلاق سیستم‌های خودمختار IEEE، از جمله موارد دیگر تصمیم‌گیری شد؛[246] اما، این اصول بدون انتقاد نمی‌مانند، به ویژه در رابطه با افراد انتخاب شده به این چارچوب ها کمک می کنند.[247]

 

ارتقای رفاه مردم و جوامعی که این فناوری‌ها بر آن‌ها تأثیر  هوش مصنوعی به زبان ساده برای کودکان می‌گذارند، مستلزم در نظر گرفتن پیامدهای اجتماعی و اخلاقی در تمام مراحل طراحی، توسعه و پیاده‌سازی سیستم هوش مصنوعی، و همکاری بین نقش‌های شغلی مانند دانشمندان داده، مدیران محصول، مهندسان داده، دامنه است. کارشناسان و مدیران تحویل.[248]

 

مؤسسه ایمنی هوش مصنوعی در بریتانیا مجموعه ابزار آزمایشی به نام «بازرسی» را برای ارزیابی‌های ایمنی هوش مصنوعی منتشر کرده است که تحت مجوز منبع باز MIT در دسترس است که به صورت رایگان در Github در دسترس است و می‌توان آن را با بسته‌های شخص ثالث بهبود بخشید. می‌توان از آن برای ارزیابی مدل‌های هوش مصنوعی در حوزه‌های مختلفی از جمله دانش اصلی، توانایی استدلال، و قابلیت‌های مستقل استفاده کرد.[249]

 

مقررات

مقالات اصلی: تنظیم هوش مصنوعی، تنظیم الگوریتم‌ها و ایمنی هوش مصنوعی

اجلاس ایمنی هوش مصنوعی

اولین اجلاس جهانی ایمنی هوش مصنوعی در سال 2023 با  هوش مصنوعی به زبان ساده برای کودکان اعلامیه ای برگزار شد که خواستار همکاری بین المللی شد.

مقررات هوش مصنوعی، توسعه سیاست‌ها و قوانین بخش عمومی برای ترویج و تنظیم هوش مصنوعی (AI) است. بنابراین به تنظیم گسترده‌تر الگوریتم‌ها مربوط می‌شود.[250] چشم انداز نظارتی و سیاست گذاری برای هوش مصنوعی یک موضوع در حال ظهور در حوزه های قضایی در سطح جهان است.[251] طبق شاخص هوش مصنوعی در استنفورد، تعداد سالانه قوانین مرتبط با هوش مصنوعی تصویب شده در 127 کشور مورد بررسی از یک مورد تصویب شده در سال 2016 به 37 مورد تصویب شده در سال 2022 تنها افزایش یافته است.[252][253] بین سال‌های 2016 و 2020، بیش از 30 کشور استراتژی‌های اختصاصی برای هوش مصنوعی اتخاذ کردند.[254] اکثر کشورهای عضو اتحادیه اروپا استراتژی‌های هوش مصنوعی ملی را منتشر کرده بودند، مانند کانادا، چین، هند، ژاپن، موریس، فدراسیون روسیه، عربستان سعودی، امارات متحده  هوش مصنوعی به زبان ساده برای کودکان عربی، ایالات متحده و ویتنام. برخی دیگر از جمله بنگلادش، مالزی و تونس در حال توسعه استراتژی هوش مصنوعی خود بودند.[254] مشارکت جهانی در زمینه هوش مصنوعی در ژوئن 2020 راه اندازی شد و بیان می کند که نیاز به توسعه هوش مصنوعی مطابق با حقوق بشر و ارزش های دموکراتیک برای اطمینان از اعتماد عمومی و اعتما Artificial intelligence in plain language for children د به این فناوری است.[254] هنری کیسینجر، اریک اشمیت و دانیل هاتنلوچر جویایی منتشر کردند

تا كنون نظري ثبت نشده است
امکان ارسال نظر برای مطلب فوق وجود ندارد