صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هشدار کارشناسان درباره خطر وجودی هوش مصنوعی برای بشریت

۰۳ خرداد ۱۴۰۲ - ۰۹:۳۸:۱۵
کد خبر: ۴۷۱۴۲۶۸
موسسان OpenAI و مدیر اجرایی آن خواستار تشکیل یک تنظیم‌کننده بین‌المللی به منظور کاهش «خطر وجودی» سیستم‌های هوش مصنوعی شدند.

خبرگزاری میزان – دانشمندان شرکت OpenAI که توسعه‌دهنده ChatGPT هستند، خواستار تنظیم مقرراتی برای هوش مصنوعی «فوق‌هوشمند» شده‌اند و استدلال می‌کنند که سازمانی معادل آژانس بین‌المللی انرژی اتمی، برای محافظت از بشریت از خطر ایجاد تصادفی چیزی با قدرت نابود کردن آن مورد نیاز است. 

به گزارش «گاردین»، «گرگ براکمن» و «ایلیا سوتسکور»، موسسان این شرکت و «سم آلتمن»، مدیر اجرایی آن خواستار تشکیل یک تنظیم‌کننده بین‌المللی شدند تا مقرراتی را برای کار بر روی نحوه بازرسی سیستم‌ها، نیاز به ممیزی، آزمایش انطباق با استاندارد‌های ایمنی، و اعمال محدودیت‌هایی در درجات استقرار و سطوح امنیتی به منظور کاهش «خطر وجودی» چنین سیستم‌هایی را تنظیم کنند.

تاثیر ۱۰ ساله هوش مصنوعی بر زندگی بشر

آن‌ها نوشتند: می‌توان تصور کرد که در ۱۰ سال آینده، سیستم‌های هوش مصنوعی در بیشتر حوزه‌ها از سطح مهارت‌های متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکت‌های امروزی فعالیت‌های سازنده‌ای را انجام دهند. از نظر جنبه‌های مثبت و منفی احتمالی، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. 

این نامه می‎گوید که ما می‌توانیم آینده‌ای به طور چشمگیری مرفه‌تر داشته باشیم؛ اما برای رسیدن به آن باید ریسک را مدیریت کنیم. 

این سه نفر در کوتاه‌مدت، خواستار درجاتی از هماهنگی میان شرکت‌هایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار می‌کنند، تا اطمینان حاصل شود که توسعه مدل‌های قوی‌تر به راحتی با جامعه ادغام می‌شود و در عین حال ایمنی را در اولویت قرار می‌دهد. این هماهنگی می‌تواند از طریق یک پروژه به عنوان مثال، تحت مدیریت دولت‌ها، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.

خطرات احتمالی توسعه بیش از حد هوش مصنوعی

محققان ده‌ها سال است که درباره خطرات احتمالی ابر هوش هشدار می‌دهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینی‌تر شده‌اند. 

مرکز ایمنی هوش مصنوعی (CAIS) مستقر در آمریکا، که در زمینه کاهش خطرات اجتماعی ناشی از هوش مصنوعی فعالیت می‌کند، هشت دسته خطر فاجعه بار و وجودی را که توسعه هوش مصنوعی می‌تواند ایجاد کند، توصیف می‌کند. 

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها از سوی بشر» منجر شود که به عنوان «ناتوانی» توصیف می‌شود. 

همچنین گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل در جهت پیشبرد اهداف خود تبدیل کنند.

مقامات OpenAI می‌گویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیت‌ها و پیش فرض‌های سیستم‌های هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که «ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم.»

با این حال، آن‌ها می‌گویند توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد. 

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *