هشدار کارشناسان درباره خطر وجودی هوش مصنوعی برای بشریت
خبرگزاری میزان – دانشمندان شرکت OpenAI که توسعهدهنده ChatGPT هستند، خواستار تنظیم مقرراتی برای هوش مصنوعی «فوقهوشمند» شدهاند و استدلال میکنند که سازمانی معادل آژانس بینالمللی انرژی اتمی، برای محافظت از بشریت از خطر ایجاد تصادفی چیزی با قدرت نابود کردن آن مورد نیاز است.
به گزارش «گاردین»، «گرگ براکمن» و «ایلیا سوتسکور»، موسسان این شرکت و «سم آلتمن»، مدیر اجرایی آن خواستار تشکیل یک تنظیمکننده بینالمللی شدند تا مقرراتی را برای کار بر روی نحوه بازرسی سیستمها، نیاز به ممیزی، آزمایش انطباق با استانداردهای ایمنی، و اعمال محدودیتهایی در درجات استقرار و سطوح امنیتی به منظور کاهش «خطر وجودی» چنین سیستمهایی را تنظیم کنند.
تاثیر ۱۰ ساله هوش مصنوعی بر زندگی بشر
آنها نوشتند: میتوان تصور کرد که در ۱۰ سال آینده، سیستمهای هوش مصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکتهای امروزی فعالیتهای سازندهای را انجام دهند. از نظر جنبههای مثبت و منفی احتمالی، ابر هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است.
این نامه میگوید که ما میتوانیم آیندهای به طور چشمگیری مرفهتر داشته باشیم؛ اما برای رسیدن به آن باید ریسک را مدیریت کنیم.
این سه نفر در کوتاهمدت، خواستار درجاتی از هماهنگی میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. این هماهنگی میتواند از طریق یک پروژه به عنوان مثال، تحت مدیریت دولتها، یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
خطرات احتمالی توسعه بیش از حد هوش مصنوعی
محققان دهها سال است که درباره خطرات احتمالی ابر هوش هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند.
مرکز ایمنی هوش مصنوعی (CAIS) مستقر در آمریکا، که در زمینه کاهش خطرات اجتماعی ناشی از هوش مصنوعی فعالیت میکند، هشت دسته خطر فاجعه بار و وجودی را که توسعه هوش مصنوعی میتواند ایجاد کند، توصیف میکند.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند، میتواند به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشینها از سوی بشر» منجر شود که به عنوان «ناتوانی» توصیف میشود.
همچنین گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل در جهت پیشبرد اهداف خود تبدیل کنند.
مقامات OpenAI میگویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیتها و پیش فرضهای سیستمهای هوش مصنوعی تصمیم بگیرند، اما اذعان دارند که «ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم.»
با این حال، آنها میگویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
انتهای پیام/