فرمان اجرایی بایدن برای مهار خطرات هوش مصنوعی
خبرگزاری میزان - «جو بایدن»، رئیسجمهور آمریکا در میانه نگرانی فزاینده درباره تأثیر احتمالی هوش مصنوعی (AI) در همه زمینهها، از امنیت ملی گرفته تا سلامت عمومی، فرمان اجرایی گستردهای را برای تنظیم توسعه این فناوری صادر کرد.
«بایدن» با اشاره به اینکه برای تحقق وعده هوش مصنوعی و اجتناب از خطر، ما باید این فناوری را کنترل کنیم، گفت: هوش مصنوعی اگر در دستان اشتباه قرار بگیرد، میتواند استفاده هکرها از آسیبپذیریهای نرمافزاری را آسانتر کند.
این دستور اجرایی شامل مقرراتی است که توسعهدهندگان قدرتمندترین مدلهای هوش مصنوعی باید دولت را از کار خود مطلع کرده و نتایج آزمایش ایمنی را به اشتراک بگذارند.
این دستور همچنین از موسسه ملی استاندارد و فناوری آمریکا میخواهد تا قبل از انتشار، «استانداردهای دقیق» را برای آزمایش هوش مصنوعی ایجاد کند.
«بایدن» همچنین از کنگره خواست تا قانون حفظ حریم خصوصی دادهها را تصویب کند.
افزایش نگرانیها از خطرات توسعه هوش مصنوعی
چت رباتهایی مانند ChatGPT با توانایی خود در نوشتن سخنرانی، برنامهریزی برای تعطیلات یا برگزاری یک مکالمه به خوبی یا حتی بهتر از انسانها، به لطف سیستمهای پیشرفته هوش مصنوعی، جهان را شگفتزده کردند.
اکنون، هوش مصنوعی به جدیدترین کلمه کلیدی تبدیل شده و این درحالی است که نگرانیها درباره آن افزایش یافته است. از جمله این نگرانیها، این است که این فناوری جدید دارای قابلیتهایی است که میتواند بشریت را به خطر بیندازد.
همه از برخی دولتها گرفته تا محققان برجسته و حتی خود شرکتهای بزرگ توسعهدهنده هوش مصنوعی زنگ خطرات ناشناخته این فناوری را به صدا در میآورند و خواستار تدابیری برای محافظت از مردم در برابر تهدیدات وجودی آن هستند.
بحث درباره این موضوع روز چهارشنبه با میزبانی «ریشی سوناک»، نخستوزیر انگلیس در یک نشست ۲ روزه با تمرکز بر هوش مصنوعی پیگیری میشود.
طبق گزارشها، انتظار میرود که گروهی متشکل از ۱۰۰ مقام از ۲۸ کشور، از جمله «کامالا هریس»، معاون رئیسجمهور آمریکا؛ «اورسولا فون درلاین»، رئیس کمیسیون اروپا و مدیران شرکتهای کلیدی هوش مصنوعی آمریکایی از جمله «اوپن ایآی»، «دیپ مایند گوگل» و «آنتروپیک» در این نشست حضور داشته باشند.
«سوناک» هفته گذشته در اظهاراتی گفته بود که تنها دولتها میتوانند مردم را از خطرات این فناوری در امان نگه دارند.
با این حال، او همچنین اظهار کرد که رویکرد انگلیس «عدم عجله در تنظیم مقررات» است. این درحالی است که او مجموعهای از تهدیدات ترسناک مانند استفاده از هوش مصنوعی برای ساخت آسانتر سلاحهای شیمیایی یا بیولوژیکی را بیان کرد.
آیا هوش مصنوعی میتواند خطرناک باشد؟
کارشناسان به طور مداوم درباره موضوعاتی مانند این که «هوش مصنوعی چگونه میتواند خطرناک باشد؟» بحث میکنند. بحث در این رابطه معمولاً به از بین رفتن مشاغل میرسد که در واقع ترسناک و نگران کننده است.
اما خطرات هوش مصنوعی بسیار بیشتر از آنچه درباره آن صحبت شده، است.
خطرات احتمالی مرتبط با هوش مصنوعی ناشی از توانایی آن در یادگیری و تصمیمگیری مستقل است که میتواند به عواقب ناخواسته منجر شود.
علاوه بر این، الگوریتمهای هوش مصنوعی مغرضانه میتوانند سوگیریهای اجتماعی موجود را تداوم بخشند و حتی آن را تقویت کنند، که به تصمیمهای تبعیضآمیز منجر میشود.
سیستمهای مجهز به هوش مصنوعی که حجم زیادی از دادههای شخصی را مدیریت میکنند، نگرانیهایی را درباره حفظ حریم خصوصی ایجاد میکنند، زیرا سوءاستفاده از چنین اطلاعاتی میتواند به نقض حریم خصوصی و سرقت هویت منجر شود.
انتهای پیام/