استراتژی پنتاگون در زمینه هوش مصنوعی
خبرگزاری میزان - وزارت دفاع آمریکا به تازگی طرحی را درباره پذیرش سریع سیستمهای هوش مصنوعی در جنگ منتشر کرد.
این طرح بر استفاده از هوش مصنوعی برای به دست آوردن آنچه بهعنوان «مزیت تصمیم» شناخته میشود، از طریق تسهیل آگاهی برتر از فضای نبرد، برنامهریزی و کاربرد نیروی تطبیقی، زنجیرههای کشتار سریع، دقیق و انعطاف پذیر و پشتیبانی پایدار تمرکز دارد.
این استراتژی بر سرعت، یکپارچگی بیشتر، شفافیت و اشتراک دانش در سراسر مرزهای سازمانی تمرکز کرده و اولویتبندی میکند و نیاز به اقدامات حفاظتی دقیق را برای جلوگیری از سوءاستفاده از آسیبپذیریهای فنی فناوریهای هوش مصنوعی برجسته میکند.
آیا باید برای رباتهای قاتل آماده شویم؟
بحث جهانی درباره استفاده از هوش مصنوعی در سلاحها و بهویژه دورنمای حذف انسان از فرآیند تصمیمگیری درباره گرفتن جان یک فرد، به شدت مورد توجه قرار گرفته است.
این موضوع برای چندین دهه مورد بحث بوده است و نه تنها از سوی دانشگاهیان مورد بحث قرار گرفته، بلکه به یک داستان علمی تخیلی محبوب از The Terminator ساخته جیمز کامرون و Robocop پل ورهوفن تا سریال انگلیسی Black Mirror و Ray Bradbury Fahrenheit ۴۵۱. تبدیل شده است.
اما در حالی که مقاله ۲۶ صفحهای استراتژی هوش مصنوعی وزارت دفاع آمریکا پر از گرافیکهای فانتزی و عکسها است، واژه «اخلاق» تنها پنج بار و تنها یک بار در زمینه مرتبط با نگرانیهای ذکر شده در بالا مورد اشاره قرار گرفته است.
این میتواند ۲ موضوع را نشان دهد: این که تمرکز پنتاگون بر سیستمهای هوش مصنوعی هنوز به دیدگاههای کابوسواری که از سوی نویسندگان علمی تخیلی ارائه شده، نرسیده است. یا اینکه ارتش آمریکا واقعاً به این موضوع فکر نکرده؛ درست در نقطهای که تواناییهای فنی و مکانیکی بشریت به نقطهای میرسد که تهدید روباتهای قاتل مؤثر به یک امکان واقعی تبدیل میشود.
نگرانیها درباره استراتژی هوش مصنوعی پنتاگون
«گلوریا شکورتی اوزدمیر»، محقق بنیاد SETA، یک اندیشکده سیاسی مستقر در ترکیه، گفت: تهدید اصلی مرتبط با هوش مصنوعی در استفاده غیراخلاقی بالقوه آن است که میتواند به مرگ غیرنظامیانی منجر شود که سپر انسانی بوده و یا از آنها محافظتی نمیشوند.
به گفته وی، بهعنوان مثال، مفهوم سیستمهای تسلیحاتی خودمختار مرگبار (LAWS) نگرانکننده است، زیرا این سیستمها میتوانند افراد را بدون کنترل انسانی هدف قرار دهند. علاوه بر این، هوش مصنوعی میتواند برای حملات سایبری، بیولوژیکی، هستهای و سایر تهدیدات مورد استفاده قرار گیرد.
اما به گفته «اوزدمیر»، خطر واقعی ناشی از هوش مصنوعی، خود این فناوری نیست، بلکه «نحوه استفاده از آن» است.
کارشناسان معتقدند در حالی که ملاحظات اخلاقی و استفاده مسئولانه باید حوزه اصلی تمرکز پنتاگون در تعیین استراتژی هوش مصنوعی باشد، اما به هیچ وجه به آن توجه نشده است.
به نظر میرسد طرح جدید پنتاگون صرفا بر محیط سازمانی و بهبود توانایی ارتش آمریکا برای تصمیمگیری سریع تمرکز دارد.
کارشناسان میگوید که استراتژی جدید هوش مصنوعی پنتاگون، همراه با دستور اجرایی جو بایدن، رئیسجمهور آمریکا درباره هوش مصنوعی در دوشنبه گذشته، همگی به یک دغدغه در میان سیاستگذاران آمریکایی مرتبط است: حفظ برتری آمریکا در رقابت جهانی در زمینه هوش مصنوعی.
انتهای پیام/