صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

استراتژی پنتاگون در زمینه هوش مصنوعی

۱۴ آبان ۱۴۰۲ - ۱۶:۰۶:۱۲
کد خبر: ۴۷۴۲۹۲۸
کارشناسان عنوان می‌کنند که پنتاگون در طرح استراتژی خود در زمینه هوش مصنوعی موضوع اخلاق را مورد توجه قرار نداده است.

خبرگزاری میزان - وزارت دفاع آمریکا به تازگی طرحی را درباره پذیرش سریع سیستم‌های هوش مصنوعی در جنگ منتشر کرد.

این طرح بر استفاده از هوش مصنوعی برای به دست آوردن آنچه به‌عنوان «مزیت تصمیم» شناخته می‌شود، از طریق تسهیل آگاهی برتر از فضای نبرد، برنامه‌ریزی و کاربرد نیروی تطبیقی، زنجیره‌های کشتار سریع، دقیق و انعطاف پذیر و پشتیبانی پایدار تمرکز دارد. 

این استراتژی بر سرعت، یکپارچگی بیشتر، شفافیت و اشتراک دانش در سراسر مرز‌های سازمانی تمرکز کرده و اولویت‌بندی می‌کند و نیاز به اقدامات حفاظتی دقیق را برای جلوگیری از سوء‌استفاده از آسیب‌پذیری‌های فنی فناوری‌های هوش مصنوعی برجسته می‌کند. 

آیا باید برای ربات‌های قاتل آماده شویم؟

بحث جهانی درباره استفاده از هوش مصنوعی در سلاح‌ها و به‌ویژه دورنمای حذف انسان از فرآیند تصمیم‌گیری درباره گرفتن جان یک فرد، به شدت مورد توجه قرار گرفته است.

این موضوع برای چندین دهه مورد بحث بوده است و نه تنها از سوی دانشگاهیان مورد بحث قرار گرفته، بلکه به یک داستان علمی تخیلی محبوب از The Terminator ساخته جیمز کامرون و Robocop پل ورهوفن تا سریال انگلیسی Black Mirror و Ray Bradbury Fahrenheit ۴۵۱. تبدیل شده است.

اما در حالی که مقاله ۲۶ صفحه‌ای استراتژی هوش مصنوعی وزارت دفاع آمریکا پر از گرافیک‌های فانتزی و عکس‌ها است، واژه «اخلاق» تنها پنج بار و تنها یک بار در زمینه مرتبط با نگرانی‌های ذکر شده در بالا مورد اشاره قرار گرفته است.

این می‌تواند ۲ موضوع را نشان دهد: این که تمرکز پنتاگون بر سیستم‌های هوش مصنوعی هنوز به دیدگاه‌های کابوس‌واری که از سوی نویسندگان علمی تخیلی ارائه شده، نرسیده است. یا اینکه ارتش آمریکا واقعاً به این موضوع فکر نکرده؛ درست در نقطه‌ای که توانایی‌های فنی و مکانیکی بشریت به نقطه‌ای می‌رسد که تهدید روبات‌های قاتل مؤثر به یک امکان واقعی تبدیل می‌شود. 

نگرانی‌ها درباره استراتژی هوش مصنوعی پنتاگون

«گلوریا شکورتی اوزدمیر»، محقق بنیاد SETA، یک اندیشکده سیاسی مستقر در ترکیه، گفت: تهدید اصلی مرتبط با هوش مصنوعی در استفاده غیراخلاقی بالقوه آن است که می‌تواند به مرگ غیرنظامیانی منجر شود که سپر انسانی بوده و یا از آن‌ها محافظتی نمی‌شوند. 

به گفته وی، به‌عنوان مثال، مفهوم سیستم‌های تسلیحاتی خودمختار مرگبار (LAWS) نگران‌کننده است، زیرا این سیستم‌ها می‌توانند افراد را بدون کنترل انسانی هدف قرار دهند. علاوه بر این، هوش مصنوعی می‌تواند برای حملات سایبری، بیولوژیکی، هسته‌ای و سایر تهدیدات مورد استفاده قرار گیرد. 

اما به گفته «اوزدمیر»، خطر واقعی ناشی از هوش مصنوعی، خود این فناوری نیست، بلکه «نحوه استفاده از آن» است. 

کارشناسان معتقدند در حالی که ملاحظات اخلاقی و استفاده مسئولانه باید حوزه اصلی تمرکز پنتاگون در تعیین استراتژی هوش مصنوعی باشد، اما به هیچ وجه به آن توجه نشده است.

به نظر می‌رسد طرح جدید پنتاگون صرفا بر محیط سازمانی و بهبود توانایی ارتش آمریکا برای تصمیم‌گیری سریع تمرکز دارد. 

کارشناسان می‌گوید که استراتژی جدید هوش مصنوعی پنتاگون، همراه با دستور اجرایی جو بایدن، رئیس‌جمهور آمریکا درباره هوش مصنوعی در دوشنبه گذشته، همگی به یک دغدغه در میان سیاست‌گذاران آمریکایی مرتبط است: حفظ برتری آمریکا در رقابت جهانی در زمینه هوش مصنوعی.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *