توسعه رباتهای قاتل و نگرانی گروههای حقوق بشری
دیدهبان حقوق بشر اعلام کرد که رکورد تعداد کشورهایی که به دومین قطعنامه مجمع عمومی سازمان ملل درمورد سیستمهای تسلیحاتی مرگبار خودمختار یا «رباتهای قاتل» رای مثبت دادهاند، نشاندهنده نیاز فوری به آغاز مذاکره درباره یک معاهده جدید برای ممنوعیت آنهاست.
۱۶۶ کشور در ۲ دسامبر ۲۰۲۴ (۱۲ آذر) به قطعنامه ۷۹/L.۷۷ درمورد سیستمهای تسلیحات خود مختار مرگبار رای مثبت دادند؛ ۳ کشور نیز رای منفی و ۱۵ کشور رای ممتنع دادند.
این قطعنامه یک انجمن جدید تحت نظارت سازمان ملل ایجاد میکند تا درمورد چالشها و نگرانیهای جدی ناشی از سیستمهای تسلیحاتی خودمختار و اقدامهایی که باید درمورد آنها انجام شود، بحث و گفتوگو شود. این سیستمها براساس پردازش حسگر و نه نیروی انسانی، اهداف را انتخاب کرده و هدف قرار میدهند.
مری ورهام، معاون مدیر بحران، درگیری و تسلیحات در دیدهبان حقوق بشر، گفت: حمایت گسترده و فزاینده دولتها از قطعنامه مجمع عمومی درباره سیستمهای تسلیحاتی خودمختار نشان میدهد که تمایل زیادی برای مقابله با نگرانیهای اساسی که با حذف کنترل انسانی از استفاده از زور بهوجود میآید، وجود دارد. چالش در حال حاضر این است که کشورها از صحبت درمورد این موضوع بهسمت مذاکره درباره یک معاهده جدید حرکت کنند که چارچوب لازم برای جلوگیری از آینده کشتار خودکار را فراهم کند.
قطعنامه مجمع عمومی پیامدهای منفی و تاثیر سیستمهای تسلیحاتی خودمختار را بر امنیت جهانی و ثبات منطقهای و بینالمللی تایید میکند؛ این پیامدهای منفی شامل خطر یک مسابقه تسلیحاتی در حال پیدایش، تشدید درگیریهای موجود و بحرانهای بشردوستانه، محاسبههای اشتباه، کاهش آستانه و تشدید درگیریها و گسترش، ازجمله برای دریافتکنندگان غیرمجاز و بازیگران غیردولتی، است.
گزارش دبیرکل سازمان ملل که در آگوست ۲۰۲۴ (مرداد/شهریور ۱۴۰۳) منتشر شد، به چالشها و نگرانیهای ناشی از سیستمهای تسلیحاتی خودمختار «از دیدگاههای بشردوستانه، حقوقی، امنیتی، فناوری و اخلاقی» میپردازد.
سنگاندازی آمریکا و رژیم صهیونیستی
برخی از سیستمهای تسلیحاتی خودمختار سالهاست که وجود داشتهاند، اما انواع اهداف، مدت زمان عملیات، محدوده جغرافیایی و محیطی که چنین سامانههایی در آن کار میکنند، محدود بوده است. با این حال، پیشرفتها در زمینه هوش مصنوعی و فناوریهای جدید باعث توسعه سیستمهای تسلیحاتی مستقلی میشود که بدون کنترل معنادار انسانی عمل میکنند و تصمیمهای مرگ و زندگی به ماشینها واگذار میشود. این نوع تسلیحات خودمختار، بهجای اپراتور انسانی تعیین میکنند که کجا، چه زمانی یا در برابر چه نیرویی عمل کنند.
از ماه می ۲۰۱۴ (اردیبهشت/خرداد ۱۳۹۳) در نشست کنوانسیون سلاحهای متعارف (CCW) در ژنو درباره سیستمهای تسلیحاتی خودمختار مرگبار بحث شده بود، اما هیچ نتیجهای اساسی نداشت.
دلیل اصلی عدم پیشرفت براساس CCW این است که کشورهای عضو آن بر یک رویکرد اجماع برای تصمیمگیری تکیه میکنند، به این معنی که یک کشور میتواند یک پیشنهاد را رد کند، حتی اگر هر کشور دیگری با آن موافقت کند. تعداد انگشتشماری از قدرتهای نظامی، به ویژه آمریکا و رژیم صهیونیستی از این روند برای جلوگیری مداوم از پیشنهادها برای مذاکره درمورد یک سند الزامآور قانونی سوءاستفاده کردهاند.
استفاده رژیم صهیونیستی از تسلیحات مبتنی بر هوش مصنوعی
براساس گزارشها، ارتش رژیم صهیونیستی از یک سیستم تسلیحاتی مبتنی هوش مصنوعی در غزه استفاده میکند که ازسوی یک شرکت نظامی خارجی تولید میشود؛ این شرکت مسلسلها و تفنگهای تهاجمی را به ماشینهای کشتار کامپیوتری تبدیل میکند.
بهگفته تحلیلگران نظامی و گزارشهای خبری، نظامیان صهیونیست پس از تهاجم ویرانگر خود به نوار غزه در ۷ اکتبر (۱۵ مهر ۱۴۰۲)، از سیستم تسلیحاتی آربل (Arbel) در غزه استفاده کردهاند.
- بیشتر بخوانید:
- تداوم نسلکشی رژیم صهیونیستی علیه ساکنان غزه در سایه هوش مصنوعی
- رباتهای انفجاری؛ ابزار جنایت رژیم صهیونیستی در غزه
شماره تلفن و دادههای رسانههای اجتماعی به این سلاحهای هوش مصنوعی متصل شدهاند، که ظاهرا براساس گروهی که در واتساپ حضور دارند، تصمیم میگیرند که آیا یک فلسطینی باید زنده بماند یا بمیرد.
انتهای پیام/