صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

توسعه ربات‌های قاتل و نگرانی گروه‌های حقوق بشری

۲۸ آذر ۱۴۰۳ - ۰۷:۴۵:۰۱
کد خبر: ۴۸۱۰۰۶۱
دسته بندی‌: حقوق بشر ، عمومی
توسعه و پیشرفت‌ها در زمینه هوش مصنوعی، و درپی آن توسعه تسلیحات مبتنی بر این فناوری، باعث ایجاد نگرانی درمیان کارشناسان و گروه‌های حقوق بشری شده است.

دیده‌بان حقوق بشر اعلام کرد که رکورد تعداد کشور‌هایی که به دومین قطعنامه مجمع عمومی سازمان ملل درمورد سیستم‌های تسلیحاتی مرگ‌بار خودمختار یا «ربات‌های قاتل» رای مثبت داده‌اند، نشان‌دهنده نیاز فوری به آغاز مذاکره درباره یک معاهده جدید برای ممنوعیت آنهاست.

۱۶۶ کشور در ۲ دسامبر ۲۰۲۴ (۱۲ آذر) به قطعنامه ۷۹/L.۷۷ درمورد سیستم‌های تسلیحات خود مختار مرگ‌بار رای مثبت دادند؛ ۳ کشور نیز رای منفی و ۱۵ کشور رای ممتنع دادند. 

این قطعنامه یک انجمن جدید تحت نظارت سازمان ملل ایجاد می‌کند تا درمورد چالش‌ها و نگرانی‌های جدی ناشی از سیستم‌های تسلیحاتی خودمختار و اقدام‌هایی که باید درمورد آنها انجام شود، بحث و گفت‌وگو شود. این سیستم‌ها براساس پردازش حسگر و نه نیروی انسانی، اهداف را انتخاب کرده و هدف قرار می‌دهند.

مری ورهام، معاون مدیر بحران، درگیری و تسلیحات در دیده‌بان حقوق بشر، گفت: حمایت گسترده و فزاینده دولت‌ها از قطعنامه مجمع عمومی درباره سیستم‌های تسلیحاتی خودمختار نشان می‌دهد که تمایل زیادی برای مقابله با نگرانی‌های اساسی که با حذف کنترل انسانی از استفاده از زور به‌وجود می‌آید، وجود دارد. چالش در حال حاضر این است که کشور‌ها از صحبت درمورد این موضوع به‌سمت مذاکره درباره یک معاهده جدید حرکت کنند که چارچوب لازم برای جلوگیری از آینده کشتار خودکار را فراهم کند.

قطعنامه مجمع عمومی پیامد‌های منفی و تاثیر سیستم‌های تسلیحاتی خودمختار را بر امنیت جهانی و ثبات منطقه‌ای و بین‌المللی تایید می‌کند؛ این پیامد‌های منفی شامل خطر یک مسابقه تسلیحاتی در حال پیدایش، تشدید درگیری‌های موجود و بحران‌های بشردوستانه، محاسبه‌های اشتباه، کاهش آستانه و تشدید درگیری‌ها و گسترش، ازجمله برای دریافت‌کنندگان غیرمجاز و بازیگران غیردولتی، است. 

گزارش دبیرکل سازمان ملل که در آگوست ۲۰۲۴ (مرداد/شهریور ۱۴۰۳) منتشر شد، به چالش‌ها و نگرانی‌های ناشی از سیستم‌های تسلیحاتی خودمختار «از دیدگاه‌های بشردوستانه، حقوقی، امنیتی، فناوری و اخلاقی» می‌پردازد.

سنگ‌اندازی آمریکا و رژیم صهیونیستی

برخی از سیستم‌های تسلیحاتی خودمختار سال‌هاست که وجود داشته‌اند، اما انواع اهداف، مدت زمان عملیات، محدوده جغرافیایی و محیطی که چنین سامانه‌هایی در آن کار می‌کنند، محدود بوده است. با این حال، پیشرفت‌ها در زمینه هوش مصنوعی و فناوری‌های جدید باعث توسعه سیستم‌های تسلیحاتی مستقلی می‌شود که بدون کنترل معنادار انسانی عمل می‌کنند و تصمیم‌های مرگ و زندگی به ماشین‌ها واگذار می‌شود. این نوع تسلیحات خودمختار، به‌جای اپراتور انسانی تعیین می‌کنند که کجا، چه زمانی یا در برابر چه نیرویی عمل کنند. 

از ماه می ۲۰۱۴ (اردیبهشت/خرداد ۱۳۹۳) در نشست کنوانسیون سلاح‌های متعارف (CCW) در ژنو درباره سیستم‌های تسلیحاتی خودمختار مرگ‌بار بحث شده بود، اما هیچ نتیجه‌ای اساسی نداشت. 

دلیل اصلی عدم پیشرفت براساس CCW این است که کشور‌های عضو آن بر یک رویکرد اجماع برای تصمیم‌گیری تکیه می‌کنند، به این معنی که یک کشور می‌تواند یک پیشنهاد را رد کند، حتی اگر هر کشور دیگری با آن موافقت کند. تعداد انگشت‌شماری از قدرت‌های نظامی، به ویژه آمریکا و رژیم صهیونیستی از این روند برای جلوگیری مداوم از پیشنهاد‌ها برای مذاکره درمورد یک سند الزام‌آور قانونی سوءاستفاده کرده‌اند.

استفاده رژیم صهیونیستی از تسلیحات مبتنی بر هوش مصنوعی

براساس گزارش‌ها، ارتش رژیم صهیونیستی از یک سیستم تسلیحاتی مبتنی هوش مصنوعی در غزه استفاده می‌کند که ازسوی یک شرکت نظامی خارجی تولید می‌شود؛ این شرکت مسلسل‌ها و تفنگ‌های تهاجمی را به ماشین‌های کشتار کامپیوتری تبدیل می‌کند. 

به‌گفته تحلیلگران نظامی و گزارش‌های خبری، نظامیان صهیونیست پس از تهاجم ویرانگر خود به نوار غزه در ۷ اکتبر (۱۵ مهر ۱۴۰۲)، از سیستم تسلیحاتی آربل (Arbel) در غزه استفاده کرده‌اند. 

براساس بررسی مجله صهیونیستی +۹۷۲، این رژیم از هوش مصنوعی ایجاد هدف‌ها و تصمیم‌گیری انسانی در میدان نبرد استفاده کرده و راه‌های مقرون‌به‌صرفه یعنی بمب‌های ۲ هزار پوندی را برای از بین بردن کل ساختمان‌های غزه در پیش گرفته است.

شماره تلفن و داده‌های رسانه‌های اجتماعی به این سلاح‌های هوش مصنوعی متصل شده‌اند، که ظاهرا براساس گروهی که در واتس‌اپ حضور دارند، تصمیم می‌گیرند که آیا یک فلسطینی باید زنده بماند یا بمیرد.

انتهای پیام/


برچسب ها: هوش مصنوعی

ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *