حقوق بشر؛ هدف آسان تسلیحات خودکار
خبرگزاری میزان – آنتونیو گوترش در ۶ آگوست سال جاری میلادی (۱۶ مرداد ۱۴۰۳) درخواست خود را از کشورهای مختلف جهت انعقاد یک معاهده بینالمللی جدید تا سال ۲۰۲۶ برای ممنوعیت استفاده از سیستمهای تسلیحاتی که بدون کنترل یا نظارت انسانی کار میکنند و نمیتوانند مطابق با قوانین بینالمللی بشردوستانه مورداستفاده قرار گیرند، تکرار کرد.
وی تاکید کرد: این معاهده باید انواع سیستمهای تسلیحاتی خودران را تنظیم کند.
پیشتر قطعنامه ۲۴۱/۷۸ مجمع عمومی سازمان ملل در دسامبر ۲۰۲۳ (آذر ۱۴۰۲) تصویب شد و سازمان ملل را موظف کرد که نظرهای کشورها و دیگر ذینفعان را درباره راههای رسیدگی به چالشها و نگرانیهای ناشی از سیستمهای تسلیحاتی خودکار از جنبههای بشردوستانه، حقوقی، امنیتی، فنی و اخلاقی جویا شده و بررسی کند.
گزارش جدید سازمان ملل منعکسکننده ۵۸ دیدگاه از بیش از ۷۳ کشور و ۳۳ بازیگر معرفیشده دیگر ازسوی کمیته بینالمللی صلیب سرخ و گروههای حقوق بشری از جمله دیدهبان حقوق بشر است؛ بررسی پروژه تحقیقاتی کارزار ممنوعیت تسلیحات خودکار Stop Killer Robots نشان داد که ۴۷ دیدگاه از ۵۸ دیدگاه ارسالی از نوعی ممنوعیت یا مقررات در مورد سیستمهای تسلیحاتی خودمختار حمایت میکنند.
دیدهبان حقوق بشر در جدیدترین گزارش خود از کشورهای سراسر جهان خواست با توجه به درخواست آنتونیو گوترش، دبیرکل سازمان ملل، راه را برای انجام مذاکراتی درباره یک معاهده بینالمللی جدید در مورد سیستمهای تسلیحاتی خودمختار باز کنند؛ سیستمهای تسلیحاتی مورد اشاره رباتهای قاتلی هستند که اهداف را براساس پردازش حسگر به جای ورودیهای انسانی انتخاب و به آنها حمله میکنند.
این یک پیشرفت خطرناک برای بشریت است.
مری وارهام، معاون مدیر بحران، درگیری و تسلیحات دیدهبان حقوق بشر در این باره تصریح کرد: دبیرکل سازمان ملل بر اثرهای مخرب عظیمی که از بین بردن کنترل انسان بر سیستمهای تسلیحاتی بر بشریت خواهد داشت، تاکید کرد.
نگرانی درباره رباتهای قاتل یا همان سیستمهای تسلیحاتی خودکار و خودران در حالی تشدید شده که سالها است خودمختاری در سیستمهای تسلیحاتی گنجانده شده است، اما مدت زمان عملیات، محدوده جغرافیایی و محیطی که سیستمهای تسلیحاتی خودمختار در آن عمل میکنند، محدود بوده است.
پیشرفتهای فناوری بهتدریج سبب توسعه سیستمهای تسلیحاتی شد که بدون کنترل معنیدار انسان عمل میکنند و تصمیم درباره مرگ و زندگی انسان را به ماشینها واگذار میکنند؛ اکنون این ماشینها هستند که بهجای اپراتور انسانی درباره مرگ و زندگی افراد بهویژه در درگیریها تصمیم گیری میکنند.
علاقه و تمایل به مذاکره برای یک معاهده بینالمللی در مورد سیستمهای تسلیحاتی خودمختار همچنان در حال افزایش است؛ در ماه آوریل سال جاری (فروردین)، بیش از هزار نماینده از ۱۴۴ کشور در یک کنفرانس بینالمللی سطح بالا در وین در مورد مشکلات ناشی از سیستمهای تسلیحاتی خودمختار شرکت کردند.
کنفرانس یادشده به دنبال مجموعهای از نشستهای منطقهای درباره نگرانیهای مربوط به سیستمهای تسلیحاتی خودمختار طی ۱۴ ماه در کاستاریکا، لوکزامبورگ، ترینیداد و توباگو، فیلیپین و سیرالئون برگزار شد؛ بیشتر بیانیههای منطقهای صادر شده که خواستار مذاکره فوری درباره یک سند الزامآور قانونی است که شامل ممنوعیتها و محدودیتهایی در سیستمهای تسلیحاتی خودمختار است.
براساس برنامهریزیها، سران جهان به ابتکار دبیرکل، در ۲۲ تا ۲۳ سپتامبر (یک و ۲ مهر) در نشستی شرکت میکنند که معاهده آتی را در موضوع یادشده تا حد زیادی پوشش میدهد.
رباتهای قاتل چه چیزهایی هستند؟
در سایه توسعه سریع هوش مصنوعی، بسیاری از موضوعهایی که تا مدتها جنبه علمی و تخیلی داشتند، در حال تبدیل شدن به واقعیت هستند؛ رباتهای قاتل یا سیستمهای تسلیحاتی خودمختار از آن جمله هستند؛ رباتهای قاتل یا سیستمهای تسلیحاتی خودمختار در معنای فنیتر، سیستمهایی هستند که هدف را انتخاب میکنند و بر اساس ورودیهای حسگر بهجای ورودیهای انسانی، به آن شلیک میکنند.
این سیستمها سالهای زیادی در روند توسعه قرار داشتند، اما اکنون بهسرعت در حال تبدیل شدن به واقعیت هستند؛ این موضوعی بسیار نگرانکننده است، زیرا این رباتها با میزان قابل توجهی در حال استفاده در میدانهای جنگ هستند.
به رباتهای قاتل، مهمات سرگردان هم میگویند، زیرا آنها با استفاده از عامل خودمختار بودن میتوانند در مناطق مختلف میدان نبرد حضور یابند.
هنوز نمیتوان به درستی و با دقت میان آنچه ربات قاتل است و آنچه ربات قاتل محسوب نمیشود، خط و مرزی کشید؛ اینکه کدام یک از سیستمهای تسلیحاتی خودکار بهعنوان روباتهای قاتل در نظر گرفته شوند، به عوامل خاصی مانند میزان کنترل انسان بستگی دارد؛ با وجود این، تسلیحات یادشده خطرات خودمختاری در فناوری نظامی را نشان میدهند.
واکنشها به ورود گسترده رباتهای قاتل چه بود؟
ورود رباتهای قاتل به صحنه و به راه انداختن کشتارهای گسترده باعث نگرانی و جنجال در سطح جهانی شده است، بهطوریکه برخی از کشورها به دنبال ممنوعیت کامل آنها هستند و برخی دیگر از جمله آمریکا قصد دارند استفاده از آنها را فقط در شرایط تحت نظارت انسان مجاز کنند.
گروهی از دولتها با استناد به معاهده ۱۹۸۰ سازمان ملل، کنوانسیون برخی سلاحهای متعارف، که هدف آن محدود کردن یا غیرقانونی کردن مهمات غیرهستهای است که بهطور خاص برای آنها مضر است، تلاش کردهاند استقرار و استفاده از سلاحهای کاملا خودمختار را ممنوع کنند.
سازمانهای بینالمللی نیز در مواجهه با ورود گسترده رباتهای قاتل به زندگی بشری، درخواستهای خود را برای اعمال محدودیت یا حتی ممنوعیت کامل استفاده از آنها تشدید کردهاند.
مجمع عمومی سازمان ملل در نوامبر گذشته (آبان ۱۴۰۲) نخستین قطعنامه را در مورد این سیستمهای تسلیحاتی که میتوانند اهدافی را بدون دخالت انسان انتخاب و مورد حمله قرار دهند، تصویب کرد.
- بیشتر بخوانید:
- فناوریهای نابودی در خدمت رژیم صهیونیستی؛ جولان مرگ ارتش رباتیک در غزه
- سرنوشت جهان زیر فشار ماشین جنگی مبتنی بر هوش مصنوعی
دلیل مخالفتها با رباتهای قاتل چیست؟
نگرانیهای حقوقی و اخلاقی متعددی درباره رباتهای قاتل وجود دارند.
در این میان، نگرانیهای اخلاقی بسیار جدی است؛ واگذاری تصمیمهای مربوط به مرگ و زندگی به ماشینها برای بسیاری از مردم بهمعنای عبور از خط قرمز است؛ این امر، خشونت را غیرانسانی میکند و انسانها را به صرف اعداد تقلیل میدهد.
در عین حال، خطر جدی سوگیری الگوریتمی در سیستمهای تسلیحاتی خودکار وجود دارد؛ از آنجا که این رباتها عامدانه برای جستوجوی معیارهای خاص برنامهریزی شدهاند، تبعیض علیه افراد بر اساس نژاد، جنسیت، ناتوانی و ... با احتمال بالایی رخ میدهد.
ضمن اینکه شواهد فراوانی وجود دارد که هوش مصنوعی میتواند مغرضانه شود.
از سوی دیگر نگرانیهای قانونی بسیار جدی مانند ناتوانی رباتها در تشخیص سربازان از غیرنظامیان وجود دارد؛ رباتها در شرایط مواجهه با غیرنظامیان با مشکلات متعددی مواجه میشوند.
حتی اگر فناوری بتواند بر این مشکل غلبه کند، رباتها فاقد قضاوت انسانی هستند؛ این امر برای آنچه معیار تناسب نامیده میشود، مهم است؛ جایی که سنجش میزان آسیب غیرنظامی در مقایسه با مزیت نظامی صورت میگیرد.
پاسخگو نبودن هم نگرانی قانونی دیگر است؛ مسئول و پاسخگو کردن رباتهای قاتل مشکل واقعا جدی است، زیرا این امر از نظر قانونی چالش برانگیز و مسلما غیرمنصفانه است که اپراتور را مسئول اعمال سیستمی دانست که بهطور مستقل عمل میکند.
مشکلاتی هم برای مسئول دانستن سازندگان تسلیحات خودمختار براساس قانون جرم وجود دارد؛ نگرانی گستردهای در میان دولتها و ارتشها و افراد دیگر وجود دارد که این سلاحهای خودمختار ممکن است از طریق شکاف در مسئولیت سقوط کنند.
استفاده از این سیستمهای تسلیحاتی با ایجاد شکاف در چارچوب، قوانین کیفری بینالمللی موجود را نیز تضعیف کرده و روندی را ایجاد میکند که دیگر تحت پوشش قوانین کیفری موجود نیست.
چرا ممنوعیت رباتهای قاتل تاکنون ناموفق بوده است؟
تلاشها برای ممنوعیت رباتهای قاتل تاکنون ناموفق بودهاند؛ یکی از دلایل مهم این امر، استانداردهای دوگانه کشورهای تولید و استفادهکننده از این رباتها است.
کشورهای یادشده در حالی با تدوین و تصویب قوانین ممنوعیت تسلیحات خودمختار موافقت میکنند که همزمان در حال تولید و توسعه آنها هستند؛ این کشورها در عین حال، درپی فروش تسلیحات خودکار به بهانههای مختلف از استفاده مشتریانشان از این تسلیحات دفاع میکنند.
بدترین محل فعالیت فعلی رباتهای قاتل کجاست؟
رژیم صهیونیستی به شکل گسترده در حال استفاده از رباتهای قاتل علیه مردم غزه است و این امر شمار قربانیان را با نرخ قابل توجهی افزایش میدهد.
توسعه تسلیحات خودمختار در کدام کشورها بیشتر رخ میدهد؟
در حال حاضر، بیشتر تسلیحات خودمختار از سوی ارتش آمریکا توسعه مییابد؛ در میان نهادها و سازمانهای این کشور، وزارت دفاع آمریکا بیش از همه برای توسعه تسلیحات خودمختار تلاش و هزینه میکند.
آمریکا در میانه اقدام گسترده و مستمر برای تولید تسلیحات خودمختار ادعاهایی را درباره کنترل و استفاده قانونی از آنها نیز مطرح میکند که بسیار بحثبرانگیز شدهاند.
این در حالی است که بررسیهای متعدد نشان میدهند که استفاده جهانی کنترلنشده از چنین سیستمهایی بهطور بالقوه خطر تشدید درگیری ناخواسته و بیثباتی بحران را به همراه دارد؛ این امر احتمالا به دلایل متعددی ازجمله پیچیدگیهای چالشبرانگیز و آزمایشنشده تعامل بین سیستمهای تسلیحاتی مجهز به هوش مصنوعی و خودکار یعنی رفتارهای اضطراری در میدان جنگ رخ میدهد.
وقتی مدافعان اصلی تسلیحات خودمختار تاکید میکنند که جهان نباید نگران خطرات ناخواسته ناشی از استفاده از آنها در نبرد باشد، باید بهمعنای واقعی کلمه نگران این موضوع شد.
اگر ماشینهای کشتار توانایی تفکر خود را به دست آورند، همه را غافلگیر میکنند و ممکن است تصمیم بگیرند که نقش حافظان صلح بینالمللی را بر عهده بگیرند، اما با توجه به اینکه آنها برای جنگیدن و کشتن طراحی شدهاند، بسیار محتمل است که بهسادگی تصمیم بگیرند که این دستورها را به شکلی مستقل و افراطی انجام دهند.
در چنین حالتی حتی دیگر کسی باقی نمیماند تا سنگی روی قبر بشریت بگذارد.
انتهای پیام/