حقوق بشر؛ هدف آسان تسلیحات خودکار

8:40 - 16 شهريور 1403
کد خبر: ۴۷۹۰۲۳۵
دسته بندی: حقوق بشر ، عمومی
حقوق بشر؛ هدف آسان تسلیحات خودکار
ربات‌های قاتل یا تسلیحات خودکار و خودمختار جدیدترین و مهم‌ترین تهدید مربوط به درگیری‌های نظامی هستند، زیرا می‌توانند به شکل گسترده غیرانسانی عمل کنند.

خبرگزاری میزان – آنتونیو گوترش در ۶ آگوست سال جاری میلادی (۱۶ مرداد ۱۴۰۳) درخواست خود را از کشور‌های مختلف جهت انعقاد یک معاهده بین‌المللی جدید تا سال ۲۰۲۶ برای ممنوعیت استفاده از سیستم‌های تسلیحاتی که بدون کنترل یا نظارت انسانی کار می‌کنند و نمی‌توانند مطابق با قوانین بین‌المللی بشردوستانه مورداستفاده قرار گیرند، تکرار کرد.

وی تاکید کرد: این معاهده باید انواع سیستم‌های تسلیحاتی خودران را تنظیم کند.

پیشتر قطعنامه ۲۴۱/۷۸ مجمع عمومی سازمان ملل در دسامبر ۲۰۲۳ (آذر ۱۴۰۲) تصویب شد و سازمان ملل را موظف کرد که نظرهای کشور‌ها و دیگر ذی‌نفعان را درباره راه‌های رسیدگی به چالش‌ها و نگرانی‌های ناشی از سیستم‌های تسلیحاتی خودکار از جنبه‌های بشردوستانه، حقوقی، امنیتی، فنی و اخلاقی جویا شده و بررسی کند.

گزارش جدید سازمان ملل منعکس‌کننده ۵۸ دیدگاه از بیش از ۷۳ کشور و ۳۳ بازیگر معرفی‌شده دیگر ازسوی کمیته بین‌المللی صلیب سرخ و گروه‌های حقوق بشری از جمله دیده‌بان حقوق بشر است؛ بررسی پروژه تحقیقاتی کارزار ممنوعیت تسلیحات خودکار Stop Killer Robots نشان داد که ۴۷ دیدگاه از ۵۸ دیدگاه ارسالی از نوعی ممنوعیت یا مقررات در مورد سیستم‌های تسلیحاتی خودمختار حمایت می‌کنند.

دیده‌بان حقوق بشر در جدیدترین گزارش خود از کشور‌های سراسر جهان خواست با توجه به درخواست آنتونیو گوترش، دبیرکل سازمان ملل، راه را برای انجام مذاکراتی درباره یک معاهده بین‌المللی جدید در مورد سیستم‌های تسلیحاتی خودمختار باز کنند؛ سیستم‌های تسلیحاتی مورد اشاره ربات‌های قاتلی هستند که اهداف را براساس پردازش حسگر به جای ورودی‌های انسانی انتخاب و به آن‌ها حمله می‌کنند.

این یک پیشرفت خطرناک برای بشریت است.

مری وارهام، معاون مدیر بحران، درگیری و تسلیحات دیده‌بان حقوق بشر در این باره تصریح کرد: دبیرکل سازمان ملل بر اثر‌های مخرب عظیمی که از بین بردن کنترل انسان بر سیستم‌های تسلیحاتی بر بشریت خواهد داشت، تاکید کرد.

نگرانی درباره ربات‌های قاتل یا همان سیستم‌های تسلیحاتی خودکار و خودران در حالی تشدید شده که سال‌ها است خودمختاری در سیستم‌های تسلیحاتی گنجانده شده است، اما مدت زمان عملیات، محدوده جغرافیایی و محیطی که سیستم‌های تسلیحاتی خودمختار در آن عمل می‌کنند، محدود بوده است.

پیشرفت‌های فناوری به‌تدریج سبب توسعه سیستم‌های تسلیحاتی شد که بدون کنترل معنی‌دار انسان عمل می‌کنند و تصمیم درباره مرگ و زندگی انسان را به ماشین‌ها واگذار می‌کنند؛ اکنون این ماشین‌ها هستند که به‌جای اپراتور انسانی درباره مرگ و زندگی افراد به‌ویژه در درگیری‌ها تصمیم گیری می‌کنند.

علاقه و تمایل به مذاکره برای یک معاهده بین‌المللی در مورد سیستم‌های تسلیحاتی خودمختار همچنان در حال افزایش است؛ در ماه آوریل سال جاری (فروردین)، بیش از هزار نماینده از ۱۴۴ کشور در یک کنفرانس بین‌المللی سطح بالا در وین در مورد مشکلات ناشی از سیستم‌های تسلیحاتی خودمختار شرکت کردند.

کنفرانس یادشده به دنبال مجموعه‌ای از نشست‌های منطقه‌ای درباره نگرانی‌های مربوط به سیستم‌های تسلیحاتی خودمختار طی ۱۴ ماه در کاستاریکا، لوکزامبورگ، ترینیداد و توباگو، فیلیپین و سیرالئون برگزار شد؛ بیشتر بیانیه‌های منطقه‌ای صادر شده که خواستار مذاکره فوری درباره یک سند الزام‌آور قانونی است که شامل ممنوعیت‌ها و محدودیت‌هایی در سیستم‌های تسلیحاتی خودمختار است.

براساس برنامه‌ریزی‌ها، سران جهان به ابتکار دبیرکل، در ۲۲ تا ۲۳ سپتامبر (یک و ۲ مهر) در نشستی شرکت می‌کنند که معاهده آتی را در موضوع یادشده تا حد زیادی پوشش می‌دهد.

ربات‌های قاتل چه چیز‌هایی هستند؟

در سایه توسعه سریع هوش مصنوعی، بسیاری از موضوع‌هایی که تا مدت‌ها جنبه علمی و تخیلی داشتند، در حال تبدیل شدن به واقعیت هستند؛ ربات‌های قاتل یا سیستم‌های تسلیحاتی خودمختار از آن جمله هستند؛ ربات‌های قاتل یا سیستم‌های تسلیحاتی خودمختار در معنای فنی‌تر، سیستم‌هایی هستند که هدف را انتخاب می‌کنند و بر اساس ورودی‌های حسگر به‌جای ورودی‌های انسانی، به آن شلیک می‌کنند.

این سیستم‌ها سال‌های زیادی در روند توسعه قرار داشتند، اما اکنون به‌سرعت در حال تبدیل شدن به واقعیت هستند؛ این موضوعی بسیار نگران‌کننده است، زیرا این ربات‌ها با میزان قابل توجهی در حال استفاده در میدان‌های جنگ هستند.

به ربات‌های قاتل، مهمات سرگردان هم می‌گویند، زیرا آن‌ها با استفاده از عامل خودمختار بودن می‌توانند در مناطق مختلف میدان نبرد حضور یابند.

هنوز نمی‌توان به درستی و با دقت میان آنچه ربات قاتل است و آنچه ربات قاتل محسوب نمی‌شود، خط و مرزی کشید؛ اینکه کدام یک از سیستم‌های تسلیحاتی خودکار به‌عنوان روبات‌های قاتل در نظر گرفته شوند، به عوامل خاصی مانند میزان کنترل انسان بستگی دارد؛ با وجود این، تسلیحات یادشده خطرات خودمختاری در فناوری نظامی را نشان می‌دهند.

واکنش‌ها به ورود گسترده ربات‌های قاتل چه بود؟

ورود ربات‌های قاتل به صحنه و به راه انداختن کشتار‌های گسترده باعث نگرانی و جنجال در سطح جهانی شده است، به‌طوری‌که برخی از کشور‌ها به دنبال ممنوعیت کامل آن‌ها هستند و برخی دیگر از جمله آمریکا قصد دارند استفاده از آن‌ها را فقط در شرایط تحت نظارت انسان مجاز کنند.

گروهی از دولت‌ها با استناد به معاهده ۱۹۸۰ سازمان ملل، کنوانسیون برخی سلاح‌های متعارف، که هدف آن محدود کردن یا غیرقانونی کردن مهمات غیرهسته‌ای است که به‌طور خاص برای آن‌ها مضر است، تلاش کرده‌اند استقرار و استفاده از سلاح‌های کاملا خودمختار را ممنوع کنند.

سازمان‌های بین‌المللی نیز در مواجهه با ورود گسترده ربات‌های قاتل به زندگی بشری، درخواست‌های خود را برای اعمال محدودیت یا حتی ممنوعیت کامل استفاده از آن‌ها تشدید کرده‌اند.

مجمع عمومی سازمان ملل در نوامبر گذشته (آبان ۱۴۰۲) نخستین قطعنامه را در مورد این سیستم‌های تسلیحاتی که می‌توانند اهدافی را بدون دخالت انسان انتخاب و مورد حمله قرار دهند، تصویب کرد.

دلیل مخالفت‌ها با ربات‌های قاتل چیست؟

نگرانی‌های حقوقی و اخلاقی متعددی درباره ربات‌های قاتل وجود دارند.

در این میان، نگرانی‌های اخلاقی بسیار جدی است؛ واگذاری تصمیم‌های مربوط به مرگ و زندگی به ماشین‌ها برای بسیاری از مردم به‌معنای عبور از خط قرمز است؛ این امر، خشونت را غیرانسانی می‌کند و انسان‌ها را به صرف اعداد تقلیل می‌دهد.

در عین حال، خطر جدی سوگیری الگوریتمی در سیستم‌های تسلیحاتی خودکار وجود دارد؛ از آنجا که این ربات‌ها عامدانه برای جست‌وجوی معیار‌های خاص برنامه‌ریزی شده‌اند، تبعیض علیه افراد بر اساس نژاد، جنسیت، ناتوانی و ... با احتمال بالایی رخ می‌دهد.

ضمن اینکه شواهد فراوانی وجود دارد که هوش مصنوعی می‌تواند مغرضانه شود.

از سوی دیگر نگرانی‌های قانونی بسیار جدی مانند ناتوانی ربات‌ها در تشخیص سربازان از غیرنظامیان وجود دارد؛ ربات‌ها در شرایط مواجهه با غیرنظامیان با مشکلات متعددی مواجه می‌شوند.

حتی اگر فناوری بتواند بر این مشکل غلبه کند، ربات‌ها فاقد قضاوت انسانی هستند؛ این امر برای آنچه معیار تناسب نامیده می‌شود، مهم است؛ جایی که سنجش میزان آسیب غیرنظامی در مقایسه با مزیت نظامی صورت می‌گیرد.

پاسخگو نبودن هم نگرانی قانونی دیگر است؛ مسئول و پاسخگو کردن ربات‌های قاتل مشکل واقعا جدی است، زیرا این امر از نظر قانونی چالش برانگیز و مسلما غیرمنصفانه است که اپراتور را مسئول اعمال سیستمی دانست که به‌طور مستقل عمل می‌کند.

مشکلاتی هم برای مسئول دانستن سازندگان تسلیحات خودمختار براساس قانون جرم وجود دارد؛ نگرانی گسترده‌ای در میان دولت‌ها و ارتش‌ها و افراد دیگر وجود دارد که این سلاح‌های خودمختار ممکن است از طریق شکاف در مسئولیت سقوط کنند.

استفاده از این سیستم‌های تسلیحاتی با ایجاد شکاف در چارچوب، قوانین کیفری بین‌المللی موجود را نیز تضعیف کرده و روندی را ایجاد می‌کند که دیگر تحت پوشش قوانین کیفری موجود نیست.

چرا ممنوعیت ربات‌های قاتل تاکنون ناموفق بوده است؟

تلاش‌ها برای ممنوعیت ربات‌های قاتل تاکنون ناموفق بوده‌اند؛ یکی از دلایل مهم این امر، استاندارد‌های دوگانه کشور‌های تولید و استفاده‌کننده از این ربات‌ها است.

کشور‌های یادشده در حالی با تدوین و تصویب قوانین ممنوعیت تسلیحات خودمختار موافقت می‌کنند که همزمان در حال تولید و توسعه آن‌ها هستند؛ این کشور‌ها در عین حال، درپی فروش تسلیحات خودکار به بهانه‌های مختلف از استفاده مشتریانشان از این تسلیحات دفاع می‌کنند.

بدترین محل فعالیت فعلی ربات‌های قاتل کجاست؟

جنگ جاری رژیم صهیونیستی علیه غزه که در اکتبر سال گذشته (مهر ۱۴۰۲) آغاز شد، نشان داد که ورود ربات‌های قاتل به میدان‌های جنگ تا چه اندازه خطرناک است.

رژیم صهیونیستی به شکل گسترده در حال استفاده از ربات‌های قاتل علیه مردم غزه است و این امر شمار قربانیان را با نرخ قابل توجهی افزایش می‌دهد.

توسعه تسلیحات خودمختار در کدام کشور‌ها بیشتر رخ می‌دهد؟

در حال حاضر، بیشتر تسلیحات خودمختار از سوی ارتش آمریکا توسعه می‌یابد؛ در میان نهاد‌ها و سازمان‌های این کشور، وزارت دفاع آمریکا بیش از همه برای توسعه تسلیحات خودمختار تلاش و هزینه می‌کند.

آمریکا در میانه اقدام گسترده و مستمر برای تولید تسلیحات خودمختار ادعا‌هایی را درباره کنترل و استفاده قانونی از آن‌ها نیز مطرح می‌کند که بسیار بحث‌برانگیز شده‌اند.

این در حالی است که بررسی‌های متعدد نشان می‌دهند که استفاده جهانی کنترل‌نشده از چنین سیستم‌هایی به‌طور بالقوه خطر تشدید درگیری ناخواسته و بی‌ثباتی بحران را به همراه دارد؛ این امر احتمالا به دلایل متعددی ازجمله پیچیدگی‌های چالش‌برانگیز و آزمایش‌نشده تعامل بین سیستم‌های تسلیحاتی مجهز به هوش مصنوعی و خودکار یعنی رفتار‌های اضطراری در میدان جنگ رخ می‌دهد.

وقتی مدافعان اصلی تسلیحات خودمختار تاکید می‌کنند که جهان نباید نگران خطرات ناخواسته ناشی از استفاده از آن‌ها در نبرد باشد، باید به‌معنای واقعی کلمه نگران این موضوع شد.

اگر ماشین‌های کشتار توانایی تفکر خود را به دست آورند، همه را غافلگیر می‌کنند و ممکن است تصمیم بگیرند که نقش حافظان صلح بین‌المللی را بر عهده بگیرند، اما با توجه به اینکه آن‌ها برای جنگیدن و کشتن طراحی شده‌اند، بسیار محتمل است که به‌سادگی تصمیم بگیرند که این دستورها را به شکلی مستقل و افراطی انجام دهند.

در چنین حالتی حتی دیگر کسی باقی نمی‌ماند تا سنگی روی قبر بشریت بگذارد.

انتهای پیام/


برچسب ها: ربات های قاتل

ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *