صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی و چالش‌های حقوق بشری

۲۱ دی ۱۴۰۳ - ۰۸:۴۸:۲۷
کد خبر: ۴۸۱۳۹۲۹
دسته بندی‌: حقوق بشر ، عمومی
هوش مصنوعی و کاربرد‌های مخرب آن در موضوع نقض حقوق بشر همواره یکی از موضوع‌های مورد توجه کارشناسان بوده است.

به‌تازگی پلیس لاس‌وگاس اعلام کرد نظامی که یک تسلا سایبرتراک را در خارج از هتل ترامپ در لاس‌وگاس آمریکا منفجر کرد، از هوش مصنوعی ازجمله چت جی‌پی‌تی ChatGPT برای کمک به برنامه‌ریزی حمله استفاده کرد.

بررسی جست‌و‌جو‌های عامل انفجار در چت جی‌پی‌تی نشان می‌دهد که این نظامی آمریکایی ۳۷ ساله به نام متیو لیولزبرگر به‌دنبال اطلاعاتی درمورد اهداف انفجاری، سرعت حرکت گلوله‌های خاص و قانونی بودن آتش‌بازی در ایالت آریزونای آمریکا بود.

کوین مک‌میل، رئیس اداره پلیس لاس‌وگاس، استفاده از هوش مصنوعی مولد را تغییرگر بازی خواند و گفت که این اداره اطلاعات را با دیگر سازمان‌های مجری قانون به اشتراک می‌گذارد.

مک‌میل گفت: این نخستین حادثه‌ای است که من دیده‌ام در خاک آمریکا از چت جی‌پی‌تی برای کمک به یک فرد در ساخت یک دستگاه خاص استفاده می‌شود؛ این یک لحظه نگران‌کننده است.

هوش مصنوعی و حقوق بشر 

یک سازمان آمریکایی به نام‌ای‌بی‌ای (ABA) گزارش کرد که تاثیر هوش مصنوعی بر حقوق بشر چالش‌های جدیدی را به‌همراه دارد؛ حفظ حریم خصوصی و مبارزه با تبعیض زمینه‌های اولیه تمرکز بر این چالش‌ها است.

سیستم‌های هوش مصنوعی برای آموزش الگوریتم‌ها و ارتقای عملکرد به حجم عظیمی از داده‌ها ازجمله داده‌های شخصی حساس متکی هستند.

هوش مصنوعی همچنین برای پیش‌بینی‌ها و تصمیم‌گیری در مورد افراد استفاده می‌شود و این موضوع پرسش‌هایی را در مورد سوگیری الگوریتمی و اثر‌های تبعیض‌آمیز احتمالی ایجاد می‌کند.

سازمان ملل در سال ۲۰۲۴ با ۲ قطعنامه در مجمع عمومی اجماع نظر یافت که هوش مصنوعی بر حقوق بشر تاثیر می‌گذارد و هشدار داد که استفاده‌های خاصی از هوش مصنوعی با حقوق بشر ناسازگار است. 

هیئت مشاوران سطح عالی سازمان ملل درمورد هوش مصنوعی گزارشی را منتشر کرد که در آن دوباره تاکید کرد که حکمرانی هوش مصنوعی در خلاء انجام نمی‌شود و قوانین بین‌المللی، به‌ویژه قوانین بین‌المللی حقوق بشر، باید در رابطه با هوش مصنوعی اعمال شود.

یکی از چالش‌ها این است که همان اسناد قانونی که به‌عنوان پیشگام شناخته می‌شوند، مانند قانون هوش مصنوعی اتحادیه اروپا و معاهده هوش مصنوعی CoE، آنقدر مملو از استثناها، معافیت‌ها و انحراف‌ها هستند که هرگونه ادعایی مبنی بر ترویج حکومت هوش مصنوعی مبتنی بر حقوق را به سخره می‌گیرند.

به‌عنوان نمونه، قانون هوش مصنوعی اتحادیه اروپا که در ممنوع کردن خطرناک‌ترین استفاده‌های هوش مصنوعی ناکام بوده، تبعیض‌های خودسرانه را علیه افراد مهاجر اعمال می‌کند و مقام‌های مجری قانون و افسران مهاجرتی را از شفافیت معاف می‌کند.

استفاده نظامی از هوش مصنوعی و تهدید حقوق بشر

هوش مصنوعی در سال‌های اخیر پیشرفت‌های چشمگیری داشته که به کاربرد‌های مختلفی در بخش‌های غیرنظامی و نظامی منجر شده است؛ برخی کشور‌ها هوش مصنوعی را راه‌حلی برای توسعه فناوری‌های نظامی موثرتر و سریع‌تر می‌دانند. 

درحالی که هوش مصنوعی مزایایی مانند کارایی عملیاتی بهبودیافته و هدف‌گیری دقیق را ارائه می‌کند، اما در همین حال نگرانی‌های اخلاقی و قانونی جدی را به‌ویژه در مورد نقض حقوق بشر ایجاد می‌کند. 

سلاح‌های خودمختار (مبتنی بر هوش مصنوعی) که بدون مشارکت انسانی تصمیم می‌گیرند، می‌توانند حق حیات را تهدید کنند و قوانین بشردوستانه بین‌المللی را نقض کنند.

۱۶۶ کشور در ۲ دسامبر ۲۰۲۴ (۱۲ آذر) به قطعنامه ۷۹/L.۷۷ درمورد سیستم‌های تسلیحات خود مختار مرگ‌بار رای مثبت دادند؛ ۳ کشور نیز رای منفی و ۱۵ کشور رای ممتنع دادند. 

براساس گزارش‌ها، ارتش رژیم صهیونیستی از یک سیستم تسلیحاتی مبتنی هوش مصنوعی در غزه استفاده می‌کند که ازسوی یک شرکت نظامی خارجی تولید می‌شود؛ این شرکت مسلسل‌ها و تفنگ‌های تهاجمی را به ماشین‌های کشتار کامپیوتری تبدیل می‌کند. 

به‌گفته تحلیلگران نظامی و گزارش‌های خبری، نظامیان صهیونیست پس از تهاجم ویرانگر خود به نوار غزه در ۷ اکتبر (۱۵ مهر ۱۴۰۲)، از سیستم تسلیحاتی آربل (Arbel) در غزه استفاده کرده‌اند.

براساس بررسی مجله صهیونیستی +۹۷۲، این رژیم از هوش مصنوعی ایجاد هدف‌ها و تصمیم‌گیری انسانی در میدان نبرد استفاده کرده و راه‌های مقرون‌به‌صرفه یعنی بمب‌های ۲ هزار پوندی را برای از بین بردن کل ساختمان‌های غزه در پیش گرفته است.

راهبرد‌های جمع‌آوری اطلاعات در نوار غزه نیز تا حد زیادی به سیستم‌های هوش مصنوعی واگذار شده است و تفنگ‌های خودکار مبتنی بر هوش مصنوعی بر روی برج‌های نظامی و ساختمان‌های بلند نصب شده است

بعد از افشای گزارش‌های متعدد درباره استفاده مخرب رژیم اشغالگر از هوش مصنوعی برای کشتار غیرنظامیان در باریکه غزه، کارشناسان حقوق بشری سازمان ملل در گزارشی اعلام کردند که آمار بالای شهدا و گستردگی ویرانی تاسیسات غیرنظامی در باریکه غزه به دلیل استفاده این رژیم از سیستم‌های هوش مصنوعی در این جنگ است که از اکتبر ۲۰۲۳ (مهر ۱۴۰۲) تاکنون ادامه دارد.

این کارشناسان در گزارشی مشترک تاکید کردند که اطلاعات زیادی درباره استفاده ارتش رژیم صهیونیستی از سیستم‌های هوش مصنوعی در کشتار غیرنظامیان و تخریب زیرساخت‌های غیرنظامی و خانه‌ها در باریکه غزه وجود دارد.

بعد از گذشت بیش از یک سال از تجاوز رژیم صهیونیستی به غزه، بیشترین تعداد خانه و زیرساخت‌های غیرنظامی در غزه در مقایسه با دیگر جنگ‌ها ویران شده است.

انتهای پیام/ 



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *