صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

آغاز هوش مصنوعی، پایان حقوق بشر؟

۱۳ خرداد ۱۴۰۳ - ۰۸:۰۰:۰۲
کد خبر: ۴۷۷۵۳۰۰
دسته بندی‌: حقوق بشر ، عمومی
تاثیر انسان دارای سوگیری‌های مختلف بر ایجاد هوش مصنوعی غیرقابل انکار است و همین موضوع سبب می‌شود که هوش مصنوعی بسیاری از مولفه‌های نقض حقوق بشر را از سازنده خود به ارث ببرد.

خبرگزاری میزان – جهان در دوره اوج تغییر‌ها و پیشرفت‌های فناورانه قرار دارد و چشم‌انداز علمی تاریخ به‌سرعت تغییر می‌کند؛ هوش مصنوعی یکی از حوزه‌های فناوری است که می‌تواند جامعه انسانی را به ربات و ماشین تبدیل کند.

به گزارش lse، هوش مصنوعی شامل یادگیری ماشینی، پردازش زبان طبیعی، تجزیه و تحلیل داده‌های بزرگ، الگوریتم‌ها و موارد دیگر است؛ با وجود این، از آنجایی که هوش انسانی با سوگیری ذاتی در تصمیم‌گیری مشخص می‌شود، چنین ویژگی‌هایی را می‌توان در محصولات هوش مصنوعی که با هوش خلق شده از سوی انسان کار می‌کنند، نیز یافت.

پدیده‌های سوگیری و تبعیض که در مجموعه‌ای از فناوری‌ها ریشه دارد و در سیستم‌های اجتماعی تعبیه شده است، تهدیدی برای حقوق بشر جهانی است؛ هوش مصنوعی با تسهیل تبعیض، به‌طور نامتناسبی بر حقوق بشر افراد و گروه‌های آسیب‌پذیر تاثیر می‌گذارد و در نتیجه شکل جدیدی از ظلم را ایجاد می‌کند که ریشه در فناوری دارد.

هوش مصنوعی به‌عنوان ابزاری برای تبعیض

با پیشرفت هوش مصنوعی در جامعه انسانی، موضوع تبعیض و نژادپرستی نظام‌مند فضای فزاینده‌ای را در بحث‌های سیاسی در مورد رشد فناوری گرفته است؛ ماده ۲ UDHR (اعلامیه جهانی حقوق بشر) و ماده ۲ میثاق بین‌المللی حقوق مدنی و سیاسی، حقوق بین‌الملل و حقوق بشر، استحقاق فردی را برای همه حقوق و آزادی‌ها بدون تبعیض بیان می‌کنند.

با در نظر گرفتن انبوه عقاید تبعیض‌آمیز و اعمال ظالمانه که مشخصه تعامل انسانی است، به کار بردن مفاد یادشده در عمل دشوار است؛ اگرچه برخی ساده‌لوحانه هوش مصنوعی را راه‌حل این چالش می‌دانند، اما فناوری که انسان را از تعصب تصمیم‌گیری انسانی رها کند، وجود ندارد و ردپای هوش انسانی در فناوری هوش مصنوعی همچنان وجود دارد.

الگوریتم‌های هوش مصنوعی و سیستم‌های تشخیص چهره به شکل خاص با نشان دادن تمایل‌های تبعیض‌آمیز نسبت به سیاه‌پوستان، نتوانسته‌اند استانداردی اساسی از برابری را تضمین کنند؛ در سال ۲۰۱۵، گوگل فوتوز که یک نرم‌افزار تشخیص پیشرفته محسوب می‌شود، عکس ۲ سیاه‌پوست را به‌عنوان تصویر گوریل دسته‌بندی کرد.

هنگامی که کلمات کلیدی مانند دختران سیاه‌پوست در نوار جست‌وجوی گوگل وارد شدند، الگوریتم در پاسخ مطالب جنسی صریح را نشان داد؛ محققان همچنین دریافته‌اند که الگوریتمی که تشخیص می‌دهد کدام بیماران به مراقبت‌های پزشکی اضافی نیاز دارند، نیاز‌های پزشکی بیماران سیاه‌پوست را کم‌ارزش می‌داند.

فناوری تشخیص چهره اکنون در سیستم‌های عدالت کیفری کشور‌های مختلف برای شناسایی مظنون‌ها از سوی پلیس تشخیص هویت استفاده می‌شود؛ برخی از کارشناسان تاکید دارند که این فناوری، به جای کاهش و کنترل کار پلیس، الگوریتم‌های در رویکرد‌های تبعیض آمیز از پیش موجود اجرای قانون را تقویت می‌کنند.

سوگیری ارزیابی نشده این ابزارها، سیاه‌پوستان را در معرض بالای خطر تلقی شدن به‌عنوان مجرمان پرخطر قرار داده است، بنابراین تمایل‌های  نژادپرستانه را در سیستم قضایی و زندان تقویت می‌کند؛ تبعیض نژادی که در هوش مصنوعی به ارث رسیده است، رفتار برابر و حق حمایت را نقض می‌کند.

در حالی که امروزه، جوامع از طریق جنبش «زندگی سیاه‌پوستان مهم است» از حقوق سیاه‌پوستان دفاع می‌کنند، افزایش پیاده‌سازی هوش مصنوعی در جامعه، سوگیری دیجیتالی را تقویت می‌کند و آسیبی را که در حال حاضر با آن مبارزه می‌شود، تکرار می‌کند؛ از این نظر، این فناوری با تشدید اعمال تبعیض‌آمیز موجود در جامعه مدرن، به‌طور نامتناسبی بر اقشار آسیب‌پذیر تاثیر می‌گذارد.

هوش مصنوعی به‌عنوان منبع بیکاری

حق کار و حمایت در برابر بیکاری براساس ماده ۲۳ UDHR (اعلامیه جهانی حقوق بشر)، ماده ۶ ICESCR (میثاق بین‌المللی حقوق اقتصادی، اجتماعی و فرهنگی) و ماده ۱ ILO (سازمان بین‌المللی) کار تضمین شده است.

اگرچه رشد سریع هوش مصنوعی با بهبود کارایی ماشین‌آلات و خدمات، کسب‌وکار‌های موجود و زندگی شخصی افراد را متحول کرده است، چنین تغییرهایی دوران بیکاری را به دلیل جابجایی نیروی کار انسانی نیز رقم زده است.

رابرت اسکیدلسکی، مورخ انگلیسی با اشاره به رشد فناوری می‌نویسد که «دیر یا زود، ما بیکار خواهیم شد»؛ این موضوع همچنین در مطالعه‌ای از سوی دانشگاه اکسفورد، تکرار شد؛ تحقیق یادشده تخمین زد ۴۷ درصد از مشاغل آمریکا در معرض خطر نابودی در آینده به دلیل هوش مصنوعی هستند.

این در حالی است که شیوع کرونا، طی سال‌های اخیر میلیون‌ها شغل را تحت تاثیر قرار داده و موج جدیدی از انقلاب‌های هوش مصنوعی ممکن است وضعیت را تشدید کند؛ با معرفی روزافزون هوش مصنوعی در بخش‌های مختلف شغلی، به نظر می‌رسد که فقرا فقیرتر و ثروتمندان ثروتمندتر می‌شوند.

هوش مصنوعی نشان‌دهنده شکل جدیدی از سرمایه‌داری است که بدون ایجاد مشاغل جدید برای کسب سود تلاش می‌کند و در عوض نیروی انسانی به‌عنوان مانعی برای رشد تلقی می‌شود؛ بنابراین نیاز مبرمی به پرداختن به پیامد‌های هوش مصنوعی بر حقوق اجتماعی و اقتصادی، از طریق توسعه یک سیستم حکمرانی فنی-اجتماعی که ممکن است از حقوق شغلی انسان‌ها در عصر هوش مصنوعی محافظت کند، وجود دارد.

هوش مصنوعی و کنترل جمعیت و حرکت

حق آزادی رفت‌وآمد از بسیاری از اعلامیه‌های بین‌المللی سرچشمه می‌گیرد و از سوی بسیاری از کشور‌ها به‌عنوان یک حق اساسی فردی به رسمیت شناخته شده است.

توانایی هوش مصنوعی برای محدود کردن این حق به‌طور خاص با استفاده از آن برای اهداف نظارتی مرتبط است؛ گزارشی از بنیاد کارنگی برای صلح بین‌المللی اشاره کرد که دست‌کم ۷۵ کشور از ۱۷۶ کشور در سطح جهان به‌طور فعال از هوش مصنوعی برای اهداف امنیتی مانند مدیریت مرز‌ها استفاده می‌کنند.

نگرانی‌های جدی در رابطه با تاثیر ناهمگون نظارت بر جمعیت‌هایی که قبلا از سوی پلیس مورد تبعیض قرار گرفته‌اند (سیاه‌پوستان، پناهندگان و مهاجران غیرقانونی) وجود دارد، زیرا ابزار‌های پلیسی تشخیص هویت در نهایت منجر به فاکتورگیری «داده‌های کثیف» می‌شوند که منعکس‌کننده سوگیری آگاهانه و ضمنی است.

براساس گزارش‌ها، ده‌ها برج مجهز به دوربین‌های لیزری پیشرفته در مرز آمریکا و مکزیک در آریزونا برای کنترل مهاجرت، نصب شده‌اند؛ علاوه بر این، دولت آمریکا یک سیستم تشخیص چهره را برای ضبط تصاویر افراد داخل وسایل نقلیه در حال ورود و خروج از کشور مستقر کرده است.

تغییرهای فناوری بر بخش‌های نظامی و بشردوستانه نیز تاثیر گذاشته است؛ اجرای حمله با پهپاد‌های مسلح به‌ویژه از سوی آمریکا در پاکستان و افغانستان بار‌ها به رقم خوردن جنایت منجر شدند.

در گزارش سال ۲۰۱۰ سازمان ملل این اقدام به‌عنوان نقض قوانین بین‌المللی بشردوستانه محکوم شد.

تحقیقات The Intercept of Operations نشان داد که عملیات نظامی آمریکا در هندوکش سبب شد تا از هر ۱۰ نفری که بر اثر حمله با پهپاد‌های این کشور قربانی شدند، ۹ نفر نزدیک به هدف نباشند.

توسعه سریع فناوری‌های خودکار هوش مصنوعی همچنین منجر به تولید سلاح‌های کاملا خودکار مانند ربات‌های قاتل شدند که نگرانی‌های اخلاقی، قانونی و امنیتی زیادی را ایجاد می‌کند.

افزایش سریع وابستگی جامعه انسانی به هوش مصنوعی برای اعمال کنترل اجتماعی، نگرانی‌های زیادی را در مورد حفظ حریم خصوصی ایجاد کرد؛ ضمن اینکه زنگ هشدار را برای سوءاستفاده از این فناوری برای استثمار و سرکوب به صدا درآورد.

گسترش مداوم سلطه هوش مصنوعی بر زندگی انسان‌ها

این یک واقعیت است که اگر استفاده از هوش مصنوعی همچنان به‌طور گسترده بدون نظارت باقی بماند، بدون شک حقوق بشر گروه‌های آسیب‌پذیر بیش از همیشه آسیب خواهد دید.

با گسترش مداوم سلطه هوش مصنوعی بر زندگی انسان، تنش بین هوش مصنوعی و حقوق بشر به‌طور فزاینده‌ای خود را نشان می‌دهد، زیرا فناوری در زندگی روزمره و عملکرد جامعه انسانی نقش محوری دارد.

از آنجایی که هوش مصنوعی به‌عنوان عاملی در بهبود جامعه مدرن تلقی می‌شود، فقدان سیاست‌های سختگیرانه حفاظت از داده‌ها، جامعه انسانی را در اختیار شرکت‌های فناوری قرار می‌دهد که آماده استثمار دیجیتالی هستند.

این شرکت‌ها با مقررات و پاسخگویی اندک، آزادانه به زندگی شهروندان نفوذ می‌کنند و به‌طور فزاینده‌ای حقوق بشر را نقض می‌کنند؛ از ترویج تبعیض گرفته تا اقدام‌های نظارتی تهاجمی.

هوش مصنوعی ثابت کرده است که تهدیدی برای حفاظت برابر، حقوق اقتصادی و آزادی‌های اساسی است؛ برای معکوس کردن این روندها، استاندارد‌های قانونی مناسب باید در عرصه دیجیتال پیاده شود؛ ضمن اینکه افزایش شفافیت در فرآیند‌های تصمیم‌گیری هوش مصنوعی، پاسخگویی بهتر برای غول‌های فناوری و توانایی برای به چالش کشیدن اجرای فناوری‌های جدید در جامعه به شدت مورد نیاز است.

در عین حال، سواد هوش مصنوعی باید از طریق سرمایه‌گذاری در ابتکار‌های آموزشی و آگاهی عمومی تشویق شود تا به جوامع کمک می‌کند که نه‌تنها در مورد عملکرد‌های هوش مصنوعی، بلکه همچنین تاثیر آن بر زندگی روزمره انسان را بیاموزند.

تا زمانی که اقدام‌های مناسب برای حفظ منافع جامعه بشری اعمال نشود، آینده حقوق بشر در عصر فناوری نامشخص باقی می‌ماند.

انتهای پیام/



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *