صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی و موضوع تسهیل نقض حقوق بشر

۲۴ خرداد ۱۴۰۲ - ۱۰:۰۹:۳۰
کد خبر: ۴۷۱۷۷۵۶
دسته بندی‌: حقوق بشر ، عمومی
این مسئولیت شرکت‌های هوش مصنوعی است که اطمینان حاصل کنند محصولات آن‌ها نقض حقوق بشر را تسهیل نمی‌کند.

خبرگزاری میزان – مرکز ایمنی هوش مصنوعی به تازگی هشداری عمومی را درباره خطراتی که هوش مصنوعی برای بشریت ایجاد می‌کند، منتشر کرد. 

این بیانیه که از سوی بیش از ۳۵۰ دانشمند، مدیران تجاری و شخصیت‌های عمومی امضا شده است، می‎گوید: کاهش خطر هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‎گیر و جنگ هسته‌ای یک اولویت جهانی باشد.

نکته نخست اینکه برخی از امضاکنندگان - از جمله مدیران عامل «گوگل دیپ‌مایند و اوپن‌آی» - که در مورد پایان تمدن هشدار می‌دهند، شرکت‌هایی را نمایندگی می‌کنند که در وهله اول مسئول ایجاد این فناوری هستند؛ و دقیقا همین شرکت‌ها هستند که این قدرت را دارند که اطمینان حاصل کنند هوش مصنوعی واقعا برای بشریت مفید است یا حداقل آسیبی به آن وارد نمی‌کند.

توصیه‌های جامعه حقوق بشر

این شرکت‌ها باید به توصیه‌های جامعه حقوق بشر توجه کنند و فورا چارچوبی را اتخاذ کنند که به آن‌ها کمک می‌کند تا اثرات منفی بالقوه محصولات خود را شناسایی، پیشگیری و کاهش دهند.

در حالی که دانشمندان مدت‌هاست در مورد خطرات هوش مصنوعی مولد هشدار داده‌اند، اما تا زمان انتشار اخیر ابزار‌های جدید هوش مصنوعی، بخش بزرگی از مردم متوجه پیامد‌های منفی آن نشدند.

هوش مصنوعی مولد یک اصطلاح گسترده است که الگوریتم‌های خلاقانه‌ای را توصیف می‌کند که خود می‌توانند محتوای جدیدی از جمله تصاویر، متن، صدا، ویدئو و حتی کد‌های رایانه‎ای تولید کنند؛ این الگوریتم‌ها بر روی مجموعه‌های داده عظیم آموزش داده می‌شوند، و سپس از آن آموزش برای ایجاد خروجی‌هایی استفاده می‌کنند که اغلب از داده‌های «واقعی» قابل تشخیص نیستند - تشخیص اینکه آیا محتوا از سوی یک شخص یا یک الگوریتم تولید شده است، اگر نگوییم غیرممکن، دشوار است.

ظهور ناگهانی ابزار‌های جدید هوش مصنوعی مولد بی سابقه بوده است. چت ربات «ChatGPT» توسعه یافته از سوی «OpenAI» کمتر از ۲ ماه طول کشید تا به ۱۰۰ میلیون کاربر برسد؛ این به مراتب بیشتر از رشد اولیه پلتفرم‌های محبوبی مانند تیک‌تاک است که ۹ ماه طول کشید تا به همان تعداد کاربر دسترسی پیدا کند.

در طول تاریخ، فناوری به پیشرفت حقوق بشر کمک کرده است، اما آسیب‌هایی نیز به بار آورده است، اغلب هم به روش‌های غیرقابل پیش بینی؛ هنگامی که ابزار‌های جستجوی اینترنتی، رسانه‌های اجتماعی و فناوری تلفن همراه برای نخستین بار توسعه یافتند و با افزایش پذیرش و دسترسی گسترده، پیش‌بینی بسیاری از راه‌های ناراحت‌کننده که این فناوری‌های دگرگون‌کننده به محرک‌ها و افزایش‌دهنده نقض حقوق بشر در سراسر جهان تبدیل شدند، تقریبا غیرممکن بود. 

موارد نقض حقوق بشر

به گزارش الجزیره، نقش «متا» در پاکسازی قومی روهینگیا در میانمار در سال ۲۰۱۷، یا استفاده از نرم افزار‌های جاسوسی تقریبا غیرقابل کشف برای تبدیل تلفن‌های همراه به دستگاه‌های نظارتی ۲۴ ساعته، هر ۲ پیامد‌های معرفی اخلالگر هستند؛ فناوری‌هایی که پیامد‌های اجتماعی و سیاسی آن‌ها مورد توجه جدی قرار نگرفته بود.

با درس گرفتن از این تحولات، جامعه حقوق بشر از شرکت‌هایی که محصولات هوش مصنوعی مولد را توسعه می‌دهند می‌خواهد که فوراً برای جلوگیری از هرگونه عواقب منفی برای حقوق بشر اقدام کنند؛ بنابراین رویکرد مبتنی بر حقوق بشر به هوش مصنوعی مولد چگونه ممکن است به نظر برسد؟ 

برای انجام مسئولیت خود در مورد احترام به حقوق بشر، آن‌ها باید فوراً چارچوب دقیق بررسی حقوق بشر را که در اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر آمده است، اجرا کنند.

این موضوع شامل بررسی لازم پیشگیرانه و مستمر برای شناسایی آسیب‌های واقعی و بالقوه، شفافیت در مورد این آسیب‌ها، و کاهش و اصلاح در صورت لزوم است.

شرکت‌هایی که این فناوری‌ها را توسعه می‌دهند، باید فعالانه با دانشگاهیان، فعالان و سازمان‌های اجتماعی، به‌ویژه آن‌هایی که نمایندگان جوامع سنتی به حاشیه رانده شده‌اند، وارد تعامل شوند.

تعامل فعال با جوامع به حاشیه رانده شده باید بخشی از طراحی محصول و فرآیند‌های توسعه سیاست باشد تا تأثیر بالقوه این ابزار‌های جدید بهتر درک شود. این کار را نمی‌توان پس از اینکه شرکت‌ها قبلا آسیب رسانده یا به آسیب‌ها کمک کرده‌اند، انجام داد.

انتهای پیام/



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *