صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی در برابر حقوق بشر!

۱۷ آذر ۱۳۹۷ - ۱۹:۰۲:۳۲
کد خبر: ۴۷۴۰۹۵
گسترش هوش مصنوعی در حوزه‌های گوناگون می‌تواند پیامدهای مخربی برای حقوق بشر داشته باشد و زندگی افراد بسیاری را تحت تاثیر قرار دهد.

به گزارش گروه فضای مجازی ، گزارش‌های شرکت‌هایی از جمله گوگل و مایکروسافت در مورد هوش مصنوعی نشان می‌دهد سیستم‌های هوش مصنوعی و سازندگان آن به شدت نیاز به مداخله مستقیم دولت و ناظران حقوق بشر دارند. به نظر می‌رسد این فناوری در تنظیم خود موفق نیست.

گزارشی که توسط یکی از سازمان‌های وابسته به "دانشگاه نیویورک"(NYU) منتشر شده، نشان می‌دهد که ابزارهای مبتنی بر هوش مصنوعی با کمترین توجه نسبت به اثرات مضر و یا حتی اثبات ابزار کارآمد، مورد استفاده قرار گرفته‌اند. عملکرد این سیستم‌های اثبات نشده می‌تواند هزاران و حتی میلیون‌ها نفر را تحت تاثیر قرار دهد.

این سیستم‌ها، به آسیب جدی منجر می‌شوند و نه تنها سیستمی برای متوقف کردن آنها وجود ندارد، بلکه ابزار ردیابی و تعیین کمیت آنها نیز محدود هستند.

در این گزارش آمده است: چارچوب‌های حاکم بر هوش مصنوعی، قابلیت تضمین پاسخگویی را ندارند. با فراگیری، پیچیدگی و رشد مقیاس این سیستم‌ها، عدم پاسخگویی و نظارت، به یک نگرانی تبدیل می‌شود.

در حال حاضر، شرکت‌ها در حال ابداع راه حل‌هایی مبتنی بر هوش مصنوعی هستند که در حوزه‌های گوناگون از رتبه‌بندی دانشجویان تا ارزیابی مهاجران در زمینه جرم و جنایت کاربرد دارند.

اخیرا گوگل پس از اعتراضاتی که نسبت به همکاری این شرکت با وزارت دفاع صورت گرفت، قرارداد بزرگی را با مقامات هوش مصنوعی منعقد کرد. نظر گوگل این بود که ابزار هوش مصنوعی، از نظر اجتماعی کارآمد هستند و با حقوق بشر مورد تایید مقامات مغایرتی ندارند.

برای استفاده از هوش مصنوعی و بهبود کارکرد آن، پیشنهاداتی ارائه شده‌اند که توجه به آنها مفید خواهد بود.

هوش مصنوعی باید تنظیم شود اما داشتن یک بدنه ایمن هوش مصنوعی عملی نخواهد بود. متخصصان هوش مصنوعی در حوزه‌های سلامت و حمل و نقل باید قوانین مربوط به حوزه را به شکل جدیدی ارائه دهند تا معرف نقش ابزار یادگیری ماشینی باشند.

فناوری تشخیص چهره باید در تشخیص احساسات و یا جرائم، به طور دقیقی بررسی شود و حوزه‌هایی مانند تبلیغات اشتباه و داروهای تقلبی را پوشش دهد.

اثبات و پاسخگویی عمومی باید به یک قانون تبدیل شود و عملکردهای داخلی سیستم از مجموعه داده‌ها تا فرآیندهای تصمیم‌گیری را پوشش دهد. این قوانین نه تنها برای اصلاح و تنظیم پایه‌ای سیستم لازم هستند بلکه برای اهداف قانونی نیز باید از تصمیم یک سیستم طبقه‌بندی شده استفاده شود.

برای تثبیت پاسخگویی هوش مصنوعی، بودجه و سوابق بیشتری مورد نیاز است. مواردی از این دست، تنها با انتشار یک پست در فضای مجازی با مضمون "سیستم تصمیم‌گیری هوش مصنوعی" که مردم را از حقوق خود محروم می‌کند، قابل حل نیست. این‌گونه موارد حتما باید به دادگاه ارجاع داده شوند.

کل صنعت هوش مصنوعی باید برای گذشتن از موانع، از ابزار و امکانات جدیدی استفاده کند و قوانین جدیدی در پژوهش‌ها مورد توجه قرار گیرند. جهت‌گیری قانون‌مند پژوهش‌های هوش مصنوعی، به توجه عمیق‌تر در حوزه اجتماعی منجر خواهد شد.

 

منبع: ایسنا



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *