صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی چه خطر‌هایی دارد؟

۲۳ اسفند ۱۳۹۹ - ۰۹:۴۶:۵۱
کد خبر: ۷۰۹۵۰۳
هوش مصنوعی اگر چه کارکرد‌های مفید زیادی برای بشر داشته، اما به نظر می‌رسد خطر‌هایی هم دارد.

- روزنامه خراسان نوشت: هم اکنون هوش مصنوعی یکی از بزرگ‌ترین ابزار‌های پیشرفت در جهان به شمار می‌رود. این دستاورد توانسته تحول بزرگی در صنایع ایجاد کند، ولی این تکنولوژی، با همه دستاوردهایش هنوز گام‌های نخست را طی می‌کند و به همین دلیل خطا‌های زیادی دارد و ممکن است خطراتی را هم برای بشر به همراه داشته باشد. به جز خطراتی که خود هوش مصنوعی دارد، استفاده‌های نادرست از آن هم می‌تواند برای نسل بشر خطر آفرین شود. امروز باهم برخی از خطراتی را که هوش مصنوعی می‌تواند برای انسان به همراه داشته باشد، مرور می‌کنیم.

هوش مصنوعی خیلی ساده گول می‌خورد

با وجود پیشرفت چشمگیر سیستم بینایی ماشین‌های هوشمندطی سال‌های اخیر، همچنان احتمال بروز خطا‌های جدی توسط آن وجود دارد. این خطا‌ها آن قدر زیاد است که می‌تواند رانندگی با خودرو‌های خودران را بسیار خطرناک کند. به طور مثال روی یک سیب نوشته اند آی پد و هوش مصنوعی ۹۹ درصد آن را آی پد تشخیص داده است. البته این خطا‌ها به صورت طبیعی و با عکس‌های معمولی هم رخ داده است که باعث نگرانی بیشتر می‌شود، چون نشان می‌دهد احتمال بروز خطا‌های واقعی و برنامه ریزی نشده در چنین سیستم‌هایی وجود دارد.

محققانی از دانشگاه‌های برکلی، واشنگتن و شیکاگو، دیتابیسی از ۷۵۰۰ عکس متضاد طبیعی را با چندین سیستم بینایی ماشین امتحان کردند و متوجه شدند دقتشان بیش از ۹۰ درصد افت می‌کند و در برخی موارد نرم افزار تنها قادر به تشخیص ۲ تا ۳ درصد تصاویر است. برای مثال در عکس‌های زیر، هوش مصنوعی از چپ به راست سوژه تصاویر را راسو، موز، شیر دریایی و دستگیره آشپزخانه تشخیص داده این در حالی است که دیدن سنجاقک در این تصاویر برای ما انسان‌ها بسیار ساده است.

چنگ‌اندازی هوش مصنوعی به حریم خصوصی

جدای از خطر تشخیص اشتباه هوش مصنوعی باید به یکی دیگر از خطرات هوش مصنوعی اشاره کنیم. حریم خصوصی از ابتدایی‌ترین حقوق بشر است. با این همه، ممکن است چنین مفهومی، در آینده‌ای نه چندان دور، به دلیل استفاده نادرست از فناوری هوش مصنوعی کاملا پایمال شود. امروزه، به لطف پیشرفت در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است.

با فناوری تشخیص چهره، شناسایی شما در انبوهی از جمعیت به سادگی امکان‌پذیر است و برخی دوربین‌های امنیتی در برخی کشور‌ها به این فناوری مجهز هستند. توانایی گردآوری داده‌های هوش مصنوعی این امکان را برای وب‌سایت‌های فراهم آورنده و شبکه‌های مختلف اجتماعی به وجود می‌آورد که یک جدول زمانی از فعالیت‌های روزانه شما را در اختیار داشته باشند. البته در گزارشی در همین صفحه از اشتباهات نژاد پرستانه‌ای نوشته ایم که هوش مصنوعی در تشخیص چهره تاکنون داشته است.

جنگ روبات‌های سرباز

روبات‌های کشنده، روبات‌های سربازی هستند که می‌توانند مطابق برنامه از پیش تعیین شده هدف خود را جست‌وجو کنند یا به صورت کاملا مستقل عملیات هدف گذاری را انجام دهند. طبق گزارش ها، کمابیش تولید چنین روبات‌هایی در دستور کار همه کشور‌های پیشرفته قرار گرفته است. برپایه گفته‌های یک مقام ارشد نظامی چینی، پیش بینی شده جنگ‌های آینده به دست انسان انجام نمی‌شود بلکه گرداننده آن‌ها روبات‌های سرباز خواهند بود. به کارگیری چنین جنگ‌افزارهایی، از دیگر نگرانی‌های موجود در زمینه هوش مصنوعی است. چه می‌شود اگر این روبات‌ها سرکشی کنند و کار‌های خطرآفرینی انجام دهند یا اگر نتوانند میان اهداف خود و افراد بی‌گناه تمیز قایل شوند؟ در این حالت، چه کسی پاسخگوی این پیشامد خواهد بود؟

هوش مصنوعی و از بین رفتن شغل انسان‌ها

براساس گزارش منتشر شده توسط سازمان جهانی Mckinsey، حدود۸۰۰ میلیون کار و پیشه در سراسر جهان تا سال ۲۰۳۰ توسط هوش مصنوعی انجام خواهد شد. حال این پرسش به وجود می‌آید چه بر سر انسان‌هایی خواهد آمد که قبلا این ۸۰۰ میلیون شغل را داشته اند؟ البته در این میان برخی بر این باورند که شغل‌های جدید بسیاری به خاطر وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل جدید ایجاد می‌شود. این افرادبر این باورند که بعد از این، مردم به جای انجام پیشه‌های زمان‌بر و سخت، زمان بیشتری را برای انجام کار‌های مهم و گذراندن وقت با دوستان و خانواده‌هایشان خواهند داشت.

استفاده تروریستی از هوش مصنوعی

درحالی که هوش مصنوعی می‌تواند تا اندازه چشم‌گیری در انجام کار‌های سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل می‌تواند در دست افراد بی صلاحیت قرار گیرد و کمک بزرگی برای تروریست‌ها در انجام حملات دهشتناک باشد. هم اکنون، برخی از بنگاه‌های تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیما‌های بدون سرنشین بهره‌برداری می‌کنند. ISIS (داعش) نخستین حمله پهپادی موفق خود را در سال ۲۰۱۶ انجام داد که منجر به کشته شدن دو نفر در عراق شد. این مسئله اهمیت وضع قوانینی سخت‌گیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر می‌کند.

تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی

حقیقت تلخی وجود دارد که گهگاه آدمی درخصوص یک مذهب، باور، ملت یا نژاد تعصباتی خشمگینانه و گاهی بی‌رحمانه دارد. چنین تعصباتی کاملا ناآگاهانه نیز می‌تواند توسط افرادی متعصب به سامانه‌های هوش مصنوعی (که به دست انسان گسترش داده می‌شوند) وارد و باعث سوگیری‌های نادرستی شود. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است.

این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مرد‌ها ارزشمندتر از زنان در نظر گرفته شده‌اند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکس‌های دو فرد با نژاد آفریقایی-آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشک‌اندیشی نژادی است.



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *