صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

خروج پدرخوانده هوش مصنوعی از گوگل/ از خطرات این فناوری چه می‌دانیم؟

۱۴ ارديبهشت ۱۴۰۲ - ۰۸:۳۰:۱۱
کد خبر: ۴۷۱۰۶۵۱
جفری هینتون که به پدرخوانده هوش مصنوعی معروف است می‌گوید برای اینکه بتواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند از گوگل استعفا کرده است و تا حدی از سهم خود در رابطه با توسعه هوش مصنوعی پشیمان است.

خبرگزاری میزان - فردی که اغلب به عنوان پدرخوانده هوش مصنوعی معرفی می‌شود به تازگی گوگل را ترک کرد و به نگرانی‌هایی درباره سیل اطلاعات نادرست، احتمال جهش هوش مصنوعی در بازار کار و خطر وجودی ناشی از ایجاد یک هوش دیجیتال واقعی اشاره کرد. 

به گزارش «گاردین»، «جفری هینتون» که به همراه ۲ تن از دانشجویان خود در دانشگاه تورنتو در سال ۲۰۱۲ یک شبکه عصبی ساخت، این هفته گوگل را ترک کرد.

هینتون ۷۵ ساله، می‌گوید که برای اینکه بتواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند، استعفا کرده و تا حدی از سهم خود در رابطه با توسعه هوش مصنوعی پشیمان است.

او یک دهه پیش از سوی گوگل برای کمک به توسعه فناوری هوش مصنوعی این شرکت به خدمت گرفته شد و رویکردی که در آن پیشگام بود راه را برای سیستم‌های فعلی مانند ChatGPT هدایت کرد.

به گفته هینتون، وی تا سال گذشته معتقد بود گوگل «محافظ مناسب» این فناوری بوده است، اما زمانی که مایکروسافت شروع به استفاده از ربات چت در موتور جست‌وجوی Bing خود کرد، این موضوع تغییر کرد؛ همچنین این شرکت شروع به نگرانی در مورد خطرات برای تجارت موتور جست‌وجوی خود کرد. 

هینتون، گفت که برخی از خطرات چت ربات‌های هوش مصنوعی «بسیار ترسناک» بودند و هشدار داد که آن‌ها می‌توانند باهوش‌تر از انسان‌ها شوند و ممکن است از سوی آنچه «بازیگران بد» خواند، مورد سوء استفاده قرار بگیرند. 

وی معتقد است که هوش مصنوعی می‌تواند متن‌های زیادی را به‌طور خودکار تولید کند، بنابراین می‌توانید تعداد زیادی «اسپم بات»‌های بسیار مؤثر دریافت کنید.

در اواخر ماه مارس، بیش از هزار نفر از کارشناسان پیشرو در موضوع فناوری، محقق و دیگر صاحب نظران که در هوش مصنوعی و حوزه‌های آن کار می‌کنند، نامه‌ای سرگشاده امضا کردند و درباره هوش مصنوعی هشدار دادند که این فناوری‌ها «خطرات عمیقی برای جامعه و بشریت» دارند.

این گروه شامل «ایلان ماسک»، مدیر اجرایی تسلا و مالک توییتر، از آزمایشگاه‌های توسعه دهنده هوش مصنوعی خواست تا توسعه قدرتمندترین سیستم‌های خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر درک کنند.

این نامه نشان دهنده نگرانی فزاینده‌ای در بین کارشناسان هوش مصنوعی بود که جدیدترین سیستم‌ها، به ویژه GPT-۴، فناوری معرفی شده از سوی استارت آپ OpenAI سانفرانسیسکو، می‌تواند به جامعه آسیب برساند. آن‌ها معتقد بودند سیستم‌های آینده حتی خطرناک‌تر خواهند بود. 

ریسک کوتاه مدت: اطلاعات نادرست

از آنجایی که این سیستم‌ها اطلاعات را با اطمینان کامل ارائه می‌کنند، در هنگام استفاده از آن‌ها تشخیص میان حقیقت از تخیل سخت خواهد بود. کارشناسان نگران این هستند که مردم برای مشاوره پزشکی، حمایت عاطفی و اطلاعات خامی که برای تصمیم گیری استفاده می‌کنند به این سیستم‌ها اعتماد کنند. 

کارشناسان همچنین نگران هستند که مردم از این سیستم‌ها برای انتشار اطلاعات نادرست سوء استفاده کنند. سیستم‌های مبتنی بر هوش مصنوعی از آنجا که می‌توانند به روش‌های انسانی صحبت کنند، توانایی دارند به طرز شگفت آوری متقاعد کننده باشند.

ریسک میان مدت: از دست رفتن مشاغل

کارشناسان نگران هستند که هوش مصنوعی جدید ممکن است قاتل مشاغل باشد. در حال حاضر، فناوری‌هایی مانند GPT-۴ مکمل کارکنان انسانی هستند. اما OpenAI اذعان می‌کند که این فناوری‌ها می‌توانند جایگزین برخی از کارکنان، از جمله افرادی که در تولید محتوا فعالیت می‌کنند، شوند. 

این فناوری‌ها هنوز نمی‌توانند کار وکلا، حسابداران یا پزشکان را تکرار کنند. اما آن‌ها می‌توانند جایگزین مشاوران حقوقی، دستیاران شخصی و مترجمان شوند. 

ریسک بلند مدت: اوضاع از کنترل خارج شود

برخی از افرادی که نامه را امضا کرده‌اند نیز معتقدند هوش مصنوعی می‌تواند از کنترل خارج شود یا بشریت را نابود کند. اما برخی از کارشناسان می‌گویند که این موضوع بیش از حد اغراق شده است.

آن‌ها همچنین هشدار می‌دهند که از آنجایی که سیستم‌های هوش مصنوعی اغلب رفتار‌هایی غیرمنتظره‌ را از حجم وسیعی از داده‌هایی که تجزیه و تحلیل می‌کنند یاد می‌گیرند، می‌توانند مشکلات جدی و غیرمنتظره‌ای ایجاد کنند.

آن‌ها نگران این هستند که این سیستم‌ها می‌توانند قدرت‌های پیش‌بینی نشده‌ای به دست آورند، زیرا می‌توانند کد‌های رایانه‌ای خود را بنویسند.

آن‌ها می‌گویند اگر توسعه دهندگان به سیستم‌های قدرتمند هوش مصتوعی اجازه دهند کد وارد مرحله «خود اجرایی» شوند، خطرات جدیدی ایجاد خواهند کرد. 

«آنتونی آگویر»، کیهان شناس و فیزیکدان نظری در دانشگاه کالیفرنیا و یکی از مدیران موسسه «آینده زندگی»، گفت: اگر به یک برون یابی ساده از وضعیت فعلی ما تا سه سال آینده نگاه کنید، همه چیز بسیار عجیب است. 

وی می‌گوید: اگر سناریویی با احتمال کمتر را در نظر بگیرید، جایی که همه چیز واقعاً اوج می‌گیرد، جایی که حکومت واقعی وجود ندارد، جایی که این سیستم‌ها قدرتمندتر از آن چیزی هستند که ما فکر می‌کردیم، آنگاه همه چیز واقعاً دیوانه کننده خواهد بود.

«اورن اتزیونی»، مدیر اجرایی مؤسسه «آلن» که در زمینه هوش مصنوعی فعال است نیز گفت: اکنون ما با مشکلات واقعی روبرو هستیم؛ این مشکلات نیاز به واکنش مسئولانه دارند. سیستم‌های هوش مصنوعی ممکن است نیاز به مقررات و قانون داشته باشند. 

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *