خروج پدرخوانده هوش مصنوعی از گوگل/ از خطرات این فناوری چه میدانیم؟
خبرگزاری میزان - فردی که اغلب به عنوان پدرخوانده هوش مصنوعی معرفی میشود به تازگی گوگل را ترک کرد و به نگرانیهایی درباره سیل اطلاعات نادرست، احتمال جهش هوش مصنوعی در بازار کار و خطر وجودی ناشی از ایجاد یک هوش دیجیتال واقعی اشاره کرد.
به گزارش «گاردین»، «جفری هینتون» که به همراه ۲ تن از دانشجویان خود در دانشگاه تورنتو در سال ۲۰۱۲ یک شبکه عصبی ساخت، این هفته گوگل را ترک کرد.
هینتون ۷۵ ساله، میگوید که برای اینکه بتواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند، استعفا کرده و تا حدی از سهم خود در رابطه با توسعه هوش مصنوعی پشیمان است.
او یک دهه پیش از سوی گوگل برای کمک به توسعه فناوری هوش مصنوعی این شرکت به خدمت گرفته شد و رویکردی که در آن پیشگام بود راه را برای سیستمهای فعلی مانند ChatGPT هدایت کرد.
به گفته هینتون، وی تا سال گذشته معتقد بود گوگل «محافظ مناسب» این فناوری بوده است، اما زمانی که مایکروسافت شروع به استفاده از ربات چت در موتور جستوجوی Bing خود کرد، این موضوع تغییر کرد؛ همچنین این شرکت شروع به نگرانی در مورد خطرات برای تجارت موتور جستوجوی خود کرد.
هینتون، گفت که برخی از خطرات چت رباتهای هوش مصنوعی «بسیار ترسناک» بودند و هشدار داد که آنها میتوانند باهوشتر از انسانها شوند و ممکن است از سوی آنچه «بازیگران بد» خواند، مورد سوء استفاده قرار بگیرند.
وی معتقد است که هوش مصنوعی میتواند متنهای زیادی را بهطور خودکار تولید کند، بنابراین میتوانید تعداد زیادی «اسپم بات»های بسیار مؤثر دریافت کنید.
در اواخر ماه مارس، بیش از هزار نفر از کارشناسان پیشرو در موضوع فناوری، محقق و دیگر صاحب نظران که در هوش مصنوعی و حوزههای آن کار میکنند، نامهای سرگشاده امضا کردند و درباره هوش مصنوعی هشدار دادند که این فناوریها «خطرات عمیقی برای جامعه و بشریت» دارند.
این گروه شامل «ایلان ماسک»، مدیر اجرایی تسلا و مالک توییتر، از آزمایشگاههای توسعه دهنده هوش مصنوعی خواست تا توسعه قدرتمندترین سیستمهای خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر درک کنند.
این نامه نشان دهنده نگرانی فزایندهای در بین کارشناسان هوش مصنوعی بود که جدیدترین سیستمها، به ویژه GPT-۴، فناوری معرفی شده از سوی استارت آپ OpenAI سانفرانسیسکو، میتواند به جامعه آسیب برساند. آنها معتقد بودند سیستمهای آینده حتی خطرناکتر خواهند بود.
ریسک کوتاه مدت: اطلاعات نادرست
از آنجایی که این سیستمها اطلاعات را با اطمینان کامل ارائه میکنند، در هنگام استفاده از آنها تشخیص میان حقیقت از تخیل سخت خواهد بود. کارشناسان نگران این هستند که مردم برای مشاوره پزشکی، حمایت عاطفی و اطلاعات خامی که برای تصمیم گیری استفاده میکنند به این سیستمها اعتماد کنند.
کارشناسان همچنین نگران هستند که مردم از این سیستمها برای انتشار اطلاعات نادرست سوء استفاده کنند. سیستمهای مبتنی بر هوش مصنوعی از آنجا که میتوانند به روشهای انسانی صحبت کنند، توانایی دارند به طرز شگفت آوری متقاعد کننده باشند.
ریسک میان مدت: از دست رفتن مشاغل
کارشناسان نگران هستند که هوش مصنوعی جدید ممکن است قاتل مشاغل باشد. در حال حاضر، فناوریهایی مانند GPT-۴ مکمل کارکنان انسانی هستند. اما OpenAI اذعان میکند که این فناوریها میتوانند جایگزین برخی از کارکنان، از جمله افرادی که در تولید محتوا فعالیت میکنند، شوند.
این فناوریها هنوز نمیتوانند کار وکلا، حسابداران یا پزشکان را تکرار کنند. اما آنها میتوانند جایگزین مشاوران حقوقی، دستیاران شخصی و مترجمان شوند.
ریسک بلند مدت: اوضاع از کنترل خارج شود
برخی از افرادی که نامه را امضا کردهاند نیز معتقدند هوش مصنوعی میتواند از کنترل خارج شود یا بشریت را نابود کند. اما برخی از کارشناسان میگویند که این موضوع بیش از حد اغراق شده است.
آنها همچنین هشدار میدهند که از آنجایی که سیستمهای هوش مصنوعی اغلب رفتارهایی غیرمنتظره را از حجم وسیعی از دادههایی که تجزیه و تحلیل میکنند یاد میگیرند، میتوانند مشکلات جدی و غیرمنتظرهای ایجاد کنند.
آنها نگران این هستند که این سیستمها میتوانند قدرتهای پیشبینی نشدهای به دست آورند، زیرا میتوانند کدهای رایانهای خود را بنویسند.
آنها میگویند اگر توسعه دهندگان به سیستمهای قدرتمند هوش مصتوعی اجازه دهند کد وارد مرحله «خود اجرایی» شوند، خطرات جدیدی ایجاد خواهند کرد.
«آنتونی آگویر»، کیهان شناس و فیزیکدان نظری در دانشگاه کالیفرنیا و یکی از مدیران موسسه «آینده زندگی»، گفت: اگر به یک برون یابی ساده از وضعیت فعلی ما تا سه سال آینده نگاه کنید، همه چیز بسیار عجیب است.
وی میگوید: اگر سناریویی با احتمال کمتر را در نظر بگیرید، جایی که همه چیز واقعاً اوج میگیرد، جایی که حکومت واقعی وجود ندارد، جایی که این سیستمها قدرتمندتر از آن چیزی هستند که ما فکر میکردیم، آنگاه همه چیز واقعاً دیوانه کننده خواهد بود.
«اورن اتزیونی»، مدیر اجرایی مؤسسه «آلن» که در زمینه هوش مصنوعی فعال است نیز گفت: اکنون ما با مشکلات واقعی روبرو هستیم؛ این مشکلات نیاز به واکنش مسئولانه دارند. سیستمهای هوش مصنوعی ممکن است نیاز به مقررات و قانون داشته باشند.
انتهای پیام/