آشنایی با چتباتهای هوش مصنوعی/ منتقدان درباره GPT چه میگویند؟
خبرگزاری میزان - آیا شرکتهای فناوری در توسعه هوش مصنوعی قدرتمندی که میتواند روزی از انسانها پیشی بگیرد، خیلی سریع پیش میروند؟
این نتیجهگیری گروهی از دانشمندان برجسته رایانه و سایر افراد برجسته صنعت فناوری مانند ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است که خواهان یک توقف ۶ ماهه برای بررسی خطرات در زمینه هوش مصنوعی هستند.
به گزارش «آسوشیتد پرس»، طومار آنها که به تازگی منتشر شد، پاسخی است به انتشار اخیر GPT-۴ توسط استارتاپ سانفرانسیسکو، یک جانشین پیشرفتهتر برای چتبات هوش مصنوعی پرکاربرد ChatGPT است.
این نامه هشدار میدهد که سیستمهای هوش مصنوعی با «هوش رقابتی انسانی میتوانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند»؛ از هجوم اینترنت با اطلاعات نادرست و خودکار کردن مشاغل گرفته تا خطرات فاجعهبارتر آینده خارج از قلمروهای علمی.
نامه مذکور میگوید: در ماههای اخیر شاهد بودهایم که آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نمیتواند آن را درک، پیشبینی یا بهطور قابل اعتماد کنترل کند، اقدام کردهاند.
هوش مصنوعی و حقوق بشر
استفاده روزافزون از هوش مصنوعی با ابراز نگرانی در مورد سطح بیسابقه نظارت در سراسر جهان توسط بازیگران دولتی و خصوصی، که با حقوق بشر ناسازگار است، چالشهای جدیدی را در زمینه حقوق بشر ایجاد میکند.
فعالان حقوق بشر و مخالفان با خطرات خاصی روبرو هستند که هدف آنها قرار میگیرد؛ از سوی دیگر، هوش مصنوعی به طور بالقوه میتواند حداقل برخی از آنها را ابزارهای اضافی برای دفاع از حقوق بشر و دموکراسی در سراسر جهان ارائه دهد.
چتبات هوش مصنوعی
ChatGPT یک چتبات هوش مصنوعی (AI) است که از پردازش زبان طبیعی و روشهای یادگیری ماشینی برای تقلید از ارتباطات انسانی استفاده میکند؛ از مزایای این فناوری میتوان به کسبوکارها کمک کرد تا تلاشهای تعامل با مشتری را آسانتر مقیاسبندی کنند و همچنین پشتیبانی خودکار برای آن مشتریان و حذف موانع زبانی در گفتگوی بینفرهنگی.
با این حال، مانند هر پیشرفت تکنولوژیکی، اشکالات احتمالی و نگرانیهای اخلاقی وجود دارد که باید در مورد آنها فکر کرد.
حریم خصوصی
وقتی صحبت از حقوق بشر به میان میآید، حریم خصوصی یکی از مبرمترین نگرانیهایی است که ChatGPT مطرح میکند.
ChatGPT که یک ربات چت تعاملی است، ممکن است به طور بالقوه اطلاعات حساسی را در مورد کاربران خود از طریق مکالمه با آنها بیاموزد؛ اگر ربات چت میخواهد به حریم خصوصی کاربران خود احترام بگذارد، تنها باید دادههایی را که برای انجام وظایف مورد نظر خود نیاز دارد جمعآوری کند و کاربرانش باید از جمعآوری دادهها و استفاده مورد نظر مطلع شوند.
آزادی بیان
این خطر وجود دارد که رباتهای چت مانند ChatGPT برای انتشار اطلاعات نادرست استفاده شوند.
برای جلوگیری از این امر، باید تضمین شود که ربات چت برای تأیید هر محتوای ارسال شده توسط کاربر و تشویق افکار باز و پذیرش دیگران آموزش دیده است.
یکی از این موارد حقوق بشری که ممکن است تحت تأثیر استفاده از ChatGPT قرار بگیرد، حق برابری است؛ ممکن است ربات چت به گونهای پیکربندی شده باشد که از زبانی که علیه گروههای خاص تعصب دارد، تبعیض را تبلیغ کند؛ حق برابری مستلزم آن است که چتبات با واژگانی ساخته شود که هم شامل و هم بدون تبعیض باشد.
چتبات همچنین میتواند بر آزادی دریافت و انتشار آزادانه اطلاعات تأثیر بگذارد؛ اگر افراد میخواهند اطلاعات را با افرادی به اشتراک بگذارند که در غیر این صورت ممکن است به آن دسترسی نداشته باشند، ربات چت راهی برای رفتن است، اما ربات چت ممکن است برای سرکوب آزادی بیان یا انتشار اطلاعات نادرست استفاده شود.
دسترسی به چتبات باید در اولویت قرار گیرد تا همه کاربران، از جمله آنهایی که محدودیتهای فیزیکی دارند، به سادگی به اطلاعاتی که ارائه میدهد دسترسی داشته باشند.
احترام به رازداری فردی
چت رباتهایی مانند ChatGPT برای تقلید از مکالمات انسانی طراحی شدهاند، بنابراین بسیار مهم است که اطلاعات شخصی کاربران هنگام تعامل با نرمافزار ایمن بماند. به عبارت دیگر، چتبات نباید بتواند اطلاعات حساس کاربران خود را بدون اطلاع و اجازه آنها جمعآوری کند.
ChatGPT، مانند سایر رباتهای چت مبتنی بر هوش مصنوعی، برای کسب مهارتهای جدید از طریق صحبت کردن با افراد ساخته شده است؛ این بدان معناست که ممکن است به طور بالقوه اطلاعاتی را جمع آوری کند که میتواند برای شناسایی یک فرد مورد استفاده قرار گیرد، مانند نام، آدرس و شماره تلفن.
برای حفظ حریم خصوصی کاربران، چتبات باید طوری ساخته شود که تنها دادههایی را که برای انجام وظایف مورد نظر خود نیاز دارد جمع آوری کند و کاربران باید از دادههای جمع آوری شده و نحوه استفاده از آن آگاه شوند.
انتهای پیام/