تولید و انتشار اخبار جعلی باورپذیر توسط هوش مصنوعی!
به گزارش گروه فضای مجازی، شرکت OpenAI در ماه فوریه اعلام کرد که الگوریتمی را ایجاد کرده است که میتواند خبرهای جعلی و قابل باور بنویسد و با توجه به اینکه این فناوری دارای قدرتی بیش از حد خطرناک است، یک نسخه کنترل شده و ناقص از آن را منتشر کرد تا بتواند شمههایی از این فناوری را به عموم نشان دهد و نحوه استفاده از آن را تحلیل کند.
اکنون این شرکت میگوید هیچ مدرک محکمی از سوءاستفاده این هوش مصنوعی مشاهده نکرده است و طی همین هفته نسخه کامل آن را منتشر خواهد کرد.
این هوش مصنوعی موسوم به "GPT-۲" در ابتدا برای پاسخ به سؤالات، تهیه خلاصه داستانها و ترجمه متون طراحی شده بود. اما محققان نگران این بودند که بتوان از آن استفاده کرد تا حجم زیادی از اطلاعات نادرست را منتشر کرد. درعوض دیدند که از آن تنها برای مواردی مانند آموزش بازیهای ماجراجویی متنی و نوشتن داستان استفاده شد.
از آنجا که این نسخه کوچک به سوءاستفاده گسترده منجر نشد، شرکت OpenAI مدل کامل GPT-۲ را منتشر میکند. این شرکت در پست وبلاگ خود ابراز امیدواری کرده که نسخه کامل به محققان کمک کند تا مدلهای تشخیص متن تولید شده توسط هوش مصنوعی بهتری توسعه دهند و تبعیضهای زبانی را ریشه کن کنند.
ایده توسعه یک هوش مصنوعی که بتواند اخبار جعلی باورپذیر تولید کند، نگران کننده است، اما برخی معتقدند که این فناوری خواه ناخواه توسعه خواهد یافت و OpenAI باید سریعاً کار خود را به اشتراک بگذارد تا محققان بتوانند ابزاری برای مبارزه یا حداقل شناسایی متون تولید شده توسط ربات ایجاد کنند.
منبع: ایسنا
: انتشار مطالب و اخبار تحلیلی سایر رسانههای داخلی و خارجی لزوماً به معنای تایید محتوای آن نیست و صرفاً جهت اطلاع کاربران از فضای رسانهای منتشر میشود.