کنگره آمریکا استفاده از چت جیبیتی را محدود میکند
خبرگزاری میزان - مجلس نمایندگان آمریکا استفاده از چت جیپیتی، یک چت ربات هوش مصنوعی(AI) را که از زمان شروع به کار در ماه نوامبر محبوبیت زیادی پیدا کرده است، به دلیل نگرانیهای حفظ حریم خصوصی، محدود میکند.
به گزارش «هیل»، اطلاعیه مدیر ارشد اداری مجلس نمایندگان آمریکا، میگوید که نمایندگان فقط مجاز به استفاده از نسخه «ChatGPT Plus» هستند که دارای ویژگیهای حریم خصوصی داخلی است که «برای حفظ دادههای مجلس نمایندگان ضروری است».
این اطلاعیه تصریح میکند که ابزار تولید شده توسط هوش مصنوعی باید فقط برای اهداف تحقیق و ارزیابی استفاده شود.
همچنین، این اطلاعیه میگوید که چت جیپیتی باید با فعال بودن تنظیمات حریم خصوصی و فقط در صورت وجود دادههای غیر حساس استفاده شود.
چت جیپیتی به منبع بحث در «کپیتال هیل» تبدیل شده است، زیرا قانونگذاران به دنبال درک و کاهش خطرات احتمالی مرتبط با هوش مصنوعی مولد هستند.
سام آلتمن، مدیر عامل شرکت OpenAI که چت جیپیتی را ابداع کرد، ماه گذشته در برابر کمیته فرعی حقوقی سنا درباره حریم خصوصی و فناوری ظاهر شد.
در بیانیهای پیش از آن جلسه، سناتور «ریچارد بلومنتال»، رئیس هیئت فرعی سنای آمریکا در این موضوع، گفت که چت جیپیتی به قوانین و تدابیری فوری برای رسیدگی به وعدهها و دامهای عظیم خود نیاز دارد.
سناتور «جاش هاولی»، عضو رتبه بندی کمیته فرعی سنای آمریکا، گفت که این جلسه اولین گام حیاتی به سوی درک آنچه کنگره باید انجام دهد، بود.
وی پیش بینی کرد که هوش مصنوعی «به شکلی که ما حتی نمیتوانیم تصورش را هم کنیم، متحول کننده خواهد بود».
نگرانیها از حفظ حریم خصوصی
به گزارش «پاباکس»، چند روز قبل، در یک افشاگری شگفتانگیز، Group-IB از کشف اطلاعات بیش از ۱۰۱ هزار و ۱۰۰ حساب کاربری چت جیپیتی در بازارهای «دارک وب» از ژوئن ۲۰۲۲ تا می ۲۰۲۳ خبر داد.
این سرقت اطلاعات باعث افزایش قابل توجهی در حفظ حریم خصوصی شده است.
به گفته کارشناسان، حسابهای کاربری در معرض خطر چت جیپیتی تهدیدی جدی برای حریم خصوصی و امنیت هستند.
برخی کارمندان از چت جیپیتی برای بهینه سازی کد اختصاصی یا وارد کردن مکاتبات محرمانه استفاده میکنند. اگر عاملان تهدید به این حسابها دسترسی داشته باشند، میتوانند به اطلاعات حساس زیادی دسترسی پیدا کنند.
چت جیپیتی، مانند بسیاری از ابزارهای هوش مصنوعی، از اطلاعاتی که به آن داده میشود، آموزش میبیند. این بدان معنی است که هر اطلاعات حساس وارد شده به این سیستم میتواند به طور احتمالی برای بهبود پاسخهای هوش مصنوعی استفاده شود.
در حالی که OpenAI سیاستهایی برای ناشناس کردن دادهها و جلوگیری از استفاده از آنها برای آموزش مدلهای خود دارد، خطر نقض اطلاعات همچنان وجود دارد.
این سرویسها در حالی که به طور کلی ایمن هستند، اما به دلیل اطلاعات اختصاصی که بسیاری از شرکتها در چتهای هوش مصنوعی وارد میکنند، هدف جذابی برای هکرها هستند.
اقدامات پیشگیرانه برخی شرکتها و نهادها
در پاسخ به این نگرانیها، برخی از شرکتها اقدامات پیشگیرانهای انجام دادهاند.
به عنوان مثال، شرکت «سامسونگ» کارمندان خود را از استفاده از چت جیپیتی به دلیل ترس از ورود اطلاعات حساس شرکتی به پلتفرم هوش مصنوعی منع کرده است.
همچنین به گزارش «میکآسآف»، این اقدام به عنوان یادآوری خطرات بالقوه مرتبط با ابزارهای هوش مصنوعی و نیاز به اقدامات سختگیرانه امنیتی دادهها عمل میکند.
همچنین بانک مشترکالمنافع استرالیا، همراه با شرکتهایی مانند آمازون، اپل، و «جی پی موزگان» از این روش پیروی کردند.
برخی بیمارستانها، شرکتهای حقوقی و سازمانهای دولتی نیز کارمندان خود را از استفاده از چت جیپیتی منع کردهاند.
انتهای پیام/