امنیت بینالمللی؛ چالشها و تهدیدات فناوریهای هوش مصنوعی
خبرگزاری میزان - تمام جهان درگیر علاقهای بیسابقه به فناوریهای هوش مصنوعی شده است.
تعداد مقالات، مطالعات، تکنگاریها، کنفرانسها و سایر انجمنها و سمینارهای علمی و عملی به طور تصاعدی در حال افزایش است.
به پایگاه گزارش «مژدونارودنایا ژیزن»، از همه مهمتر، تعداد ماشینها، مکانیسمها، ابزارها و سایر دستگاههای دارای هوش مصنوعی تقریباً در تمام حوزههای زندگی انسان، جامعه و ... نیز به طور تصاعدی در حال افزایش است.
هوش مصنوعی به عنوان یک برنامه تحقیقاتی بزرگ در دهه ۱۹۵۰ شروع شد. در آن روزها، این موضوع بر اساس منطق نمادین بود و برنامه نویسان ورودیهایی را برای پردازش هوش مصنوعی کد گذاری میکردند. در نتیجه، سودمندی هوش مصنوعی بسیار محدود بود.
در اواخر دهه ۱۹۹۰، نسل دوم هوش مصنوعی ظهور کرد. بر اساس افزایش شدید قدرت محاسباتی رایانهها، دادههای بزرگ، الگوریتمهای جدید و همچنین، استفاده از شبکههای عصبی، تعدادی رویداد مهم رخ داده است.
موفقیت شبکه عصبی ChatGPT به طور مشروط، میتواند به نسل جدید و سوم هوش مصنوعی نسبت داده شود.
به عنوان یک ترانسفورماتور از پیش آموزش دیده برای تولید متن ترجمه میشود در گوگل معماری پیشرفت شبکههای عصبی را توسعه داد.
نسخه ChatGPT۴ که در مارس ۲۰۲۳ معرفی شد، با گستردهترین توانایی خود تحت تاثیر قرار گرفت.
در واقع، ChatGPT۴ با توانایی برقراری ارتباط با آن در جریان اصلی مکالمه، دانش آن از محتوای کتابها و فیلمها، توانایی در ترجمه چند زبانه، و همچنین توانایی ایجاد کدها، ارائه کدهای پزشکی و توصیههای دیگر، به دنبال تصاویر، فرموله کردن پاسخهای تأیید شده برای غیر قابل پیش بینیترین مسائل و بسیاری از شایستگیهای دیگر است.
بنابراین، میتوان از هوش مصنوعی نه تنها به عنوان درک آنی، بلکه به عنوان یک سیستم پشتیبانی تصمیم گیری هوشمند کمک کننده صحبت کرد.
این شرایط به ویژه، در شرایط بحرانی و اضطراری در روابط بین الملل، به ویژه در شرایط فشار زمانی حاد، اهمیت دارد.
«ایلان ماسک»، معتقد است که هوش مصنوعی به ناچار خود را با پتانسیل نابودی بشریت کنترل خواهد کرد، اگرچه این با طرح نابودگر متفاوت خواهد بود.
در مارس ۲۰۲۳، او به بیش از هزار متخصص، پیوست و نامهای سرگشاده نوشت که از سوی موسسه آینده زندگی حمایت میشد.
نویسندگان خواستار حداقل ۶ ماه برای تعلیق آموزش شبکههای عصبی شدند.
استفاده از کلانداده قبلاً بر نتیجه مبارزات سیاسی در بسیاری از کشورهای جهان تأثیر گذاشته است.
رسوایی شرکت انگلیسی «کمبریج آنالیتیکا» به طور گسترده، شناخته شده است که قبل از شروع کارزار خروج انگلیس از اتحادیه اروپا و انتخابات ریاست جمهوری آمریکا در سال ۲۰۱۶، مجموعه دادههای دهها میلیون شهروند انگلیس و آمریکا را خریداری کرد.
پایگاه داده شامل حجم زیادی از اطلاعات، از «پسندیدن» در شبکههای اجتماعی گرفته تا آدرسهای مسکونی بود.
پس از پردازش دادهها، کمپینهای تحریک سیاسی هدفمند راه اندازی شد - مخاطبان پیامهایی را دریافت کردند که تا آنجا که ممکن بود، با دیدگاههای سیاسی-اجتماعی آنها مطابقت داشت و برای آن رای دادند.
تهدیدهای جدید برای امنیت ملی نیز اجتناب ناپذیر است. بنابراین، از فناوریهای GPT میتوان برای ایجاد ویروسهای رایانهای بسیار خطرناک و راه اندازی آنها در شبکههای جهانی استفاده کرد.
مدلها میتوانند برای ارتش، استراتژی داشته باشند و توانایی آنها برای تولید فیدهای ویدیویی واقعی تنها یک قدم با تولید مقادیر نامحدود اطلاعات نادرست و دستکاری شده فاصله دارد.
در نوامبر ۲۰۲۱، ۱۹۳ کشور عضو به اتفاق آرا توصیه یونسکو را در مورد جنبههای اخلاقی هوش مصنوعی تصویب کردند.
نقش این سند کمک به کشورهای عضو در احترام به حقوق اساسی مندرج در منشور سازمان ملل و اعلامیه جهانی حقوق بشر و اطمینان از این است که تحقیق، طراحی، توسعه و اجرای سیستمهای هوش مصنوعی عواملی مانند رفاه بشر، حفاظت از محیط زیست و توسعه پایدار را به همراه داشته باشد.
پس از درخواست بیش از هزار کارشناس در مارس ۲۰۲۳ برای تعلیق آموزش سیستمهای هوش مصنوعی قدرتمند، یونسکو از همه کشورها خواست فوراً توصیه این نهاد را در مورد جنبههای اخلاقی هوش مصنوعی اجرا کنند.
نگارنده در پایان مینویسد: جهان به قوانین اخلاقی بیشتری برای هوش مصنوعی نیاز دارد؛ این چالش زمانه ما است. توصیه یونسکو در مورد جنبههای اخلاقی هوش مصنوعی چارچوب هنجاری مناسب را تعیین میکند.
انتهای پیام/