صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

امنیت بین‎المللی؛ چالش‌ها و تهدیدات فناوری‌های هوش مصنوعی

۰۷ مرداد ۱۴۰۲ - ۰۷:۳۰:۰۱
کد خبر: ۴۷۲۵۱۴۵
با گسترش روز افزون هوش مصنوعی، نگرانی‌ها و چالش‌هایی در حال شکل‎گیری است.

خبرگزاری میزان - تمام جهان درگیر علاقه‎ای بی‎سابقه‌ به فناوری‌های هوش مصنوعی شده است.

تعداد مقالات، مطالعات، تک‎نگاری‎ها، کنفرانس‌ها و سایر انجمن‌ها و سمینار‌های علمی و عملی به طور تصاعدی در حال افزایش است.

به پایگاه گزارش «مژدونارودنایا ژیزن»، از همه مهمتر، تعداد ماشین‎ها، مکانیسم‎ها، ابزار‌ها و سایر دستگاه‌های دارای هوش مصنوعی تقریباً در تمام حوزه‌های زندگی انسان، جامعه و ... نیز به طور تصاعدی در حال افزایش است.

هوش مصنوعی به عنوان یک برنامه تحقیقاتی بزرگ در دهه ۱۹۵۰ شروع شد. در آن روزها، این موضوع بر اساس منطق نمادین بود و برنامه نویسان ورودی‌هایی را برای پردازش هوش مصنوعی کد گذاری می‌کردند. در نتیجه، سودمندی هوش مصنوعی بسیار محدود بود.

در اواخر دهه ۱۹۹۰، نسل دوم هوش مصنوعی ظهور کرد. بر اساس افزایش شدید قدرت محاسباتی رایانه‎ها، داده‌های بزرگ، الگوریتم‌های جدید و همچنین، استفاده از شبکه‌های عصبی، تعدادی رویداد مهم رخ داده است.

موفقیت شبکه عصبی ChatGPT به طور مشروط، می‌تواند به نسل جدید و سوم هوش مصنوعی نسبت داده شود.

به عنوان یک ترانسفورماتور از پیش آموزش دیده برای تولید متن ترجمه می‌شود در گوگل معماری پیشرفت شبکه‌های عصبی را توسعه داد.

نسخه ChatGPT۴ که در مارس ۲۰۲۳ معرفی شد، با گسترده‌ترین توانایی خود تحت تاثیر قرار گرفت.

در واقع، ChatGPT۴ با توانایی برقراری ارتباط با آن در جریان اصلی مکالمه، دانش آن از محتوای کتاب‌ها و فیلم‎ها، توانایی در ترجمه چند زبانه، و همچنین توانایی ایجاد کدها، ارائه کد‌های پزشکی و توصیه‌های دیگر، به دنبال تصاویر، فرموله کردن پاسخ‌های تأیید شده برای غیر قابل پیش بینی‌ترین مسائل و بسیاری از شایستگی‌های دیگر است.

بنابراین، می‌توان از هوش مصنوعی نه تنها به عنوان درک آنی، بلکه به عنوان یک سیستم پشتیبانی تصمیم گیری هوشمند کمک کننده صحبت کرد.

این شرایط به ویژه، در شرایط بحرانی و اضطراری در روابط بین الملل، به ویژه در شرایط فشار زمانی حاد، اهمیت دارد.

«ایلان ماسک»، معتقد است که هوش مصنوعی به ناچار خود را با پتانسیل نابودی بشریت کنترل خواهد کرد، اگرچه این با طرح نابودگر متفاوت خواهد بود.

در مارس ۲۰۲۳، او به بیش از هزار متخصص، پیوست و نامه‎ای سرگشاده‌ نوشت که از سوی موسسه آینده زندگی حمایت می‎شد.

نویسندگان خواستار حداقل ۶ ماه برای تعلیق آموزش شبکه‌های عصبی شدند.

استفاده از کلان‎داده قبلاً بر نتیجه مبارزات سیاسی در بسیاری از کشور‌های جهان تأثیر گذاشته است.

رسوایی شرکت انگلیسی «کمبریج آنالیتیکا» به طور گسترده، شناخته شده است که قبل از شروع کارزار خروج انگلیس از اتحادیه اروپا و انتخابات ریاست جمهوری آمریکا در سال ۲۰۱۶، مجموعه داده‌های ده‌ها میلیون شهروند انگلیس و آمریکا را خریداری کرد.

پایگاه داده شامل حجم زیادی از اطلاعات، از «پسندیدن» در شبکه‌های اجتماعی گرفته تا آدرس‌های مسکونی بود.

پس از پردازش داده‎ها، کمپین‌های تحریک سیاسی هدفمند راه اندازی شد - مخاطبان پیام‌هایی را دریافت کردند که تا آنجا که ممکن بود، با دیدگاه‌های سیاسی-اجتماعی آن‌ها مطابقت داشت و برای آن رای دادند.

تهدید‌های جدید برای امنیت ملی نیز اجتناب ناپذیر است. بنابراین، از فناوری‌های GPT می‌توان برای ایجاد ویروس‌های رایانه‌ای بسیار خطرناک و راه اندازی آن‌ها در شبکه‌های جهانی استفاده کرد.

مدل‌ها می‌توانند برای ارتش، استراتژی داشته باشند و توانایی آن‌ها برای تولید فید‌های ویدیویی واقعی تنها یک قدم با تولید مقادیر نامحدود اطلاعات نادرست و دستکاری شده فاصله دارد.

در نوامبر ۲۰۲۱، ۱۹۳ کشور عضو به اتفاق آرا توصیه یونسکو را در مورد جنبه‌های اخلاقی هوش مصنوعی تصویب کردند.

نقش این سند کمک به کشور‌های عضو در احترام به حقوق اساسی مندرج در منشور سازمان ملل و اعلامیه جهانی حقوق بشر و اطمینان از این است که تحقیق، طراحی، توسعه و اجرای سیستم‌های هوش مصنوعی عواملی مانند رفاه بشر، حفاظت از محیط زیست و توسعه پایدار را به همراه داشته باشد.

پس از درخواست بیش از هزار کارشناس در مارس ۲۰۲۳ برای تعلیق آموزش سیستم‌های هوش مصنوعی قدرتمند، یونسکو از همه کشور‌ها خواست فوراً توصیه این نهاد را در مورد جنبه‌های اخلاقی هوش مصنوعی اجرا کنند.

نگارنده در پایان می‎نویسد: جهان به قوانین اخلاقی بیشتری برای هوش مصنوعی نیاز دارد؛ این چالش زمانه ما است. توصیه یونسکو در مورد جنبه‌های اخلاقی هوش مصنوعی چارچوب هنجاری مناسب را تعیین می‌کند.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *