صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

نگرانی پنتاگون از خطرات احتمالی هوش مصنوعی

۰۸ مهر ۱۴۰۲ - ۱۶:۰۶:۲۳
کد خبر: ۴۷۳۶۸۸۶
افسر ارشد بخش هوش مصنوعی و دیجیتال پنتاگون می‎گوید که افشا نشدن خطرات احتمالی مرتبط با سیستم‌های هوش مصنوعی از سوی شرکت‌های توسعه‌دهنده نگران‌کننده است.

خبرگزاری میزان - «کریگ مارتل»، افسر ارشد بخش هوش مصنوعی و دیجیتال وزارت دفاع آمریکا، می‎گوید که این وزارتخانه باید قبل از اینکه کاملا به استفاده از فناوری هوش مصنوعی متعهد شود، درباره آن اطلاعات بیشتری داشته باشد.

این مقام پنتاگون از توسعه‌دهندگان هوش مصنوعی خواست که در این رابطه شفاف‌تر عمل کنند.

«مارتل» همچنین درباره افشا نشدن خطرات احتمالی مرتبط با سیستم‌های هوش مصنوعی از سوی شرکت‌های توسعه‌دهنده ابراز نگرانی کرد.

وی با اشاره به اینکه این شرکت‌ها نتایج نهایی را بدون افشای جزئیات ارائه می‌‍دهند، می‎گوید که این کمبود اطلاعات پرسش‎هایی را درباره سوگیری‌ها و سایر خطرات ذاتی این فناوری‌ها ایجاد می‌کند.

هوش مصنوعی متکی بر مدل‌های زبان بزرگ (LLM) است که از مجموعه داده‌های گسترده‌ای برای تقویت برنامه‌های کاربردی مختلف مانند چت‎بات‌ها و تولید کننده‌های تصویر استفاده می‌کند.

با این حال، این سرویس‌ها اغلب به عنوان جعبه سیاه عمل کرده و اطلاعات مربوط به عملکرد درونی خود را مخفی می‌کنند.

این عدم شفافیت درک نحوه تصمیم‌گیری یا ارزیابی اثربخشی فناوری در طول زمان را برای کاربران چالش‌برانگیز می‌کند. 

پنتاگون مدل‌های زبان بزرگ را یک کشف پیشگامانه می‌داند که با «فناوری فرازمینی کشف شده» قابل مقایسه است.

مقام پنتاگون همچنین می‎گوید که نگران است تنها تعداد کمی از نهاد‌ها منابع کافی را برای توسعه LLM داشته باشند.

در حالی که این مقام آمریکایی به شرکت‌های خاصی اشاره نکرد، بازیگران بزرگی مانند مایکروسافت، گوگل، آمازون، OpenAI و Anthropic به دلیل توسعه LLM برای اهداف تجاری شناخته شده‌اند.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *