نگرانی پنتاگون از خطرات احتمالی هوش مصنوعی
خبرگزاری میزان - «کریگ مارتل»، افسر ارشد بخش هوش مصنوعی و دیجیتال وزارت دفاع آمریکا، میگوید که این وزارتخانه باید قبل از اینکه کاملا به استفاده از فناوری هوش مصنوعی متعهد شود، درباره آن اطلاعات بیشتری داشته باشد.
این مقام پنتاگون از توسعهدهندگان هوش مصنوعی خواست که در این رابطه شفافتر عمل کنند.
«مارتل» همچنین درباره افشا نشدن خطرات احتمالی مرتبط با سیستمهای هوش مصنوعی از سوی شرکتهای توسعهدهنده ابراز نگرانی کرد.
وی با اشاره به اینکه این شرکتها نتایج نهایی را بدون افشای جزئیات ارائه میدهند، میگوید که این کمبود اطلاعات پرسشهایی را درباره سوگیریها و سایر خطرات ذاتی این فناوریها ایجاد میکند.
هوش مصنوعی متکی بر مدلهای زبان بزرگ (LLM) است که از مجموعه دادههای گستردهای برای تقویت برنامههای کاربردی مختلف مانند چتباتها و تولید کنندههای تصویر استفاده میکند.
با این حال، این سرویسها اغلب به عنوان جعبه سیاه عمل کرده و اطلاعات مربوط به عملکرد درونی خود را مخفی میکنند.
این عدم شفافیت درک نحوه تصمیمگیری یا ارزیابی اثربخشی فناوری در طول زمان را برای کاربران چالشبرانگیز میکند.
پنتاگون مدلهای زبان بزرگ را یک کشف پیشگامانه میداند که با «فناوری فرازمینی کشف شده» قابل مقایسه است.
مقام پنتاگون همچنین میگوید که نگران است تنها تعداد کمی از نهادها منابع کافی را برای توسعه LLM داشته باشند.
در حالی که این مقام آمریکایی به شرکتهای خاصی اشاره نکرد، بازیگران بزرگی مانند مایکروسافت، گوگل، آمازون، OpenAI و Anthropic به دلیل توسعه LLM برای اهداف تجاری شناخته شدهاند.
انتهای پیام/