صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی؛ تهدید یا فرصت؟

۲۱ ارديبهشت ۱۴۰۲ - ۰۸:۳۰:۱۲
کد خبر: ۴۷۱۱۹۳۶
متخصصان سلامت معتقدند توسعه هوش مصنوعی دارای پتانسیل ایجاد اثرات منفی بر سلامت است.

خبرگزاری میزان - پزشکان و کارشناسان بهداشت عمومی گفته‌اند که هوش مصنوعی می‌تواند به سلامت میلیون‌ها نفر آسیب برساند و تهدیدی وجودی برای بشریت باشد و آن‌ها خواستار توقف توسعه هوش مصنوعی عمومی تا زمانی که قانون‌گذاری در این رابطه انجام شود، شده‌اند.

به گزارش «گاردین»، هوش مصنوعی این پتانسیل را دارد که با بهبود تشخیص بیماری‌ها، یافتن راه‌های بهتر برای درمان بیماران و گسترش مراقبت به افراد بیشتر، مراقبت‌های بهداشتی را متحول کند. 

به گفته متخصصان سلامت از انگلیس، آمریکا، استرالیا، کاستاریکا و مالزی در مجله BMJ Global Health، توسعه هوش مصنوعی همچنین دارای پتانسیل ایجاد اثرات منفی بر سلامت است.

اثرات منفی هوش مصنوعی در موضوع پزشکی و سلامتی

کارشناسان می‌گویند خطرات هوش مصنوعی مرتبط با پزشکی و مراقبت‌های بهداشتی، شامل احتمال خطا‌های هوش مصنوعی برای آسیب رساندن به بیمار، مشکلات مربوط به حریم خصوصی و امنیت داده‌ها و استفاده از هوش مصنوعی به روش‌هایی که نابرابری‌های اجتماعی و بهداشتی را بدتر می‌کند، است.

به گفته آنها، یکی از مصادیق آسیب، استفاده از یک پالس اکسیمتر مبتنی بر هوش مصنوعی بود که سطح اکسیژن خون را در بیمارانی که پوست تیره‌تری داشتند، بیش از حد تخمین می‌زد و در نتیجه «هیپوکسی» آن‌ها درمان نشد. 

اما آن‌ها همچنین در مورد تهدید‌های گسترده‌تر و جهانی ناشی از هوش مصنوعی برای سلامت انسان و حتی موجودیت انسان هشدار دادند. 

از بین رفتن میلیون‌ها شغل و اثرات آن بر سلامت روانی

در صورتی که سیستم‌های مبتنی بر هوش مصنوعی جای انسان‌ها را بگیرند، این موضوع می‌تواند از طریق تعیین کننده‌های اجتماعی سلامت از طریق کنترل و دستکاری افراد، استفاده از سلاح‌های خود مختار مرگبار و اثرات سلامت روانی ناشی از بیکاری گسترده به سلامت میلیون‌ها نفر آسیب برساند. 

آن‌ها می‌گویند: هنگامی که سیستم‌های اطلاعاتی مبتنی بر هوش مصنوعی با بهبود سریع توانایی تحریف یا ارائه نادرست واقعیت با تقلب‌های عمیق ترکیب می‌شوند، ممکن است دموکراسی را با ایجاد یک فروپاشی عمومی در اعتماد یا با ایجاد شکاف و درگیری اجتماعی و تأثیرات متعاقب آن بر سلامت عمومی تضعیف کنند.

تهدید‌هایی نیز با از دست دادن مشاغل ناشی می‌شود که همزمان با استقرار گسترده فناوری هوش مصنوعی خواهد بود. بر اساس تخمین‌ها، در صورت ادامه روند فعلی، طی دهه آینده بین ده‌ها تا صد‌ها میلیون شغل از بین خواهند رفت.

به گفته متخصصان سلامت، بیکاری به شدت با پیامد‌ها و رفتار‌های نامطلوب سلامتی مرتبط است. علاوه بر این، نمی‌دانیم که جامعه چگونه از نظر روانی و عاطفی به جهانی که در آن کار در دسترس یا غیر ضروری است، واکنش نشان می‌دهد.

اما آن‌ها پیشنهاد کردند که تهدید ناشی از هوش عمومی مصنوعی خود-بهبود، که از نظر تئوری می‌تواند طیف کاملی از وظایف انسانی را بیاموزد و انجام دهد، همه جانبه است.

آن‌ها همچنین در این مقاله گفتند: ما اکنون به دنبال ایجاد ماشین‌هایی هستیم که بسیار هوشمندتر و قدرتمندتر از خودمان هستند. پتانسیل چنین ماشین‌هایی برای به کارگیری این هوش و قدرت، خواه عمداً یا نه و به روش‌هایی که می‌تواند به انسان آسیب برساند یا تحت سلطه خود درآورد، واقعی است و باید در نظر گرفته شود. با رشد تصاعدی در تحقیق و توسعه هوش مصنوعی، پنجره فرصت برای جلوگیری از آسیب‌های جدی و بالقوه وجودی در حال بسته شدن است. 

آن‌ها هشدار دادند: تنظیمات موثر توسعه و استفاده از هوش مصنوعی برای جلوگیری از آسیب لازم است. تا زمانی که چنین مقرراتی وضع نشده باشد، باید یک تعلیق برای توسعه هوش عمومی مصنوعی خود-بهبود برقرار شود. 

به طور جداگانه، در انگلیس، ائتلافی از کارشناسان بهداشت، بررسی‌کنندگان مستقل، و موسسات خیریه پزشکی خواستار اصلاح لایحه آینده ایمنی برای اقدام علیه اطلاعات غلط بهداشتی شدند.

این گروه در نامه‌ای سرگشاده به «کلوئی اسمیت»، وزیر علم، نوآوری و فناوری انگلیس نوشت: یکی از راه‌های کلیدی که ما می‌توانیم از آینده سیستم مراقبت‌های بهداشتی خود محافظت کنیم این است که اطمینان حاصل کنیم که شرکت‌های اینترنتی سیاست‌های روشنی در مورد نحوه شناسایی اطلاعات نادرست بهداشتی مضری که در پلتفرم‌هایشان ظاهر می‌شود و همچنین رویکرد‌های ثابت در برخورد با آن‌ها دارند. 

این امر به کاربران محافظت بیشتری در برابر آسیب می‌دهد و محیط اطلاعاتی و اعتماد به موسسات عمومی را بهبود می‌بخشد. 

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *