صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

هوش مصنوعی و بحران استثمار جنسی آنلاین کودکان

۱۱ بهمن ۱۴۰۲ - ۱۳:۰۳:۰۲
کد خبر: ۴۷۵۷۵۶۳
دسته بندی‌: حقوق بشر ، عمومی
هوش مصنوعی، بحران آزار جنسی آنلاین کودکان را تشدید کرده و چالش‌های بسیاری را در زمینه مبارزه با این موضوع ایجاد کرده است.

خبرگزاری میزان - فناوری هوش مصنوعی ایجاد تصاویری را از کودکانی که هدف استثمار یا سوء‌استفاده قرار می‌گیرند، چه واقعی و چه جعلی، بسیار ساده‌تر کرده است.

مقامات مجری قانون در حال آماده شدن برای انفجار محتوا‌های تولید شده به وسیله هوش مصنوعی هستند که به طور واقع‌بینانه کودکان را در حال استثمار جنسی به تصویر می‌کشد.

این امر چالش شناسایی قربانیان و مبارزه با چنین سوء‌استفاده‌هایی را عمیق‌تر می‌کند و باعث افزایش نگرانی‌ها درباره آزار جنسی کودکان می‌شود.

این نگرانی‌ها در حالی مطرح می‌شوند که رسانه اجتماعی متا، منبع اصلی در محتوای مربوط به آزار کودکان، ردیابی مجرمان را با رمزگذاری سرویس پیام‌رسانی دشوارتر کرده است.

 این مشکل بر تعادل دشواری که شرکت‌های فناوری باید برای سنجش حقوق حریم خصوصی در برابر ایمنی کودکان ایجاد می‌کنند، تاکید می‌کند  و چشم‎انداز تعقیب قضایی این نوع جنایت، سؤالات مهمی را مطرح می‌کند که آیا چنین تصاویری غیرقانونی هستند و چه نوع مشکلاتی ممکن است برای قربانیان وجود داشته باشد.

قانونگذاران کنگره آمریکا برخی از این نگرانی‌ها را برای اعمال تدابیر شدیدتر مطرح کرده‌اند، از جمله احضار مدیران شرکت‌های فناوری برای استماع در مورد حمایت از کودکان.

 استیو گروکی، رئیس بخش استثمار و آزار جنسی کودکان در وزارت دادگستری آمریکا گفت: ایجاد تصاویر صریح جنسی از کودکان با استفاده از هوش مصنوعی، شکلی شنیع از استثمار آنلاین است.

سهولت فناوری هوش مصنوعی در تولید محتوا و تصاویر به این معنی است که مجرمان می‌توانند با یک کلیک تصاویری از کودکانی که هدف استثمار جنسی یا آزار جنسی قرار گرفته‌اند ایجاد کنند.

صرفا وارد کردن یک اعلان، تصاویر، فیلم‌ها و متن‌های به ظاهر واقعی را در عرض چند دقیقه ایجاد می‌کند و تصاویر جدیدی از کودکان واقعی و همچنین تصاویر واضحی از کودکانی که وجود ندارند به دست می‌آید.

 این‌ها ممکن است شامل محتوا‌های تولید شده به وسیله هوش مصنوعی از نوزادان و کودکان نوپا باشد که هدف آزار جنسی قرار می‌گیرند.

 طبق یک مطالعه اخیر در انگلیس، کودکان خردسال معروف هدف آزار جنسی قرار می‌گیرند و عکس‌های کلاس معمولی، طوری اقتباس شده که همه کودکان برهنه باشند.

نیویورک تایمز به نقل از یک روانشناس که برای چندین دهه بر روی جرایم جنسی مربوط به کودکان کار کرده، در این باره می‌نویسد: وضعیت هولناکی که اکنون پیش روی ما قرار دارد این است که کسی می‌تواند تصویر یک کودک را از رسانه‌های اجتماعی از یک دبیرستان یا از یک رویداد ورزشی بگیرد و می‌تواند درگیر چیزی شود که برخی آن را «برهنه‌سازی» می‌نامند.

کارشناسان می‌گویند که این تصاویر تولید شده به وسیله هوش مصنوعی از تصاویر واقعی قابل تشخیص نیستند و تشخیص قربانی واقعی از یک قربانی جعلی را سخت‌تر می‌کند.

 رابین ریچاردز، فرمانده گروه ویژه جرایم اینترنتی علیه کودکان اداره پلیس لس‌آنجلس، گفت: تحقیقات بسیار چالش‌ برانگیزتر است، تحقیق زمان می‌برد و پس از آن که ما زمان زیادی را در تحقیقات صرف کردیم متوجه می‌شویم که هوش مصنوعی است و سپس با این موضوع چه کنیم؟

سازمان‌های مجری قانون، با کمبود نیروی انسانی و کمبود بودجه، در حال حاضر تلاش کرده‌اند تا با پیشرفت سریع در فناوری، تصاویر سوء‌استفاده جنسی از کودکان را با سرعت شگفت‌آوری تشخیص دهند.

 تصاویر و ویدیوها، که به وسیله دوربین گوشی‌های هوشمند، دارک وب، رسانه‌های اجتماعی و برنامه‌های پیام‌رسان فعال شده‌اند، در سراسر شبکه‌های اجتماعی پیدا می‌شوند.

در حال حاضر تنها بخشی از مطالبی که مجرمانه شناخته می‌شود، در حال بررسی است.

استفاده از هوش مصنوعی دیگر جنبه‌های ردیابی سوء‎استفاده جنسی از کودکان را پیچیده کرده است؛ به طور معمول، به مطالب شناخته شده به طور تصادفی رشته‌ای از اعداد اختصاص داده می‌شود که معادل یک اثر انگشت دیجیتال است که برای شناسایی و حذف محتوای غیرقانونی استفاده می‌شود. اگر تصاویر و ویدیو‌های شناخته شده اصلاح شوند، محتوای جدید به نظر می‌رسند و دیگر با اثر انگشت دیجیتال مرتبط نیستند.

علاوه بر این چالش‌ها، این واقعیت وجود دارد که اگرچه قانون شرکت‌های فناوری را ملزم می‌کند در صورت کشف مطالب غیرقانونی را گزارش کنند، اما آن‌ها را ملزم نمی‌کند که فعالانه آن را جست‌وجو کنند.

انتهای پیام/



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *