صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

بهره‌کشی جنسی از کودکان در پلتفرم‌های متا

۱۲ آذر ۱۴۰۲ - ۱۱:۴۷:۲۹
کد خبر: ۴۷۴۷۴۵۱
دسته بندی‌: حقوق بشر ، عمومی
موضوع کودک‌آزاری و بهره‌کشی جنسی از کودکان در فضای آنلاین به‌ویژه در پلتفرم‌های زیرمجموعه متا تاکنون به دفعات به موضوع بحث و چالش‌های قانونی تبدیل شده، اما این ماجرا هنوز به پایانی مناسب منجر نشده است.

خبرگزاری میزان – قانونگذاران فناوری اتحادیه اروپا به‌تازگی از شرکت «متا پلتفرمز» خواستند تا ۲۲ دسامبر (اول دی) اقدام‌های لازم را برای مقابله با سوءاستفاده جنسی از کودکان را انجام داده و جزئیات این برنامه را تحت قوانین جدید محتوای آنلاین اتحادیه اروپا، به این بلوک ارائه کند.

پیشتر در ماه اکتبر کمیسیون اروپا نخستین درخواست خود را برای دریافت اطلاعات از متا درباره اقدام‌های انجام شده از سوی این شرکت برای مقابله با گسترش محتوای تروریستی و خشونت‌آمیز ارائه کرده بود؛ دومین درخواست نیز در ماه گذشته درباره اقدام‌های مربوط به محافظت از کودکان زیر سن قانونی به این شرکت ارسال شد.

کمیسیون اروپا در بیانیه‌ای درباره آخرین درخواست خود به متا، تاکید کرد: اطلاعاتی درباره سیستم توصیه‌کننده اینستاگرام و تقویت محتوای بالقوه مضر نیز درخواست می‌شود.

درخواست‌های مذکور براساس قانون خدمات دیجیتال اتحادیه اروپا (DSA) انجام شده است؛ DSA قوانین فناوری جدید است که پلتفرم‌های آنلاین را ملزم می‌کند تا برای نظارت بر محتوای غیرقانونی و مضر در پلتفرم‌های خود اقدامات بیشتری انجام دهد.

عدم رعایت چنین درخواست‌هایی می‌تواند منجر به تحقیقات رسمی و حتی جریمه‌های مالی سنگین شود.

شرکت‌های بایننس تیک‎تاک و ایکس نیز دزخواست‌های مشابهی را برای اطلاعات دریافت کرده‌اند.

طی ماه‌های اخیر رسانه‌های مختلفی مانند وال‎استریت‎ژورنال، جزئیاتی را درباره نحوه ارائه محتوا‌های نامناسب و جنسی مرتبط با کودکان از سوی اینستاگرام و فیس‌بوک به کاربران ارائه کردند.

براساس گزارشی که در ماه ژوئن در این باره منتشر شد، اینستاگرام شبکه‌ای از حساب‌های خرید و فروش مواد سوءاستفاده جنسی از کودکان را به هم متصل می‌کند و آن‌ها را از طریق الگوریتم توصیه‌‌ای خود به یکدیگر راهنمایی می‌کند.

تحقیقات دیگری نشان می‌دهد که چگونه این مشکل به گروه‌های فیس‌بوکی گسترش می‌یابد، جایی که اکوسیستمی از حساب‌ها و گروه‌های کودک‌آزار وجود دارد که برخی از آن‌ها بالغ بر ۸۰۰ هزار عضو دارند.

از طرف دیگر، شرکت «متا پلتفرمز» در پی تشدید فشار نهاد‌های نظارتی آمریکایی و اتحادیه اروپا درباره نحوه ایمن نگه داشتن کودکان در پلتفرم‌های این شرکت، ادعا می‌کند که در حال گسترش و به‌روزرسانی ویژگی‌های ایمنی کودکان است.

مارک زاکربرگ، مدیرعامل متا - به همراه تعدادی دیگر از مدیران پلتفرم‌های بزرگ - در ژانویه ۲۰۲۴ در برابر سنای آمریکا در مورد موضوع استثمار آنلاین از کودکان شهادت خواهند داد.

تنظیم‌کننده‌های اتحادیه اروپا در نوامبر به متا مهلت دادند تا اول دسامبر (۱۰ آذر) اطلاعاتی در مورد نحوه محافظت از خردسالان ارائه دهد؛ آن‌ها در اول دسامبر درخواست جدیدی را برای متا ارسال کردند که به‌طور خاص به «انتشار مطالب سوءاستفاده جنسی از کودکان (SG-CSAM) در اینستاگرام» و سیستم توصیه این پلتفرم اشاره کرد.

متا در سال گذشته حدود نیم میلیارد دلار جریمه شد، زیرا مشخص شد این پلتفرم قوانین حفاظت از داده‌های بلوک برای افراد زیر سن قانونی را نقض کرده است؛ این بزرگ‌ترین جریمه حفاظت از داده‌های عمومی (GDPR) بود که اتحادیه اروپا تا به امروز برای یک غول رسانه‌های اجتماعی وضع کرده بود.

بررسی‌ها نشان می‌دهند که فیس‌بوک از زیرمجموعه‌های متا به محل جولان بی‌دردسر کودک‌آزار‌ها تبدیل شده است؛ این در حالی است که متا مدعی است که تاکنون تلاش‌های متعددی را برای حل این معضل انجام داده است.

ابعاد این موضوع نیز به طرز باورنکردنی بزرگ است؛ مرکز کانادایی حمایت از کودکان با حساب‌های اینستاگرامی مواجه شد که بیش از ۱۰ میلیون دنبال‌کننده داشتند و ویدیو‌های آزار جنسی کودکان را پخش می‌کردند.

در حال حاضر پلتفرم‌های زیرمجموعه متا به محلی برای جولان شکارچیان جنسی و کودک‌آزار‌ها تبدیل شده‌اند؛ آن‌ها به دلیل نبود استاندارد‌های ایمنی به راحتی شبکه‌سازی می‌کنند تا به اهداف خود دست یابند.

منتقدان تاکید دارند که متا با سود میلیارد‌ها دلاری سالانه‌ای که کسب می‌کند، حاضر به انجام تعهدات خود برای جلوگیری از بهره‌کشی آنلاین از کودکان نیست.

انتهای پیام/


ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *