همدستی در نسلکشی؛ سکوت نابخشودنی سکوهای آنلاین
خبرگزاری میزان - گزارشی با عنوان «حقوق دیجیتال فلسطینیان، نسلکشی و مسئولیتپذیری فناوری بزرگ» نقش نگرانکننده و فعالی را که سکوهای آنلاین بزرگ و شرکتهای بزرگ فناوری در تداوم نقض حقوق بشر علیه فلسطینیها ایفا میکنند، آشکار کرده است.
این گزارش از سوی یک سازمان غیردولتی که بر حمایت از حقوق بشر فلسطینیها متمرکز بوده، منتشر شده است.
درحالی که جهان شاهد وقوع جنایتهای وحشتناک در غزه است، نقش این همدستان دیجیتالی را نمیتوان نادیده گرفت؛ این گزارش تاکید میکند که سکوهایی مانند متا، ایکس، یوتیوب و شرکتهای فناوری مانند گوگل و آمازون این جنایتها را فعال، تسهیل کرده و حتی از آن سود بردهاند و بهطور موثری از جنایتهای جنگی محافظت میکنند.
این یافتهها نشان میدهد که چگونه شرکتهای بزرگ فناوری، تحت عنوان بیطرفی، به مشارکت فعال در سانسور، انتشار اطلاعات نادرست و تحریک به خشونت ادامه میدهند؛ آنها زیرساختهای مهمی را فراهم کردهاند که زیربنای اقدامهای نظامی رژیم صهیونیستی بوده و اجازه میدهد تا سکوهای خود را به سلاح تبدیل کنند، صدای فلسطینیها را خاموش کنند و در همین حال سخنان نفرتانگیز و فراخوانهای نسلکشی را تقویت کنند.
همدستی این سکوهای دیجیتال یک نظارت صرف نیست؛ این یک سیستم ریشهدار تصمیمگیری عمدی است که سود را بر حقوق بشر ترجیح میدهد.
سانسور نظاممند صداهای حامی فلسطین
در مرکز یافتههای این گزارش، الگوی تکاندهندهای از سانسور نظاممند است که صداهای فلسطینیها را هدف قرار میدهد.
بین اکتبر ۲۰۲۳ (مهر/آبان ۱۴۰۲) و ژوئن ۲۰۲۴ (خرداد/تیر ۱۴۰۳)، بیش از هزار و ۳۵۰ مورد سانسور در سکوهایی ازجمله فیسبوک، اینستاگرام، ایکس و تیکتاک ثبت شد؛ این سکوها بهطور نامتناسبی روزنامهنگاران، فعالان و مدافعان حقوق بشر فلسطینی را مورد هدف قرار دادند و سکوهای متا از بدترین متخلفان بودند.
سانسور در این سکوها اشکال مختلفی داشت؛ حسابهای کاربری بهحالت تعلیق درآمد، حذف محتوا به یک موضوع عادی تبدیل شده و توزیع روایتهای حامیان فلسطین بهشدت محدود شد.
الگوریتم متا نقش کلیدی در این سانسور داشت؛ گزارشها نشان میدهد که متا در طول جنگ جاری در غزه سیاستهای تعدیل محتوای خود را تغییر داد تا آستانه علامتگذاری محتوای مربوط به فلسطین و دقت فیلترهای آن را کاهش دهد و باعث حذف غیرضروری مطالب مرتبط با آن شود.
وعدههای متا برای حفاظت از آزادی بیان، همراه با تعدیل محتوای مغرضانه آن، ادعاهایی بیش نبودند.
دیدهبان حقوق بشر پیشتر متا را بهدلیل سانسور نظاممند صداهای فلسطینیان در طول جنگ محکوم کرده بود؛ متا بیش از هزار و ۵۰ مورد حذف محتوا در فیسبوک و اینستاگرام داشت؛ تقریبا در همه موارد، این سانسور محتوای صلحآمیز و حمایت از فلسطین را هدف قرار میدهد، در حالی که اجازه میدهد محتوای خشونتآمیز و ضدفلسطینی بدون کنترل گسترش باید.
نظرهایی مانند «فلسطین آزاد»، «نسلکشی را متوقف کنید» و «هماکنون آتشبس» براساس دستورالعملهای متا حذف شدند که نشاندهنده استاندارد دوگانه خطرناکی است که گفتمان سیاسی مشروع را سرکوب میکند.
انتهای پیام/