همدستی در نسلکشی؛ سکوت نابخشودنی سکوهای آنلاین درباره جنگ غزه
خبرگزاری میزان - گزارشی با عنوان «حقوق دیجیتال فلسطینیان، نسلکشی و مسئولیتپذیری فناوری بزرگ» نقش نگرانکننده و فعالی را که سکوهای آنلاین بزرگ و شرکتهای بزرگ فناوری در تداوم نقض حقوق بشر علیه فلسطینیها ایفا میکنند، آشکار کرده است.
این گزارش از سوی یک سازمان غیردولتی که بر حمایت از حقوق بشر فلسطینیها متمرکز بوده، منتشر شده است.
درحالی که جهان شاهد وقوع جنایتهای وحشتناک در غزه است، نقش این همدستان دیجیتالی را نمیتوان نادیده گرفت؛ این گزارش تاکید میکند که سکوهایی مانند متا، ایکس، یوتیوب و شرکتهای فناوری مانند گوگل و آمازون این جنایتها را فعال، تسهیل کرده و حتی از آن سود بردهاند و بهطور موثری از جنایتهای جنگی محافظت میکنند.
این یافتهها نشان میدهد که چگونه شرکتهای بزرگ فناوری، تحت عنوان بیطرفی، به مشارکت فعال در سانسور، انتشار اطلاعات نادرست و تحریک به خشونت ادامه میدهند؛ آنها زیرساختهای مهمی را فراهم کردهاند که زیربنای اقدامهای نظامی رژیم صهیونیستی بوده و اجازه میدهد تا سکوهای خود را به سلاح تبدیل کنند، صدای فلسطینیها را خاموش کنند و در همین حال سخنان نفرتانگیز و فراخوانهای نسلکشی را تقویت کنند.
همدستی این سکوهای دیجیتال یک نظارت صرف نیست؛ این یک سیستم ریشهدار تصمیمگیری عمدی است که سود را بر حقوق بشر ترجیح میدهد.
سانسور نظاممند صداهای حامی فلسطین
در مرکز یافتههای این گزارش، الگوی تکاندهندهای از سانسور نظاممند است که صداهای فلسطینیها را هدف قرار میدهد.
بین اکتبر ۲۰۲۳ (مهر/آبان ۱۴۰۲) و ژوئن ۲۰۲۴ (خرداد/تیر ۱۴۰۳)، بیش از هزار و ۳۵۰ مورد سانسور در سکوهایی ازجمله فیسبوک، اینستاگرام، ایکس و تیکتاک ثبت شد؛ این سکوها بهطور نامتناسبی روزنامهنگاران، فعالان و مدافعان حقوق بشر فلسطینی را مورد هدف قرار دادند و سکوهای متا از بدترین متخلفان بودند.
سانسور در این سکوها اشکال مختلفی داشت؛ حسابهای کاربری بهحالت تعلیق درآمد، حذف محتوا به یک موضوع عادی تبدیل شده و توزیع روایتهای حامیان فلسطین بهشدت محدود شد.
الگوریتم متا نقش کلیدی در این سانسور داشت؛ گزارشها نشان میدهد که متا در طول جنگ جاری در غزه سیاستهای تعدیل محتوای خود را تغییر داد تا آستانه علامتگذاری محتوای مربوط به فلسطین و دقت فیلترهای آن را کاهش دهد و باعث حذف غیرضروری مطالب مرتبط با آن شود.
وعدههای متا برای حفاظت از آزادی بیان، همراه با تعدیل محتوای مغرضانه آن، ادعاهایی بیش نبودند.
دیدهبان حقوق بشر پیشتر متا را بهدلیل سانسور نظاممند صداهای فلسطینیان در طول جنگ محکوم کرده بود؛ متا بیش از هزار و ۵۰ مورد حذف محتوا در فیسبوک و اینستاگرام داشت؛ تقریبا در همه موارد، این سانسور محتوای صلحآمیز و حمایت از فلسطین را هدف قرار میدهد، در حالی که اجازه میدهد محتوای خشونتآمیز و ضدفلسطینی بدون کنترل گسترش باید.
نظرهایی مانند «فلسطین آزاد»، «نسلکشی را متوقف کنید» و «هماکنون آتشبس» براساس دستورالعملهای متا حذف شدند که نشاندهنده استاندارد دوگانه خطرناکی است که گفتمان سیاسی مشروع را سرکوب میکند.
سکوهای آنلاین و ابزار نسلکشی
گزارشها نشان میدهد که سکوهای آنلاین (عمدتا غربی) انجمنهایی بیطرف نیستند، بلکه به ابزاری برای تحریک نسلکشی تبدیل شدهاند.
بین اکتبر ۲۰۲۳ و ژوئن ۲۰۲۴، بیش از ۳ هزار و ۳۰۰ مورد از محتوای مضر، ازجمله تحریک به نسلکشی، ثبت شد که بیشتر آنها در ایکس و فیسبوک بودند. این سکوها به مقامهای بلندپایه رژیم صهیونیستی و سایر کاربران اجازه میدهند آشکارا خواستار نابودی فلسطینیها شوند و آنها را بهعنوان «کمتر از انسان»، «حیوان» و بدتر از آن غیر انسان بودن جلوه دهند.
این لفاظی نسلکشی به گوشههای مبهم اینترنت محدود نمیشد، بلکه از سوی همان سکوهایی که ادعا میکنند به استانداردهای جامعه و حقوق بشر متعهد هستند، ترویج و تقویت شده و بدون چالش باقی ماند.
بهعنوان مثال، یک پیام منتشرشده در سکوی ایکس در دسامبر ۲۰۲۳ (آذر/دی ۱۴۰۲) از سوی معاون شهردار صهیونیست قدس شرقی اشغالی، اسیران فلسطینی با چشمان بسته را «مورچه» توصیف کرد و خواستار زنده بهگور کردن آنها شد.
اگرچه این پیام خاص در نهایت حذف شد، اما تعداد بیشماری مانند این پیام در این سکو همچنان وجود داشته و فضای خشونت و غیرانسانیسازی علیه فلسطینیان را دامن میزند.
این شکست در مبارزه با سخنان نفرتانگیز بهطور مستقیم با قوانین بینالمللی، بهویژه با توجه به دستور دیوان بینالمللی دادگستری در ژانویه ۲۰۲۴ (دی/بهمن ۱۴۰۲) در تضاد است؛ این دستور رژیم صهیونیستی را به جلوگیری و مجازات تحریک به نسلکشی ملزم میکرد.
این سکوها نهتنها در انجام وظیفه خود برای حفاظت از آزادی بیان کوتاهی کردهاند، بلکه فعالانه گسترش تبلیغات نسلکشی را تسهیل میکنند.
درمورد متا، این گزارش توضیح میدهد که چگونه بیش از ۹ هزار و ۵۰۰ درخواست حذف محتوا از سوی کابینه رژیم صهیونیستی بین اکتبر تا نوامبر ۲۰۲۳ (مهر تا آذر ۱۴۰۲) به متا ارسال شده است.
این سطح بالای همکاری با رژیمی که بهطور فعال مرتکب جنایتهای جنگی میشود، نگرانیهای جدی را درمورد مرزهای اخلاقی این شرکتها ایجاد میکند.
تصمیم متا برای تندادن با چنین درخواستهایی بدون شفافیت یا پاسخگویی، موضوع عمیقتری را آشکار میکند؛ این سکوها مایلند در صورت دریافت پیشنهاد مناسب به ابزاری برای سرکوب تبدیل شوند.
نقض شرکتهای بزرگ فناوری؛ پروژه نیمبوس و اتوماسیون کشتار
فراتر از حوزه رسانههای اجتماعی، همکاری گوگل و آمازون با ارتش رژیم صهیونیستی تحت پروژه نیمبوس، سایه تاریکتری بر نقش صنعت فناوری در جنگ غزه میاندازد؛ همانطور که گزارشها نشان میدهد، قرارداد ۱.۲ میلیارد دلاری محاسبات ابری زیرساختهای حیاتی را برای تقویت سیستمهای هدفگیری لاوندر (اسطوخودوس) و گاسپل مبتنی بر هوش مصنوعی رژیم صهیونیستی فراهم میکند؛ این سیستمها بهطور مستقیم با تلفات گسترده غیرنظامیان در غزه مرتبط هستند.
سیستم لاوندر، بهطور ویژه، بهعنوان ابزاری برای قتلهای خودکار عمل میکند، اهداف را براساس دادههای عظیم شناسایی میکند و آنها را در کارزارهای بمباران ارتش رژیم صهیونیستی تغذیه میکند.
براساس گزارشها، لاوندر بهتنهایی بیش از ۳۷ هزار هدف را شناسایی کرده که در مرگ هزاران غیرنظامی، ازجمله زنان و کودکان، نقش داشته است.
گوگل و آمازون با ارائه خدمات ابری برای تسهیل این هدفگیری در مقیاس انبوه، بهطور مستقیم در این نقض قوانین بینالمللی دخیل هستند؛ باوجود افزایش فشار جهانی، هر ۲ شرکت به حمایت از حملههای رژیم صهیونیستی تحت پروژه نیمبوس ادامه میدهند.
سخنان نفرتپراکنانه و اطلاعات نادرست؛ حمله هماهنگ به حقیقت
این گزارش در ادامه به مستندسازی سیل سخنان نفرتپراکنانه و کارزارهای دروغپردازی میپردازد که اغلب از سوی مقامهای صهیونیست هدایت و از سوی سکوهای آنلاین تقویت میشود.
این کارزارها، که شامل انتشار سیستماتیک محتوای غیرانسانی در ایکس و یوتیوب است، فلسطینیها را هم در داخل غزه و هم در سراسر جهان هدف قرار داده است.
این گزارش به ۳ میلیون مورد از محتوای خشونتآمیز به زبان عبری اشاره میکند که تنها در ایکس فلسطینیها را هدف قرار داده که بیشتر آن از سوی بازیگران مرتبط با رژیم صهیونیستی هماهنگ شده است.
شاید اصلیترین عملیات نفوذ رژیم صهیونیستی موسوم به STOIC باشد؛ STOIC یک کارزار انتشار اطلاعات نادرست با هدف تضعیف کار آژانس امدادوکار سازمان ملل برای آوارگان فلسطینی (UNRWA) است؛ این کارزار که با کمک هوش مصنوعی سازماندهی شد، روایتهای نادرستی را منتشر کرد که به کاهش بودجه آنروا و قطع کمکهای بشردوستانه حیاتی به فلسطینیها منجر شد.
سود بردن از نسلکشی: تبلیغات در میان جنایات جنگی
گویی سانسور و انتشار اطلاعات نادرست کافی نیست؛ این گزارش همچنین نشان میدهد که چگونه سکوهایی مانند فیسبوک از تبلیغات مضر ترویج خشونت علیه فلسطینیها سود بردهاند.
تحقیقات نشان داد که فیسبوک تبلیغاتی را برای ترور فعالان حامی فلسطین و اخراج اجباری فلسطینیها از کرانه باختری منتشر کرده است. متا از این کمپینها سود برد و همدستی خود را در نقض حقوق بشر در غزه بیشتر کرد.
در همین حال، یوتیوب تبلیغاتی از سوی رژیم صهیونیستی منتشر کرد که از تصاویر گرافیکی برای منحرف کردن افکار عمومی به نفع اقدامهای نظامی خود در غزه استفاده میکرد. باوجود سیاستهای ادعایی یوتیوب علیه محتوای خشونتآمیز، این تبلیغات رسانههای اجتماعی را مملو از روایتهای تحریکآمیز، بهویژه در اروپا و آمریکا کرد که به عادیسازی جنایتهای جنگی تحت عنوان «مبارزه با تروریسم» کمک میکند.
انتهای پیام/