همدستی در نسل‌کشی؛ سکوت نابخشودنی سکو‌های آنلاین درباره جنگ غزه

9:58 - 02 مهر 1403
کد خبر: ۴۷۹۴۴۶۸
دسته بندی: حقوق بشر ، عمومی
همدستی در نسل‌کشی؛ سکوت نابخشودنی سکو‌های آنلاین درباره جنگ غزه
سکو‌های آنلاین و شرکت‌های بزرگ فناوری در طول جنگ غزه از همه راه‌ها برای خاموش کردن صدای حامیان فلسطین و سرپوش گذاشتن بر جنایت‌های رژیم صهیونیستی استفاده کرده‌اند.

خبرگزاری میزان - گزارشی با عنوان «حقوق دیجیتال فلسطینیان، نسل‌کشی و مسئولیت‌پذیری فناوری بزرگ» نقش نگران‌کننده و فعالی را که سکو‌های آنلاین بزرگ و شرکت‌های بزرگ فناوری در تداوم نقض حقوق بشر علیه فلسطینی‌ها ایفا می‌کنند، آشکار کرده است.

این گزارش از سوی یک سازمان غیردولتی که بر حمایت از حقوق بشر فلسطینی‌ها متمرکز بوده، منتشر شده است. 

درحالی که جهان شاهد وقوع جنایت‌های وحشتناک در غزه است، نقش این همدستان دیجیتالی را نمی‌توان نادیده گرفت؛ این گزارش تاکید می‌کند که سکو‌هایی مانند متا، ایکس، یوتیوب و شرکت‌های فناوری مانند گوگل و آمازون این جنایت‌ها را فعال، تسهیل کرده و حتی از آن سود برده‌اند و به‌طور موثری از جنایت‌های جنگی محافظت می‌کنند.

این یافته‌ها نشان می‌دهد که چگونه شرکت‌های بزرگ فناوری، تحت عنوان بی‌طرفی، به مشارکت فعال در سانسور، انتشار اطلاعات نادرست و تحریک به خشونت ادامه می‌دهند؛ آن‌ها زیرساخت‌های مهمی را فراهم کرده‌اند که زیربنای اقدام‌های نظامی رژیم صهیونیستی بوده و اجازه می‌دهد تا سکو‌های خود را به سلاح تبدیل کنند، صدای فلسطینی‌ها را خاموش کنند و در همین حال سخنان نفرت‌انگیز و فراخوان‌های نسل‌کشی را تقویت کنند.

همدستی این سکو‌های دیجیتال یک نظارت صرف نیست؛ این یک سیستم ریشه‌دار تصمیم‌گیری عمدی است که سود را بر حقوق بشر ترجیح می‌دهد. 

همدستی در نسل‌کشی؛ سکوت نابخشودنی سکو‌های آنلاین

 

سانسور نظام‌مند صدا‌های حامی فلسطین

در مرکز یافته‌های این گزارش، الگوی تکان‌دهنده‌ای از سانسور نظام‌مند است که صدا‌های فلسطینی‌ها را هدف قرار می‌دهد.

بین اکتبر ۲۰۲۳ (مهر/آبان ۱۴۰۲) و ژوئن ۲۰۲۴ (خرداد/تیر ۱۴۰۳)، بیش از هزار و ۳۵۰ مورد سانسور در سکو‌هایی ازجمله فیس‌بوک، اینستاگرام، ایکس و تیک‌تاک ثبت شد؛ این سکو‌ها به‌طور نامتناسبی روزنامه‌نگاران، فعالان و مدافعان حقوق بشر فلسطینی را مورد هدف قرار دادند و سکو‌های متا از بدترین متخلفان بودند. 

سانسور در این سکو‌ها اشکال مختلفی داشت؛ حساب‌های کاربری به‌حالت تعلیق درآمد، حذف محتوا به یک موضوع عادی تبدیل شده و توزیع روایت‌های حامیان فلسطین به‌شدت محدود شد. 

الگوریتم متا نقش کلیدی در این سانسور داشت؛ گزارش‌ها نشان می‌دهد که متا در طول جنگ جاری در غزه سیاست‌های تعدیل محتوای خود را تغییر داد تا آستانه علامت‌گذاری محتوای مربوط به فلسطین و دقت فیلتر‌های آن را کاهش دهد و باعث حذف غیرضروری مطالب مرتبط با آن شود.

وعده‌های متا برای حفاظت از آزادی بیان، همراه با تعدیل محتوای مغرضانه آن، ادعا‌هایی بیش نبودند. 

دیده‌بان حقوق بشر پیش‌تر متا را به‌دلیل سانسور نظام‌مند صدا‌های فلسطینیان در طول جنگ محکوم کرده بود؛ متا بیش از هزار و ۵۰ مورد حذف محتوا در فیس‌بوک و اینستاگرام داشت؛ تقریبا در همه موارد، این سانسور محتوای صلح‌آمیز و حمایت از فلسطین را هدف قرار می‌دهد، در حالی که اجازه می‌دهد محتوای خشونت‌آمیز و ضدفلسطینی بدون کنترل گسترش باید. 

نظر‌هایی مانند «فلسطین آزاد»، «نسل‌کشی را متوقف کنید» و «هم‌اکنون آتش‌بس» براساس دستورالعمل‌های متا حذف شدند که نشان‌دهنده استاندارد دوگانه خطرناکی است که گفتمان سیاسی مشروع را سرکوب می‌کند.

سکو‌های آنلاین و ابزار نسل‌کشی

گزارش‌ها نشان می‌دهد که سکو‌های آنلاین (عمدتا غربی) انجمن‌هایی بی‌طرف نیستند، بلکه به ابزاری برای تحریک نسل‌کشی تبدیل شده‌اند. 

بین اکتبر ۲۰۲۳ و ژوئن ۲۰۲۴، بیش از ۳ هزار و ۳۰۰ مورد از محتوای مضر، ازجمله تحریک به نسل‌کشی، ثبت شد که بیشتر آن‌ها در ایکس و فیس‌بوک بودند. این سکو‌ها به مقام‌های بلندپایه رژیم صهیونیستی و سایر کاربران اجازه می‌دهند آشکارا خواستار نابودی فلسطینی‌ها شوند و آن‌ها را به‌عنوان «کمتر از انسان»، «حیوان» و بدتر از آن غیر انسان بودن جلوه دهند. 

این لفاظی نسل‌کشی به گوشه‌های مبهم اینترنت محدود نمی‌شد، بلکه از سوی همان سکو‌هایی که ادعا می‌کنند به استاندارد‌های جامعه و حقوق بشر متعهد هستند، ترویج و تقویت شده و بدون چالش باقی ماند.

به‌عنوان مثال، یک پیام منتشرشده در سکوی ایکس در دسامبر ۲۰۲۳ (آذر/دی ۱۴۰۲) از سوی معاون شهردار صهیونیست قدس شرقی اشغالی، اسیران فلسطینی با چشمان بسته را «مورچه» توصیف کرد و خواستار زنده به‌گور کردن آن‌ها شد.

اگرچه این پیام خاص در نهایت حذف شد، اما تعداد بی‌شماری مانند این پیام در این سکو همچنان وجود داشته و فضای خشونت و غیرانسانی‌سازی علیه فلسطینیان را دامن می‌زند.

این شکست در مبارزه با سخنان نفرت‌انگیز به‌طور مستقیم با قوانین بین‌المللی، به‌ویژه با توجه به دستور دیوان بین‌المللی دادگستری در ژانویه ۲۰۲۴ (دی/بهمن ۱۴۰۲) در تضاد است؛ این دستور رژیم صهیونیستی را به جلوگیری و مجازات تحریک به نسل‌کشی ملزم می‌کرد.

این سکو‌ها نه‌تنها در انجام وظیفه خود برای حفاظت از آزادی بیان کوتاهی کرده‌اند، بلکه فعالانه گسترش تبلیغات نسل‌کشی را تسهیل می‌کنند.

درمورد متا، این گزارش توضیح می‌دهد که چگونه بیش از ۹ هزار و ۵۰۰ درخواست حذف محتوا از سوی کابینه رژیم صهیونیستی بین اکتبر تا نوامبر ۲۰۲۳ (مهر تا آذر ۱۴۰۲) به متا ارسال شده است. 

این سطح بالای همکاری با رژیمی که به‌طور فعال مرتکب جنایت‌های جنگی می‌شود، نگرانی‌های جدی را درمورد مرز‌های اخلاقی این شرکت‌ها ایجاد می‌کند. 

تصمیم متا برای تن‌دادن با چنین درخواست‌هایی بدون شفافیت یا پاسخگویی، موضوع عمیق‌تری را آشکار می‌کند؛ این سکو‌ها مایلند در صورت دریافت پیشنهاد مناسب به ابزاری برای سرکوب تبدیل شوند.

نقض شرکت‌های بزرگ فناوری؛ پروژه نیمبوس و اتوماسیون کشتار

فراتر از حوزه رسانه‌های اجتماعی، همکاری گوگل و آمازون با ارتش رژیم صهیونیستی تحت پروژه نیمبوس، سایه تاریک‌تری بر نقش صنعت فناوری در جنگ غزه می‌اندازد؛ همان‌طور که گزارش‌ها نشان می‌دهد، قرارداد ۱.۲ میلیارد دلاری محاسبات ابری زیرساخت‌های حیاتی را برای تقویت سیستم‌های هدف‌گیری لاوندر (اسطوخودوس) و گاسپل مبتنی بر هوش مصنوعی رژیم صهیونیستی فراهم می‌کند؛ این سیستم‌ها به‌طور مستقیم با تلفات گسترده غیرنظامیان در غزه مرتبط هستند.

همدستی در نسل‌کشی؛ سکوت نابخشودنی سکو‌های آنلاین

سیستم لاوندر، به‌طور ویژه، به‌عنوان ابزاری برای قتل‌های خودکار عمل می‌کند، اهداف را براساس داده‌های عظیم شناسایی می‌کند و آن‌ها را در کارزار‌های بمباران ارتش رژیم صهیونیستی تغذیه می‌کند. 

براساس گزارش‌ها، لاوندر به‌تنهایی بیش از ۳۷ هزار هدف را شناسایی کرده که در مرگ هزاران غیرنظامی، ازجمله زنان و کودکان، نقش داشته است. 

گوگل و آمازون با ارائه خدمات ابری برای تسهیل این هدف‌گیری در مقیاس انبوه، به‌طور مستقیم در این نقض قوانین بین‌المللی دخیل هستند؛ باوجود افزایش فشار جهانی، هر ۲ شرکت به حمایت از حمله‌های رژیم صهیونیستی تحت پروژه نیمبوس ادامه می‌دهند.

همدستی در نسل‌کشی؛ سکوت نابخشودنی سکو‌های آنلاین

 

سخنان نفرت‌پراکنانه و اطلاعات نادرست؛ حمله هماهنگ به حقیقت

این گزارش در ادامه به مستندسازی سیل سخنان نفرت‌پراکنانه و کارزار‌های دروغ‌پردازی می‌پردازد که اغلب از سوی مقام‌های صهیونیست هدایت و از سوی سکو‌های آنلاین تقویت می‌شود. 

این کارزارها، که شامل انتشار سیستماتیک محتوای غیرانسانی در ایکس و یوتیوب است، فلسطینی‌ها را هم در داخل غزه و هم در سراسر جهان هدف قرار داده است. 

این گزارش به ۳ میلیون مورد از محتوای خشونت‌آمیز به زبان عبری اشاره می‌کند که تنها در ایکس فلسطینی‌ها را هدف قرار داده که بیشتر آن از سوی بازیگران مرتبط با رژیم صهیونیستی هماهنگ شده است.

شاید اصلی‌ترین عملیات نفوذ رژیم صهیونیستی موسوم به STOIC باشد؛ STOIC یک کارزار انتشار اطلاعات نادرست با هدف تضعیف کار آژانس امدادوکار سازمان ملل برای آوارگان فلسطینی (UNRWA) است؛ این کارزار که با کمک هوش مصنوعی سازماندهی شد، روایت‌های نادرستی را منتشر کرد که به کاهش بودجه آنروا و قطع کمک‌های بشردوستانه حیاتی به فلسطینی‌ها منجر شد.

سود بردن از نسل‌کشی: تبلیغات در میان جنایات جنگی

گویی سانسور و انتشار اطلاعات نادرست کافی نیست؛ این گزارش همچنین نشان می‌دهد که چگونه سکو‌هایی مانند فیس‌بوک از تبلیغات مضر ترویج خشونت علیه فلسطینی‌ها سود برده‌اند. 

تحقیقات نشان داد که فیس‌بوک تبلیغاتی را برای ترور فعالان حامی فلسطین و اخراج اجباری فلسطینی‌ها از کرانه باختری منتشر کرده است. متا از این کمپین‌ها سود برد و همدستی خود را در نقض حقوق بشر در غزه بیشتر کرد. 

در همین حال، یوتیوب تبلیغاتی از سوی رژیم صهیونیستی منتشر کرد که از تصاویر گرافیکی برای منحرف کردن افکار عمومی به نفع اقدام‌های نظامی خود در غزه استفاده می‌کرد. باوجود سیاست‌های ادعایی یوتیوب علیه محتوای خشونت‌آمیز، این تبلیغات رسانه‌های اجتماعی را مملو از روایت‌های تحریک‌آمیز، به‌ویژه در اروپا و آمریکا کرد که به عادی‌سازی جنایت‌های جنگی تحت عنوان «مبارزه با تروریسم» کمک می‌کند.

انتهای پیام/



ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *