صفحه نخست

رئیس قوه قضاییه

اخبار غلامحسین محسنی اژه‌ای

اخبار سید ابراهیم رئیسی

اخبار صادق آملی لاریجانی

قضایی

حقوق بشر

مجله حقوقی

سیاست

عکس

حوادث- انتظامی و آسیب‌های اجتماعی

جامعه

اقتصاد

فرهنگی

ورزشی

بین‌الملل- جهان

فضای مجازی

چندرسانه

اینفوگرافیک

حقوق و قضا

محاکمه منافقین

هفته قوه قضاییه

صفحات داخلی

اجرای دکترین ضاحیه با سامانه‌های هوش مصنوعی؛ جنایت هولناک رژیم صهیونیستی در غزه

۲۸ فروردين ۱۴۰۳ - ۱۰:۵۸:۱۸
کد خبر: ۴۷۶۸۳۳۸
دسته بندی‌: حقوق بشر ، عمومی
Gospel (اسطوخودوس)، Lavender (انجیل) و Where's Daddy (بابا کجاست؟) سامانه‌های هوش مصنوعی هستند که رژیم صهیونیستی از آن‌ها برای اجرای دکترین ضاحیه به‌عنوان چارچوب تروریسم سازمان‌یافته استفاده می‌کند.

خبرگزاری میزان – براساس تحقیقات مختلف از جمله بررسی‌های انجام شده از سوی نشریات رژیم صهیونیستی از جمله +۹۷۲ Magazine و Local Call ارتش رژیم صهیونیستی از هوش مصنوعی برای انتخاب اهداف بمباران خود در جریان جنگ شش ماهه علیه غزه استفاده می‌کند؛ اقدامی که سبب کشته شدن بی‌رویه غیرنظامیان می‌شود.

از زمانی که حمله زمینی رژیم صهیونیستی در پی جنگ اخیر، به غزه آغاز شد، ارتش این رژیم از مجموعه‌ای از فناوری‌ها و سامانه‌های هوش مصنوعی برای شناسایی و هدف قرار دادن فلسطینی‌های ساکن غزه استفاده کرده و آن‌ها را توسعه داده است.

براساس گزارش ماه مارس (اسفند ۱۴۰۲) رسانه آمریکایی نیویورک تایمز، رژیم صهیونیستی یک برنامه تشخیص چهره جمعی را در نوار غزه مستقر کرد که ارتش این رژیم از آن برای شناسایی اهداف ادعایی استفاده می‌کند؛ این پایگاه داده‌ای از فلسطینی‌ها بدون اطلاع یا رضایت آن‌ها ایجاد شده است.

رژیم صهیونیستی از سامانه‌های هوش مصنوعی نیز به شکل گسترده برای تولید هدف! و بمباران در مقیاس انبوه استفاده می‌کند؛ رسانه‌های اجتماعی، ویدیو‌های به دست آمده از پهپاد‌های نظارتی و داده‌های تلفن‌های همراه برای پر کردن پرونده‌های ادعایی از پیش تعیین‌شده مورد استفاده قرار می‌گیرند؛ در نتیجه هر فلسطینی ساکن غزه از سوی سامانه هوش مصنوعی لاوندر به‌طور خودکار به‌عنوان یک هدف در فهرست کشتار رتبه‌بندی می‌شود و سامانه هوش مصنوعی بابا کجاست؟ آن را ردیابی کرده و به اپراتور سیستم اطلاع می‌دهد که چه هدفی و در چه زمانی بمباران شود.

تا نیمه مارس ۲۰۲۴ حدود ۱۵۷ هزار و ۲۰۰ ساختمان در غزه آسیب دیده یا ویران شدند که ۹۰ درصد آن‌ها آپارتمانی بودند؛ این نشان می‌دهد که کارزار بمباران رژیم صهیونیستی تقریبا به‌صورت انحصاری بر ساختمان‌های آپارتمانی متمرکز شده است و بیشتر آن‌ها شب‌ها بمباران شدند و این کاری است که سامانه انجیل انجام می‌دهد.

براساس اعلام سازمان ملل، بیش از ۱۵ هزار مرگ، معادل نیمی از تلفات غیرنظامی غزه از زمان آغاز جنگ تاکنون در شش هفته نخست جنگ رژیم صهیونیستی علیه غزه ثبت شدند، زمانی که ارتش رژیم صهیونیستی تا حد بسیار زیادی در انتخاب اهداف به سامانه‌های هوش مصنوعی متکی بود.

ایده تخریب گسترده مناطق غیرنظامی از سوی رژیم صهیونیستی در طول جنگ دوم لبنان در سال ۲۰۰۶ توسعه یافت و در چارچوب دکترین ضاحیه معرفی شد؛ سیستم‌های هوش مصنوعی رژیم صهیونیستی با شناسایی اهداف، ارائه فهرست‌های کشتار ردیابی هدف و بمباران، دکترین ضاحیه را به‌صورت خودکار اجرا و از یک کارزار عمدی تخریب در مقیاس بزرگ در ابعاد نسل‌کشی حمایت می‌کند.

دکترین ضاحیه چیست؟

در جولای ۲۰۰۶ جنگ دوم لبنان آغاز شد؛ این جنگ رژیم صهیونیستی علیه جنبش مقاومتی حزب‌الله لبنان بیش از ۳۰ روز به طول انجامید.

ارتش رژیم صهیونیستی در جنگ دوم لبنان به تلافی هلاکت هشت نظامی خود تصمیم به اجرای دکترین جدیدی گرفت که بر استفاده نامتناسب از زور در مناطق شهری، بدون هیچ‌گونه تمایزی بین اهداف غیرنظامی و نظامی استوار بود؛ برای اجرای این دکترین، ضاحیه یک محله پرجمعیت در حومه جنوبی بیروت، پایتخت لبنان انتخاب شد و رژیم صهیونیستی ادعا کرد که این منطقه محل استقرار گروه مقاومتی حزب‌الله است.

ضاحیه در پی حملات رژیم صهیونیستی در قالب دکترین ضاحیه، شاهد شهادت هزار و ۱۹۱ غیرنظامی و مجروح شدن بیش از ۴ هزار نفر دیگر بود.

براساس این استراتژی که نخستین بار از سوی موسسه مطالعات امنیت ملی رژیم صهیونیستی (INSS) – اتاق فکر دارای روابط نزدیک با تشکیلات سیاسی و نظامی رژیم صهیونیستی – مطرح شد، ارتش این رژیم می‌بایست از نیروی نامتناسب با اقدام‌های مقاومت فلسطین و تهدید ادعایی ناشی از آن استفاده کند.

نگاهی به حملات رژیم صهیونیستی به غزه در شش ماه گذشته نشان می‌‎دهد که دکترین ضاحیه که در تضاد با قوانین بین‌المللی قرار دارد، در حال حاضر به گستردگی از سوی ارتش رژیم صهیونیستی دنبال می‌شود.

ایجاد ترس و وحشت در میان غیرنظامیان غزه از طرق مختلف از جمله بمباران‌های مداوم و صدور هشدار‌های تخلیه، موضوع‌های تصادفی نیستند، بلکه بخشی از دکترین ضاحیه است؛ در بررسی INSS از این دکترین آمده است: اسرائیل باید به‌طور نامتناسبی واکنش نشان دهد تا کاملا روشن شود که اسرائیل هیچ تلاشی برای برهم زدن آرامش حاکم بر مرز‌های خود را نمی‌پذیرد.

گادی آیزنکوت، یک ژنرال ارشد صهیونیست در سال ۲۰۰۸، گفته بود که دکترین ضاحیه یک پیشنهاد نیست، بلکه طرحی است که قبلا مجاز شده است؛ دان هالوتز، فرمانده وقت ارتش رژیم صهیونیستی در سال ۲۰۰۶ نیز به خود می‌بالید که ارتش این رژیم زیرساخت‌های غیرنظامی در لبنان را هدف قرار خواهد داد تا ساعت را در لبنان ۲۰ سال به عقب برگرداند!

رژیم صهیونیستی این دکترین را در جریان حمله خود به غزه در سال‌های ۲۰۰۸ تا ۲۰۰۹ اعمال کرد که بیش از هزار و ۴۰۰ شهید فلسطینی را در پی داشت.

ریچارد فالک، استاد حقوق بین‌الملل، دکترین ضاحیه رژیم صهیونیستی را نه تنها نقض آشکار ابتدایی‌ترین هنجار‌های قانون جنگ و اخلاقیات جهانی توصیف می‌کند، بلکه تاکید می‌کند که این دکترین، دکترین خشونتی است که باید به نام اصلی خود خوانده شود: یعنی تروریسم سازمان‌یافته.

دکترین ضاحیه ریشه در سنت‌های استعماری دارد؛ سنت استعماری جنگ‌های نامتقارن که فرانسه از آن برای آواره کردن میلیون‌ها دهقان الجزایری و حبس آن‌ها در اردوگاه‌ها استفاده کرد؛ بر اثر اجرای استراتژی مذکور از سوی ارتش فرانسه استعمارگر علیه الجزایر مستعمره، صد‌ها هزار غیرنظامی کشته شدند؛ بخشدار پاریس در سال ۱۹۶۱ گفته بود: به ازای یک ضرب، ۱۰ ضربه بر می‌گردانیم.

این همان منطقی است که رژیم صهیونیستی در حال پیاده کردنش علیه غزه است.

 

سامانه Lavender، لاوندر (اسطوخودوس)

لاوندر یک ابزار هوش مصنوعی توسعه‌یافته برای جنگ در اختیار ارتش رژیم صهیونیستی که پس از اجرای عملیات طوفان الاقصی توسعه یافت و مدعی شد که بین ۳۰ تا ۴۰ هزار فلسطینی مظنون مشارکت در این عملیات هستند و اجازه ترور آن‌ها را صادر کرد.

این سامانه نتیجه گسترش استفاده رژیم صهیونیستی از فناوری‌های نظارتی بر فلسطینی‌ها در نوار غزه و کرانه باختری است؛ در ساخت این سامانه، اطلاعات مربوط به اعضای شناخته شده مقاومت فلسطین از جمله در حماس و جهاد اسلامی در یک مجموعه داده‌ای قرار داده شد.

این سامانه برای شناسایی ویژگی‌های مشترک اعضای گروه‌های مقاومت فلسطین از دلایلی مانند عضویت در یک گروه واتس اپی یا تغییر مکرر شماره تلفن استفاده می‌کند؛ سپس از این داده‌ها برای رتبه‌بندی آن‌ها در مقیاس یک تا ۱۰۰ استفاده می‌کند و هرچه امتیاز فردی به آستانه نزدیک‌تر باشد، به‌عنوان هدف بمباران معرفی می‌شود.

براساس گزارش‌های منتشر شده، به افسران ارتش رژیم صهیونیستی اطلاعات و اختیارات وسیعی در مورد بروز تلفات غیرنظامی داده شده بود؛ در طول چند هفته اول جنگ رژیم صهیونیستی علیه غزه، به ازای هر عامل سطح پایین مقاومت فلسطین که از سوی لاوندر هدف قرار می‌گرفت، اجازه کشتن ۱۵ تا ۲۰ غیرنظامی داده شده بود.

گزارش یک رسانه صهیونیستی نشان می‌دهد که ارتش این رژیم برای هدف قرار دادن مقام‌های ارشد جنبش حماس، مجوز تلفات صد‌ها نفری غیرنظامیان را صادر کرد.

کارشناسان با اشاره به این موضوع که گزارش‌هایی درباره تمایل استارت‌آپ‌های صهیونیستی برای صادرات این فناوری آزمایش شده وجود دارد، از این موضوع ابراز نگرانی کردند. 

 سامانه Where's Daddy، ور ایز ددی (بابا کجاست)

به گفته افسران اطلاعاتی ارتش رژیم صهیونیستی، در جریان جنگ رژیم صهیونیستی علیه غزه افراد مظنون به عضویت در گروه‌های مقاومتی فلسطین با سیستم هوش مصنوعی Where's Daddy (بابا کجاست؟) در خانه‌هایشان هدف قرار گرفتند.

«بابا کجاست؟» وظیفه دارد اهداف تولید شده از سوی لاوندر را تحت نظارت مداوم قرار داده و آن‌ها را تا رسیدن به خانه‌هایشان ردیابی کند.

براساس بررسی‌ها، در این نقطه اهداف ادعایی تعیین شده به همراه تمام اعضای خانواده‌هایشان هدف بمباران قرار می‌گیرند؛ با وجود این، در بسیاری از موارد افسران ارتش رژیم صهیونیستی بدون بررسی این موضوع که آیا اهداف ادعایی در خانه هستند یا خیر، ساختمان‌ها را بمباران می‌کردند که در این جریان شمار زیادی از غیرنظامیان کشته می‌شدند.

یک افسر ارتش رژیم صهیونیستی گفت: بار‌ها به خانه‌ای حمله کردیم که هدف در آن خانه نبود و در نتیجه یک خانواده بدون دلیل کشته شدند.

 سامانه Gospel، گاسپل (انجیل)

یکی دیگر از سامانه‌های هوش مصنوعی مورد استفاده ارتش رژیم صهیونیستی در جنگ علیه غزه، گاسپل است که برای مشخص کردن ساختمان‌ها یا سازه‌هایی به کار می‌رود که به ادعای رژیم صهیونیستی مقاومت فلسطین از آن‌ها استفاده می‌کند.

براساس گزارش‌ها استفاده از این سامانه منجر به ایجاد تلفات غیرنظامی گسترده شده است؛ یک افسر رژیم صهیونیستی گفت که وقتی کودکی چهار ساله در جریان بمباران خانه‌ای در غزه به شهادت می‌رسد به این معنا است که ارتش رژیم صهیونیستی به این نتیجه رسیده که کشته شدن او هزینه‌ای ندارد. 

ارتش رژیم صهیونیستی در تعیین اهداف خود شامل مدارس، دفاتر سازمان‌های امدادی، مراکز مذهبی و تاسیسات پزشکی در جریان حملات به غزه از یک سیستم هوش مصنوعی موسوم به گاسپل به‌صورت گسترده استفاده می‌کند.

سامانه گاسپل رژیم صهیونیستی که ارتش این رژیم اطلاعات اندکی درباره آن ارائه کرده است، از هوش مصنوعی برای تجزیه سریع حجم وسیعی از داده‌ها جهت معرفی اهداف بالقوه حمله استفاده می‌کند.

یک افسر سابق واحد ۸۲۰۰ ارتش رژیم صهیونیستی، می‎گوید که نمی‌تواند در مورد اشتباهات احتمالی گاسپل صحبت کند، اما کارشناسان استدلال می‌کنند که هر سیستم هدف‌گیری هوش مصنوعی خطرات بالایی دارد.

 

افشای واقعیت درباره فهرست‌های کشتار

در حالی که تا پیش از این گمانه‌زنی‌هایی درباره استفاده ارتش رژیم صهیونیستی از سامانه‌های هوش مصنوعی برای کشتار غیرنظامیان در غزه وجود داشت، شش افسر اطلاعاتی رژیم صهیونیستی استفاده از این سامانه‌ها را تایید کردند.

این افسران اطلاعاتی می‌گویند کارکنان انسانی مرتبط با سامانه‌های هوش مصنوعی فقط یک «مهر لاستیکی» برای تایید تصمیم‌گیری دستگاه‌ها عمل می‌کنند.

به گفته این منابع، تصمیمات هوش مصنوعی به‌طور کامل مورد بررسی قرار نگرفته و تاییدیه‌ها اغلب به محض مشخص شدن مرد بودن قربانی، به‌طور کامل صادر می‌شود؛ آن‌ها همچنین گفتند که برای هر هدف فقط ۲۰ ثانیه زمان در نظر گرفته می‌شود و ضریب خطای سامانه‌ها نیز از سوی ارتش رژیم صهیونیستی مهم تلقی نمی‌شود.

اگرچه سخنگوی ارتش رژیم صهیونیستی وجود فهرست‌های کشتار را تکذیب کرد، اما وجود سیستم‌های هوش مصنوعی مانند لاوندر را مورد مناقشه قرار نداده و ادعا کرد که این سیستم صرفا ابزاری برای تحلیلگران در فرایند شناسایی هدف است.

با وجود این، افسران اطلاعاتی ارتش رژیم صهیونیستی اعلام کردند که آن‌ها ملزم به انجام بررسی‌های مستقل از اهداف اعلام شده از سوی لاوندر، پیش از بمباران نبودند بلکه به‌عنوان یک مهر تایید برای تصمیم‌های دستگاه عمل می‌کردند.

ارتش و دیگر نیرو‌های نظامی رژیم صهیونیستی از اظهارنظر درباره بمب‌های هدایت‌شونده با هوش مصنوعی یا هر سیستم خودکار دیگری خودداری کرده‌اند؛ سخنگوی ارتش رژیم صهیونیستی نیز ادعا کرد در حالی که گاسپل برای شناسایی اهداف بالقوه استفاده می‌شود، تصمیم نهایی برای حمله همیشه از سوی یک عامل انسانی گرفته می‌شود و این تصمیم در نهایت دست‌کم از سوی یک نفر دیگر در زنجیره فرماندهی ارتش این رژیم تایید می‌شود.

استفاده از سامانه‌های هوش مصنوعی و ایجاد چالشی مهم

استفاده رژیم صهیونیستی از هوش مصنوعی برای کشتار و قتل‌عام گسترده مردم غزه ادامه استراتژی مجازات دسته‌جمعی این رژیم علیه فلسطینی‌ها است؛ در عین حال، چالش حقوق بشری مهمی را ایجاد می‌کند.

موضوع مهم این است که جهان پس از این باید نگران استفاده از سیستم‌های مرگ‌بار هوش مصنوعی در میانه جنگ‌ها به بهانه انجام اقدام‌های نظارتی باشد.

کارشناسان حقوق بشر سازمان ملل به‌تازگی از استفاده رژیم صهیونیستی از هوش مصنوعی در جنگ علیه غزه و رقم خوردن تلفات بی‌سابقه جمعیت غزه ابراز تاسف کردند؛ آن‌ها با اشاره به اینکه تخریب سیستماتیک و گسترده مسکن، خدمات و زیرساخت‌های غیرنظامی نشان دهنده جنایت علیه بشریت، کشتار و همچنین جنایت‌های جنگی و نسل‌کشی در غزه است، خواستار توقف روند استفاده از سامانه‌های هوش مصنوعی علیه غزه شدند.

استفاده همزمان رژیم صهیونیستی از چند سامانه هوش مصنوعی در یک جنگ طولانی‌مدت نشان‌دهنده روابط در حال تحول بین ارتش و فناوری است؛ هوش مصنوعی قادر است که در یک حمله هدفمند جایگزین انسان‌ها شده و حملات «آمارتری» را انجام دهد.

در حالی که رژیم صهیونیستی به دلیل استفاده از هوش مصنوعی در جنایت علیه غزه تحت فشار قرار گرفته است، به نظر نمی‌رسد این موضوع در فهرست اولویت‌های رسیدگی به جنایت‌های این رژیم در غزه از سوی جامعه جهانی به‌ویژه آمریکا از متحدان و شرکای اصلی رژیم صهیونیستی در جنایت علیه غزه قرار داشته باشد.

پولیتیکو در گزارشی ضمن بررسی این موضوع، نوشت که رژیم صهیونیستی در حال استقرار فناوری‌های جدید و پیچیده هوش مصنوعی در مقیاس وسیع در حملات علیه غزه است؛ با افزایش شمار قربانیان در غزه، گروه‌های حقوق بشری درباره پیامد‌های استفاده این رژیم از سیستم‌های هدف‌گیری هوش مصنوعی رژیم صهیونیستی می‌پرسند.

گروه‌های حقوق بشری به‌ویژه در منطقه غرب آسیا خواستار شفاف‌سازی نقش اشتباه‌های احتمالی سیستم‌های هوش مصنوعی رژیم صهیونیستی هستند و تاکید دارند که سیستم یادشده همان چیزی است که به رژیم صهیونیستی امکان هدف قرار دادن بخش زیادی از غزه را داده است.

گروه حقوق دیجیتال ۷ amleh اعلام کرد که استفاده از سلاح‌های خودکار در جنگ بدترین تهدید برای فلسطینی‌ها است؛ قدیمی‌ترین و بزرگ‌ترین سازمان حقوق بشری رژیم صهیونیستی نیز با ارائه درخواستی به ارتش این رژیم خواستار شفافیت بیشتر درمورد هدف‌گیری خودکار شد.

اعمال فشار بر رژیم صهیونیستی برای پاسخگویی بیشتر درباره جنگ با هوش مصنوعی این ظرفیت را دارد که موجی را نیز در آمریکا در میانه تلاش دشوار قانونگذاران آمریکایی در زمینه استفاده از هوش مصنوعی در میدان‌های نبرد آینده ایجاد کند؛ برخی بر این باور هستند که منحرف کردن سیستم جنگ هوش مصنوعی از سوی رژیم صهیونیستی باید با واکنش آمریکا مواجه شود؛ با وجود این، هنوز این موضوع توجه‌های زیادی را در کانون بحث‌های مربوط به جنگ غزه در واشنگتن به خود جلب نکرده است.

در حالی که رژیم صهیونیستی سازمان‌های امدادی و تاسیسات پزشکی غزه را با ادعای استفاده مقاومت فلسطین از زیرساخت‌های نظامی هدف قرار داده و می‌دهد، مقام‌های آمریکایی تا حد زیادی از مطرح کردن موضوع استفاده رژیم صهیونیستی از هوش مصنوعی در حملات به غزه اجتناب کردند.

معاون مشاور امنیت ملی کاخ سفید در بخش سایبری و فناوری‌های نوظهور با اشاره به سرعت بالای خطرات این فناوری در جنگ، گفت: ما واقعا نگران سیستم‌های هوش مصنوعی هستیم و رئیس‌جمهور به همین دلیل در ماه اکتبر (مهر) فرمان اجرایی را درباره استفاده از هوش مصنوعی از سوی ارتش و آژانس‌های اطلاعاتی آمریکا اعلام کرد.

دلیل احتمالی دیگر بی‌توجهی واشنگتن به استفاده رژیم صهیونیستی از هوش مصنوعی در جنگ علیه غزه، می‌تواند ماهیت مبهم عملیات نظامی رژیم صهیونیستی باشد؛ در عین حال، رژیم صهیونیستی معاهده موجود درباره استفاده مسئولانه از هوش مصنوعی در جنگ را امضا نکرده است.

یک کارشناس این حوزه، اظهار کرد: با توجه به سابقه نرخ بالای خطای سیستم‌های هوش مصنوعی، خودکارسازی غیردقیق و مغرضانه اهداف، حملات این سیستم‌ها دور از هدف‌گیری بی‌رویه نیست.

آمریکا در حال آزمایش انواع فناوری‌های هوش مصنوعی توسعه‌یافته از سوی نیرو‌های آمریکایی در برخی موارد با بودجه این کشور در اراضی اشغالی است؛ از سوی دیگر، آمریکا سالانه ۳.۳ میلیارد دلار به رژیم صهیونیستی به‌عنوان کمک مالی نظامی خارجی علاوه بر ۵۰۰ میلیون دلار سالانه برای برنامه‌های دفاع موشکی تحت یک پیمان یک دهه‌ای کمک نظامی به رژیم صهیونیستی اعطا می‌کند؛ رژیم صهیونیستی از این بودجه تا حدی برای تقویت توانایی‌های جنگی، ضد موشکی و نظارتی خود با فناوری پیشرفته استفاده کرده است.

یک مقام آمریکایی نیز معتقد است که اوکراین و غزه مانند آزمایشگاه‌هایی هستند که متاسفانه برخی از کار‌های غم‌انگیز برای کمک به ما در توسعه سیاست‌های هوش مصنوعی در آن‌ها انجام می‌شوند.


انتهای پیام/

فاطمه محتشم سیفی


برچسب ها: هوش مصنوعی غزه

ارسال دیدگاه
دیدگاهتان را بنویسید
نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *