اجرای دکترین ضاحیه با سامانههای هوش مصنوعی؛ جنایت هولناک رژیم صهیونیستی در غزه
خبرگزاری میزان – براساس تحقیقات مختلف از جمله بررسیهای انجام شده از سوی نشریات رژیم صهیونیستی از جمله +۹۷۲ Magazine و Local Call ارتش رژیم صهیونیستی از هوش مصنوعی برای انتخاب اهداف بمباران خود در جریان جنگ شش ماهه علیه غزه استفاده میکند؛ اقدامی که سبب کشته شدن بیرویه غیرنظامیان میشود.
از زمانی که حمله زمینی رژیم صهیونیستی در پی جنگ اخیر، به غزه آغاز شد، ارتش این رژیم از مجموعهای از فناوریها و سامانههای هوش مصنوعی برای شناسایی و هدف قرار دادن فلسطینیهای ساکن غزه استفاده کرده و آنها را توسعه داده است.
براساس گزارش ماه مارس (اسفند ۱۴۰۲) رسانه آمریکایی نیویورک تایمز، رژیم صهیونیستی یک برنامه تشخیص چهره جمعی را در نوار غزه مستقر کرد که ارتش این رژیم از آن برای شناسایی اهداف ادعایی استفاده میکند؛ این پایگاه دادهای از فلسطینیها بدون اطلاع یا رضایت آنها ایجاد شده است.
رژیم صهیونیستی از سامانههای هوش مصنوعی نیز به شکل گسترده برای تولید هدف! و بمباران در مقیاس انبوه استفاده میکند؛ رسانههای اجتماعی، ویدیوهای به دست آمده از پهپادهای نظارتی و دادههای تلفنهای همراه برای پر کردن پروندههای ادعایی از پیش تعیینشده مورد استفاده قرار میگیرند؛ در نتیجه هر فلسطینی ساکن غزه از سوی سامانه هوش مصنوعی لاوندر بهطور خودکار بهعنوان یک هدف در فهرست کشتار رتبهبندی میشود و سامانه هوش مصنوعی بابا کجاست؟ آن را ردیابی کرده و به اپراتور سیستم اطلاع میدهد که چه هدفی و در چه زمانی بمباران شود.
تا نیمه مارس ۲۰۲۴ حدود ۱۵۷ هزار و ۲۰۰ ساختمان در غزه آسیب دیده یا ویران شدند که ۹۰ درصد آنها آپارتمانی بودند؛ این نشان میدهد که کارزار بمباران رژیم صهیونیستی تقریبا بهصورت انحصاری بر ساختمانهای آپارتمانی متمرکز شده است و بیشتر آنها شبها بمباران شدند و این کاری است که سامانه انجیل انجام میدهد.
براساس اعلام سازمان ملل، بیش از ۱۵ هزار مرگ، معادل نیمی از تلفات غیرنظامی غزه از زمان آغاز جنگ تاکنون در شش هفته نخست جنگ رژیم صهیونیستی علیه غزه ثبت شدند، زمانی که ارتش رژیم صهیونیستی تا حد بسیار زیادی در انتخاب اهداف به سامانههای هوش مصنوعی متکی بود.
ایده تخریب گسترده مناطق غیرنظامی از سوی رژیم صهیونیستی در طول جنگ دوم لبنان در سال ۲۰۰۶ توسعه یافت و در چارچوب دکترین ضاحیه معرفی شد؛ سیستمهای هوش مصنوعی رژیم صهیونیستی با شناسایی اهداف، ارائه فهرستهای کشتار ردیابی هدف و بمباران، دکترین ضاحیه را بهصورت خودکار اجرا و از یک کارزار عمدی تخریب در مقیاس بزرگ در ابعاد نسلکشی حمایت میکند.
دکترین ضاحیه چیست؟
در جولای ۲۰۰۶ جنگ دوم لبنان آغاز شد؛ این جنگ رژیم صهیونیستی علیه جنبش مقاومتی حزبالله لبنان بیش از ۳۰ روز به طول انجامید.
ارتش رژیم صهیونیستی در جنگ دوم لبنان به تلافی هلاکت هشت نظامی خود تصمیم به اجرای دکترین جدیدی گرفت که بر استفاده نامتناسب از زور در مناطق شهری، بدون هیچگونه تمایزی بین اهداف غیرنظامی و نظامی استوار بود؛ برای اجرای این دکترین، ضاحیه یک محله پرجمعیت در حومه جنوبی بیروت، پایتخت لبنان انتخاب شد و رژیم صهیونیستی ادعا کرد که این منطقه محل استقرار گروه مقاومتی حزبالله است.
ضاحیه در پی حملات رژیم صهیونیستی در قالب دکترین ضاحیه، شاهد شهادت هزار و ۱۹۱ غیرنظامی و مجروح شدن بیش از ۴ هزار نفر دیگر بود.
براساس این استراتژی که نخستین بار از سوی موسسه مطالعات امنیت ملی رژیم صهیونیستی (INSS) – اتاق فکر دارای روابط نزدیک با تشکیلات سیاسی و نظامی رژیم صهیونیستی – مطرح شد، ارتش این رژیم میبایست از نیروی نامتناسب با اقدامهای مقاومت فلسطین و تهدید ادعایی ناشی از آن استفاده کند.
نگاهی به حملات رژیم صهیونیستی به غزه در شش ماه گذشته نشان میدهد که دکترین ضاحیه که در تضاد با قوانین بینالمللی قرار دارد، در حال حاضر به گستردگی از سوی ارتش رژیم صهیونیستی دنبال میشود.
ایجاد ترس و وحشت در میان غیرنظامیان غزه از طرق مختلف از جمله بمبارانهای مداوم و صدور هشدارهای تخلیه، موضوعهای تصادفی نیستند، بلکه بخشی از دکترین ضاحیه است؛ در بررسی INSS از این دکترین آمده است: اسرائیل باید بهطور نامتناسبی واکنش نشان دهد تا کاملا روشن شود که اسرائیل هیچ تلاشی برای برهم زدن آرامش حاکم بر مرزهای خود را نمیپذیرد.
گادی آیزنکوت، یک ژنرال ارشد صهیونیست در سال ۲۰۰۸، گفته بود که دکترین ضاحیه یک پیشنهاد نیست، بلکه طرحی است که قبلا مجاز شده است؛ دان هالوتز، فرمانده وقت ارتش رژیم صهیونیستی در سال ۲۰۰۶ نیز به خود میبالید که ارتش این رژیم زیرساختهای غیرنظامی در لبنان را هدف قرار خواهد داد تا ساعت را در لبنان ۲۰ سال به عقب برگرداند!
رژیم صهیونیستی این دکترین را در جریان حمله خود به غزه در سالهای ۲۰۰۸ تا ۲۰۰۹ اعمال کرد که بیش از هزار و ۴۰۰ شهید فلسطینی را در پی داشت.
ریچارد فالک، استاد حقوق بینالملل، دکترین ضاحیه رژیم صهیونیستی را نه تنها نقض آشکار ابتداییترین هنجارهای قانون جنگ و اخلاقیات جهانی توصیف میکند، بلکه تاکید میکند که این دکترین، دکترین خشونتی است که باید به نام اصلی خود خوانده شود: یعنی تروریسم سازمانیافته.
دکترین ضاحیه ریشه در سنتهای استعماری دارد؛ سنت استعماری جنگهای نامتقارن که فرانسه از آن برای آواره کردن میلیونها دهقان الجزایری و حبس آنها در اردوگاهها استفاده کرد؛ بر اثر اجرای استراتژی مذکور از سوی ارتش فرانسه استعمارگر علیه الجزایر مستعمره، صدها هزار غیرنظامی کشته شدند؛ بخشدار پاریس در سال ۱۹۶۱ گفته بود: به ازای یک ضرب، ۱۰ ضربه بر میگردانیم.
این همان منطقی است که رژیم صهیونیستی در حال پیاده کردنش علیه غزه است.
سامانه Lavender، لاوندر (اسطوخودوس)
لاوندر یک ابزار هوش مصنوعی توسعهیافته برای جنگ در اختیار ارتش رژیم صهیونیستی که پس از اجرای عملیات طوفان الاقصی توسعه یافت و مدعی شد که بین ۳۰ تا ۴۰ هزار فلسطینی مظنون مشارکت در این عملیات هستند و اجازه ترور آنها را صادر کرد.
این سامانه نتیجه گسترش استفاده رژیم صهیونیستی از فناوریهای نظارتی بر فلسطینیها در نوار غزه و کرانه باختری است؛ در ساخت این سامانه، اطلاعات مربوط به اعضای شناخته شده مقاومت فلسطین از جمله در حماس و جهاد اسلامی در یک مجموعه دادهای قرار داده شد.
این سامانه برای شناسایی ویژگیهای مشترک اعضای گروههای مقاومت فلسطین از دلایلی مانند عضویت در یک گروه واتس اپی یا تغییر مکرر شماره تلفن استفاده میکند؛ سپس از این دادهها برای رتبهبندی آنها در مقیاس یک تا ۱۰۰ استفاده میکند و هرچه امتیاز فردی به آستانه نزدیکتر باشد، بهعنوان هدف بمباران معرفی میشود.
براساس گزارشهای منتشر شده، به افسران ارتش رژیم صهیونیستی اطلاعات و اختیارات وسیعی در مورد بروز تلفات غیرنظامی داده شده بود؛ در طول چند هفته اول جنگ رژیم صهیونیستی علیه غزه، به ازای هر عامل سطح پایین مقاومت فلسطین که از سوی لاوندر هدف قرار میگرفت، اجازه کشتن ۱۵ تا ۲۰ غیرنظامی داده شده بود.
گزارش یک رسانه صهیونیستی نشان میدهد که ارتش این رژیم برای هدف قرار دادن مقامهای ارشد جنبش حماس، مجوز تلفات صدها نفری غیرنظامیان را صادر کرد.
کارشناسان با اشاره به این موضوع که گزارشهایی درباره تمایل استارتآپهای صهیونیستی برای صادرات این فناوری آزمایش شده وجود دارد، از این موضوع ابراز نگرانی کردند.
سامانه Where's Daddy، ور ایز ددی (بابا کجاست)
به گفته افسران اطلاعاتی ارتش رژیم صهیونیستی، در جریان جنگ رژیم صهیونیستی علیه غزه افراد مظنون به عضویت در گروههای مقاومتی فلسطین با سیستم هوش مصنوعی Where's Daddy (بابا کجاست؟) در خانههایشان هدف قرار گرفتند.
«بابا کجاست؟» وظیفه دارد اهداف تولید شده از سوی لاوندر را تحت نظارت مداوم قرار داده و آنها را تا رسیدن به خانههایشان ردیابی کند.
براساس بررسیها، در این نقطه اهداف ادعایی تعیین شده به همراه تمام اعضای خانوادههایشان هدف بمباران قرار میگیرند؛ با وجود این، در بسیاری از موارد افسران ارتش رژیم صهیونیستی بدون بررسی این موضوع که آیا اهداف ادعایی در خانه هستند یا خیر، ساختمانها را بمباران میکردند که در این جریان شمار زیادی از غیرنظامیان کشته میشدند.
یک افسر ارتش رژیم صهیونیستی گفت: بارها به خانهای حمله کردیم که هدف در آن خانه نبود و در نتیجه یک خانواده بدون دلیل کشته شدند.
سامانه Gospel، گاسپل (انجیل)
یکی دیگر از سامانههای هوش مصنوعی مورد استفاده ارتش رژیم صهیونیستی در جنگ علیه غزه، گاسپل است که برای مشخص کردن ساختمانها یا سازههایی به کار میرود که به ادعای رژیم صهیونیستی مقاومت فلسطین از آنها استفاده میکند.
براساس گزارشها استفاده از این سامانه منجر به ایجاد تلفات غیرنظامی گسترده شده است؛ یک افسر رژیم صهیونیستی گفت که وقتی کودکی چهار ساله در جریان بمباران خانهای در غزه به شهادت میرسد به این معنا است که ارتش رژیم صهیونیستی به این نتیجه رسیده که کشته شدن او هزینهای ندارد.
ارتش رژیم صهیونیستی در تعیین اهداف خود شامل مدارس، دفاتر سازمانهای امدادی، مراکز مذهبی و تاسیسات پزشکی در جریان حملات به غزه از یک سیستم هوش مصنوعی موسوم به گاسپل بهصورت گسترده استفاده میکند.
سامانه گاسپل رژیم صهیونیستی که ارتش این رژیم اطلاعات اندکی درباره آن ارائه کرده است، از هوش مصنوعی برای تجزیه سریع حجم وسیعی از دادهها جهت معرفی اهداف بالقوه حمله استفاده میکند.
یک افسر سابق واحد ۸۲۰۰ ارتش رژیم صهیونیستی، میگوید که نمیتواند در مورد اشتباهات احتمالی گاسپل صحبت کند، اما کارشناسان استدلال میکنند که هر سیستم هدفگیری هوش مصنوعی خطرات بالایی دارد.
افشای واقعیت درباره فهرستهای کشتار
در حالی که تا پیش از این گمانهزنیهایی درباره استفاده ارتش رژیم صهیونیستی از سامانههای هوش مصنوعی برای کشتار غیرنظامیان در غزه وجود داشت، شش افسر اطلاعاتی رژیم صهیونیستی استفاده از این سامانهها را تایید کردند.
این افسران اطلاعاتی میگویند کارکنان انسانی مرتبط با سامانههای هوش مصنوعی فقط یک «مهر لاستیکی» برای تایید تصمیمگیری دستگاهها عمل میکنند.
به گفته این منابع، تصمیمات هوش مصنوعی بهطور کامل مورد بررسی قرار نگرفته و تاییدیهها اغلب به محض مشخص شدن مرد بودن قربانی، بهطور کامل صادر میشود؛ آنها همچنین گفتند که برای هر هدف فقط ۲۰ ثانیه زمان در نظر گرفته میشود و ضریب خطای سامانهها نیز از سوی ارتش رژیم صهیونیستی مهم تلقی نمیشود.
اگرچه سخنگوی ارتش رژیم صهیونیستی وجود فهرستهای کشتار را تکذیب کرد، اما وجود سیستمهای هوش مصنوعی مانند لاوندر را مورد مناقشه قرار نداده و ادعا کرد که این سیستم صرفا ابزاری برای تحلیلگران در فرایند شناسایی هدف است.
با وجود این، افسران اطلاعاتی ارتش رژیم صهیونیستی اعلام کردند که آنها ملزم به انجام بررسیهای مستقل از اهداف اعلام شده از سوی لاوندر، پیش از بمباران نبودند بلکه بهعنوان یک مهر تایید برای تصمیمهای دستگاه عمل میکردند.
ارتش و دیگر نیروهای نظامی رژیم صهیونیستی از اظهارنظر درباره بمبهای هدایتشونده با هوش مصنوعی یا هر سیستم خودکار دیگری خودداری کردهاند؛ سخنگوی ارتش رژیم صهیونیستی نیز ادعا کرد در حالی که گاسپل برای شناسایی اهداف بالقوه استفاده میشود، تصمیم نهایی برای حمله همیشه از سوی یک عامل انسانی گرفته میشود و این تصمیم در نهایت دستکم از سوی یک نفر دیگر در زنجیره فرماندهی ارتش این رژیم تایید میشود.
استفاده از سامانههای هوش مصنوعی و ایجاد چالشی مهم
استفاده رژیم صهیونیستی از هوش مصنوعی برای کشتار و قتلعام گسترده مردم غزه ادامه استراتژی مجازات دستهجمعی این رژیم علیه فلسطینیها است؛ در عین حال، چالش حقوق بشری مهمی را ایجاد میکند.
موضوع مهم این است که جهان پس از این باید نگران استفاده از سیستمهای مرگبار هوش مصنوعی در میانه جنگها به بهانه انجام اقدامهای نظارتی باشد.
کارشناسان حقوق بشر سازمان ملل بهتازگی از استفاده رژیم صهیونیستی از هوش مصنوعی در جنگ علیه غزه و رقم خوردن تلفات بیسابقه جمعیت غزه ابراز تاسف کردند؛ آنها با اشاره به اینکه تخریب سیستماتیک و گسترده مسکن، خدمات و زیرساختهای غیرنظامی نشان دهنده جنایت علیه بشریت، کشتار و همچنین جنایتهای جنگی و نسلکشی در غزه است، خواستار توقف روند استفاده از سامانههای هوش مصنوعی علیه غزه شدند.
استفاده همزمان رژیم صهیونیستی از چند سامانه هوش مصنوعی در یک جنگ طولانیمدت نشاندهنده روابط در حال تحول بین ارتش و فناوری است؛ هوش مصنوعی قادر است که در یک حمله هدفمند جایگزین انسانها شده و حملات «آمارتری» را انجام دهد.
در حالی که رژیم صهیونیستی به دلیل استفاده از هوش مصنوعی در جنایت علیه غزه تحت فشار قرار گرفته است، به نظر نمیرسد این موضوع در فهرست اولویتهای رسیدگی به جنایتهای این رژیم در غزه از سوی جامعه جهانی بهویژه آمریکا از متحدان و شرکای اصلی رژیم صهیونیستی در جنایت علیه غزه قرار داشته باشد.
پولیتیکو در گزارشی ضمن بررسی این موضوع، نوشت که رژیم صهیونیستی در حال استقرار فناوریهای جدید و پیچیده هوش مصنوعی در مقیاس وسیع در حملات علیه غزه است؛ با افزایش شمار قربانیان در غزه، گروههای حقوق بشری درباره پیامدهای استفاده این رژیم از سیستمهای هدفگیری هوش مصنوعی رژیم صهیونیستی میپرسند.
گروههای حقوق بشری بهویژه در منطقه غرب آسیا خواستار شفافسازی نقش اشتباههای احتمالی سیستمهای هوش مصنوعی رژیم صهیونیستی هستند و تاکید دارند که سیستم یادشده همان چیزی است که به رژیم صهیونیستی امکان هدف قرار دادن بخش زیادی از غزه را داده است.
گروه حقوق دیجیتال ۷ amleh اعلام کرد که استفاده از سلاحهای خودکار در جنگ بدترین تهدید برای فلسطینیها است؛ قدیمیترین و بزرگترین سازمان حقوق بشری رژیم صهیونیستی نیز با ارائه درخواستی به ارتش این رژیم خواستار شفافیت بیشتر درمورد هدفگیری خودکار شد.
اعمال فشار بر رژیم صهیونیستی برای پاسخگویی بیشتر درباره جنگ با هوش مصنوعی این ظرفیت را دارد که موجی را نیز در آمریکا در میانه تلاش دشوار قانونگذاران آمریکایی در زمینه استفاده از هوش مصنوعی در میدانهای نبرد آینده ایجاد کند؛ برخی بر این باور هستند که منحرف کردن سیستم جنگ هوش مصنوعی از سوی رژیم صهیونیستی باید با واکنش آمریکا مواجه شود؛ با وجود این، هنوز این موضوع توجههای زیادی را در کانون بحثهای مربوط به جنگ غزه در واشنگتن به خود جلب نکرده است.
در حالی که رژیم صهیونیستی سازمانهای امدادی و تاسیسات پزشکی غزه را با ادعای استفاده مقاومت فلسطین از زیرساختهای نظامی هدف قرار داده و میدهد، مقامهای آمریکایی تا حد زیادی از مطرح کردن موضوع استفاده رژیم صهیونیستی از هوش مصنوعی در حملات به غزه اجتناب کردند.
معاون مشاور امنیت ملی کاخ سفید در بخش سایبری و فناوریهای نوظهور با اشاره به سرعت بالای خطرات این فناوری در جنگ، گفت: ما واقعا نگران سیستمهای هوش مصنوعی هستیم و رئیسجمهور به همین دلیل در ماه اکتبر (مهر) فرمان اجرایی را درباره استفاده از هوش مصنوعی از سوی ارتش و آژانسهای اطلاعاتی آمریکا اعلام کرد.
دلیل احتمالی دیگر بیتوجهی واشنگتن به استفاده رژیم صهیونیستی از هوش مصنوعی در جنگ علیه غزه، میتواند ماهیت مبهم عملیات نظامی رژیم صهیونیستی باشد؛ در عین حال، رژیم صهیونیستی معاهده موجود درباره استفاده مسئولانه از هوش مصنوعی در جنگ را امضا نکرده است.
یک کارشناس این حوزه، اظهار کرد: با توجه به سابقه نرخ بالای خطای سیستمهای هوش مصنوعی، خودکارسازی غیردقیق و مغرضانه اهداف، حملات این سیستمها دور از هدفگیری بیرویه نیست.
آمریکا در حال آزمایش انواع فناوریهای هوش مصنوعی توسعهیافته از سوی نیروهای آمریکایی در برخی موارد با بودجه این کشور در اراضی اشغالی است؛ از سوی دیگر، آمریکا سالانه ۳.۳ میلیارد دلار به رژیم صهیونیستی بهعنوان کمک مالی نظامی خارجی علاوه بر ۵۰۰ میلیون دلار سالانه برای برنامههای دفاع موشکی تحت یک پیمان یک دههای کمک نظامی به رژیم صهیونیستی اعطا میکند؛ رژیم صهیونیستی از این بودجه تا حدی برای تقویت تواناییهای جنگی، ضد موشکی و نظارتی خود با فناوری پیشرفته استفاده کرده است.
یک مقام آمریکایی نیز معتقد است که اوکراین و غزه مانند آزمایشگاههایی هستند که متاسفانه برخی از کارهای غمانگیز برای کمک به ما در توسعه سیاستهای هوش مصنوعی در آنها انجام میشوند.
انتهای پیام/
فاطمه محتشم سیفی