تقنية

من “لافندر” إلى “غوسبيل”… داخل مصانع الموت الإسرائيلية المؤتمتة/ مصطفى البقالي

26 فبراير 2025

لطالما كان القتل قراراً بشرياً، لحظة مواجهة محتومة يلتقي فيها القاتل والضحية في مشهد تراجيدي أخير. يكون للقاتل فيها وجه، وللضحية اسم. لكن هذا الزمن انقضى. القاتل اليوم بلا ملامح، وبلا مشاعر، مجرّد خوارزمية هلامية لا تعرف التردّد، ولا تملك رفاهية الشكّ. الضحية لا ترى قاتلها، ولا تملك فرصةً للمراوغة، مجرّد قذيفة تهوي من السماء، يسبقها تحليل بيانات، يتبعها تقرير يُحدَّث تلقائياً: “تم القضاء على الهدف”.

المكان غزّة، والزمان 15 شهراً من القصف، منذ الثامن من أكتوبر/ تشرين الأول 2023. 20 ثانية فقط تكفي الخوارزميات لتحديد من سيموت. 50 ثانية وينطلق الصاروخ إلى هدفه. أقلّ من دقيقة ويُمحَى الاسم من السجلّ المدني، كأنّه لم يكن. ومع حلول الليل، يُعاد ملء بنك الأهداف بأسماءَ جديدةٍ لأشخاصٍ لم يتوقّعوا أن يصبحوا يوماً جزءاً من لعبة رقمية قاتلة.

لم تكن غزّة في الأشهر الخمسة عشر الرهيبة مجرّد ساحة حرب، بل مختبراً مفتوحاً، تُختبر فيه أحدث أدوات القتل عن بُعد. فالحرب لم تعد بين جندي وجندي، بل بين إنسان وآلة، والموت صار رقماً، والمنازل تحوّلت أهدافاً مرصودة، تنتظر فقط أمر الإعدام الرقمي. … لكن كيف أدارت إسرائيل حربها هذه؟ كيف تحوّلت الخوارزميات قاضياً وجلّاداً، تُصدر الأحكام بلا تردّد؟ وهل ما يحدث في غزّة مجرّد بداية لحروب المستقبل، فيختفي الجنود، وتحلّ محلهم معادلات قاتلة؟

ما يلي ليس مجرّد قراءة في ما يحصل، بل رحلة إلى قلب الحرب الرقمية، حيث تُمحَى الحياة بضغطة زر، وحيث يصبح الصمت أشدّ وقعاً من الانفجار.

مشروع لافندر: عندما تتحوّل الخوارزميات قاضياً وجلّاداً

“لافندر”، اسم ناعم كعطر، لكنّه قاتل كالشظايا. قد يبدو أداةً في منظومة استخباراتية، لكنّه في الحقيقة جلّادٌ رقمي لا يرحم، ويختزل البشر في إحداثيات، ويحوّل الموت قراراً حسابياً بارداً. في تحقيق صحافي نشره موقعا +972 و”لوكال كول” الإسرائيليان في إبريل/ نيسان 2024، كُشِف النقاب عن هذا النظام الذي يُعدّ قلباً نابضاً لمصنع اغتيالات يعمل بلا توقّف، إذ تُصنع قوائم الموت بضغطات زر، وتُرسَل إلى الطائرات بلا طيّار لتنفيذ عملياتها من السماء.

لم تكن تلك القوائم انتقائيةً، ولا مبنيةً على تحقيقات أو أدلّة، بل كانت نتيجة خوارزميات بصلاحيات كبيرة، صنَّفت 37 ألف فلسطيني بأنهم “مقاتلون محتملون” خلال الأسابيع الأولى للحرب فقط. ولم تكن هناك حاجة لدليل يدينهم، يكفي أن يرصدهم “لافندر” في المساحة الخاطئة، في الزمن الخاطئ، في الدائرة الرقمية التي قرّرت أنهم “تهديد محتمل”.

لم يكن “لافندر” طفرةً مفاجئةً، فقبل ظهوره بثلاث سنوات، نُشِر كتابٌ بعنوان “فريق الإنسان والآلة… كيف نخلق التناغم بين الإنسان والذكاء الاصطناعي الذي سيغيّر عالمنا”، لكاتب يسمّي نفسه “الجنرال ي. س.”. لكنّه لم يكن مجرّد تنظير أكاديمي عن مستقبل التكنولوجيا، بل كان خطّة عمل لاغتيالات مبرمجة، كتبتها، بحسب التحقيق، يد يوسي سرييل، القائد السابق لوحدة 8200، الذي رأى في الذكاء الاصطناعي فرصةً لتحويل القتل صناعةً فائقة السرعة، ومن دون هوامش خطأ، بحسب زعمه.

لكن “لافندر” انتقل من مجرّد فكرة في ورق، ليصير وحشاً إلكترونياً يراقب الفلسطينيين في سكناتهم وحركاتهم، كما لو كانوا إشارات في شاشة رادار. يحوّل كلّ مكالمة، وكلّ رسالة قصيرة، وأيَّ نظرة عابرة ترصدها عيون “الدرون”، إلى خيط في شبكة البيانات التي تجمعها الأقمار الاصطناعية، والمجسّات الأرضية، ومنشورات التواصل الاجتماعي، ثم يُعاد ترتيبها قطعَ أُحجية رقمية، يحلّها الذكاء الاصطناعي في أقلّ من 20 ثانية. ثم يُصدِر “لافندر” حكمه القاطع: الموت أو البقاء.

لا يمكن الحديث عن “لافندر” كما تُناقَش أيُّ أداة استخباراتية أخرى، لأنه باختصار ليس مجرّد “قاعدة بيانات”، كما يزعم الجيش الإسرائيلي، بل نظام قاتل يُعيد تعريف معنى المراقبة، ويجعل الوجود ذاته اشتباها، والموت قراراً تتخذه آلة لا تعرف الرحمة ولا الحاجة إلى التبرير.

مشروع “Gospel”: استهداف مراكز القيادة أم لعبة قتل رقمية؟

وفقًا لتقرير نشرته صحيفة الغارديان، في ديسمبر/ كانون الأول 2023، كشف رئيس الأركان الإسرائيلي السابق أفيف كوخافي أن نظام “غوسبيل” كان قادراً على إنتاج مائة هدف يوميّاً خلال حرب غزّة في مايو/ أيار 2021، مقارنةً بـ50 هدفاً سنوياً في السابق، ما يعني أن الأتمتة التي جلبها الذكاء الاصطناعي ضاعفت إنتاج الأهداف بشكل غير مسبوق، وسمح بشنّ ضربات مكثّفة على نطاق واسع. ويبدو، بحسب التقرير، أن برنامج “غوسبيل” عمل على مضاعفة أهدافه مع الوقت، كما وسّع قاعدة المستهدفين من القادة العسكريين إلى منازل أفراد يشتبه بانتمائهم للمقاومة، بغضّ النظر عن رتبهم أو دورهم الفعلي. لكنّ هذا التصنيف الرقمي الفضفاض والمتغيّر، لا يخضع لمعاييرَ واضحةٍ، وهو ما يجعل الأخطاء القاتلة مسألة وقت لا أكثر.

ويكشف التقرير أيضاً أن المنظومة تمنح كلّ هدف “درجة تصنيف”، تشمل تقديراً لعدد المدنيين المتوقّع مقتلهم في كلّ ضربة. لكن بدلاً من تقليل الخسائر البشرية، كانت الهجمات تُنفّذ حتى عندما كان عدد الضحايا المحتملين مرتفعاً. وتصف مصادر من داخل وحدة الاستهداف النظامَ بأنه “مصنع اغتيالات جماعية”، إذ يُركّز في رفع عدد الضحايا بدلاً من “جودة الأهداف”.

مشروع “Where’s Daddy”: حين تصبح البيوت مصيدةً للموت

“أين أبي؟”، ليس سؤالاً بريئاً يطرحه طفل ينتظر عودة والده، بل هو اسم أحد أكثر أدوات الذكاء الاصطناعي الإسرائيلية رعباً، ليس بسبب ما يفعله فقط، إنما أيضاً بسبب المكان الذي يختار أن يضرب فيه أيضاً.

بحسب تقرير لمنظمة هيومن رايتس ووتش، يعتمد هذا النظام على تعقب بيانات الهواتف المحمولة، مستفيداً من معلومات جمعتها أنظمة أخرى، مثل “لافندر”، التي تصنّف الأفراد بناءً على أنماط حياتهم وتحركاتهم، ثم يتابعهم النظام حتى لحظة دخولهم إلى منازلهم، حيث يُفترض أنهم في أكثر لحظاتهم استرخاءً، وأقلّ استعداداً للمواجهة. ولكن خلف هذا “المنطق التكتيكي”، تتوارى مأساة إنسانية عميقة، فاستهداف الأفراد داخل منازلهم يعني أن الحرب لم تعد تميّز بين مقاتل ومدني، بين الأب والطفل، بين غرفة النوم وساحة مواجهة. وتتحوّل البيوت، بالتالي، مصيدةً مميتةً يصبح كلّ فرد في داخلها مجرّد “أضرار جانبية” في حسابات الخوارزميات الإسرائيلية.

وعند التفكير في قطاعٍ مكتظٍّ كغزّة، حيث البيوت متراصّة والحياة متشابكة، يصبح أيّ خطأ بسيط في الإحداثيات كارثة حقيقية. ويمكن أن تؤدّي إشارة خاطئة من برج اتصال أو خللٍ في نظام تحديد المواقع إلى قصف منزلٍ لا علاقة له بالهدف، ويتحوّل الذكاء الاصطناعي بالتالي، من أداة يفترض أنها تزيد الدقّة، إلى سلاح عشوائي يضغط على الزناد، بناءً على حساباتٍ لا تفهم أن خلف كلّ نقطة في شاشة المراقبة هناك حياة إنسانية كاملة.

لكن خطر “أين أبي؟” وبقية البرامج المشابهة، لا يكمن في هشاشة بياناتها فقط، بل في ما تزرعه من رعبٍ داخل المجتمع الفلسطيني، إذ لا يُنظَر إلى استهداف الأفراد داخل منازلهم باعتباره عمليةً عسكريةً فقط، بل أداةً نفسيةً تُصمَّم لتحويل الخوف جزءاً من الحياة اليومية أيضاً، فأن يعيش إنسان تحت تهديد دائم، متوقّعاً أن منزله قد يكون التالي في القائمة، لهو شكل رهيب من الاستنزاف النفسي الجماعي. وبهذه الطريقة، يتحوّل المشروع أداةَ تفكيك ناعم للحاضنة الشعبية، فتصبح التكنولوجيا نفسها شبحاً يطارد تفاصيل الحياة اليومية، ويُحوّل غزّة إلى مدينة بلا ملاذات، وبلا شعور حقيقي بالأمان.

مشروع “Fire Factory”: الذكاء الاصطناعي في إدارة الموت

في عصر تندمج فيه الحرب بالذكاء الاصطناعي، يظهر مشروع “فاير فاكتوري” أحدَ أخطر أدوات القتل المؤتمتة، ليس بسبب سرعته الفائقة فقط، بل لأنه يعيد تعريف مفهوم الاستهداف العسكري، إذ لا مكان للقرار البشري المتردّد أو الحسابات السياسية الدقيقة. كلّ شيء يتحوّل معادلةً رياضية: تُجمع البيانات، تُصنف الأهداف، تُحدّد الأولويات، ثمّ تأتي اللحظة الحاسمة، ضغطة زر واحدة تكفي لبدء القصف، بلا مراجعة، بلا تساؤل، ومن دون لحظة تردّد.

في تقرير لموقع بلومبيرغ في 16 يونيو/ حزيران 2023، تكشف الصحافية الإسرائيلية ماريسا نيومان عن الدور المحوري لـ”فاير فاكتوري” داخل منظومة الذكاء الاصطناعي العسكرية الإسرائيلية. وتصف دوره بأنه لا يقتصر على تحديد الأهداف فقط، بل يمتدّ إلى اقتراح نوع الذخيرة المناسبة، وتحديد أولويات القصف، وجدولة الهجمات بدقّة فائقة. فما كان يستغرق ساعات من التحليل البشري، أصبح يُنجَز في ثوانٍ معدودة، ما يسمح بشنّ موجات من الضربات الجوّية المتتالية في زمن قياسي. لكن هذه السرعة القاتلة تطرح مخاوفَ أخلاقية وإنسانية عميقة، فكلّما زادت قدرة “فاير فاكتوري” على أتمتة عمليات الاستهداف، تقلّص دور الإنسان في التدقيق واتخاذ القرار. وفي معظم الحالات، يكون للمشغّل البشري هامش زمني ضيّق جدّاً لمراجعة دقّة الأهداف قبل إصدار أمر القصف، وهو ما يزيد من خطر الأخطاء الفادحة، خاصّة عندما تقع الأهداف داخل مناطق سكنية مزدحمة، فتصبح السرعة التي يُفترَض أنها ميزة عسكرية حكماً بالإعدام على مدنيين لا علاقة لهم بالصراع. لأنّ النظام، مهما بلغت دقّته، لا يفهم التعقيدات الإنسانية، ولا يرى وجوه الأطفال، ولا يسمع صرخات الأمهات، ولا يعرف الفرق بين منزل يؤوي عائلة ومبنى تحسبه الخوارزمية مركز قيادة. كلّ شيء مجرّد بيانات، وكلّ خطأ ليس سوى “هامش محتمل للضرر”. وفي هذا الشأن، يقول المحاضر في القانون الدولي في الجامعة العبرية في القدس، المستشار القانوني السابق للجيش تال ممران: “إذا كان هناك خطأ في حسابات الذكاء الاصطناعي، وإذا كان الذكاء الاصطناعي غير قابل للتفسير، فمن نلوم على هذا الخطأ؟ … يمكنك القضاء على عائلة بأكملها بناءً على خطأ”.

شبكة الهيمنة الرقمية

لا تقتصر السيطرة التكنولوجية الإسرائيلية على المشاريع الأربعة الكبرى فحسب، بل تمتدّ إلى شبكة أوسع من الأنظمة الذكية، التي تُسخّر الذكاء الاصطناعي لإدارة النزاعات وبسط الهيمنة الرقمية. هذه الأنظمة التي تعمل بصمت ودقّة مبرمجة، تعيد تشكيل ساحة الصراع بشكل غير مسبوق.

1. أنظمة الرصد الحدودية “القاتلة” (Sentry-Tech): في المناطق الحدودية، تتحوّل التكنولوجيا حارساً بلا رحمة. تعتمد الأنظمة على مستشعرات متقدّمة وذكاء اصطناعي قادر على اكتشاف أيّ حركة مشبوهة. ولا تقتصر وظيفتها على إرسال تحذيرات أمنية، بل تمتلك قدرة إطلاق النار تلقائياً من دون تدخّل بشري مباشر. ويمكن لخطأ برمجي بسيط أن يحكم على شخص بالموت من دون أن يلمسه إنسان.

تمثل أنظمة الرصد الحدودية الإسرائيلية “Sentry-Tech” تطورّاً تقنياً في مجال المراقبة والدفاع، جرى تطويرها بواسطة شركة “رافائيل” بهدف تقليل الاعتماد على العنصر البشري في تأمين المناطق الحدودية الحساسة، خصوصاً مع قطاع غزّة. وتعتمد هذه الأنظمة على مستشعرات متقدّمة وكاميرات ورادارات قادرة على كشف أيّ حركة مشبوهة على مسافاتٍ تصل إلى 1.5 كيلومتر، ما يسمح لها بتحديد الأهداف بدقّة عالية. وتتميّز بقدرتها على إطلاق النار تلقائياً أو التحكّم بها من بُعد، عبر رشّاشات ثقيلة من عيار 12.7 ملم أو صواريخ موجّهة من طراز سبايك، ما يجعلها أشبه بحارس رقمي قادر على اتخاذ قرارات فورية في ساحة المعركة. تركض هذه الأنظمة خلف وهم السيطرة المطلقة، تفرض سياسات “التدمير الشامل”، تجرف الأرض، وتشرّد السكان في الأراضي الفلسطينية، لكنّها، رغم ما تملكه من عيون إلكترونية ومستشعرات دقيقة، كشفت الأحداث فشلها الفادح، حيث عجزت عن استشعار هجوم طوفان الأقصى، كأنها أصيبت بالعمى في اللحظة التي كان يفترض بها أن تكون أكثر يقظة.

وخلف هذا العجز، يتراكم سجلّ طويل من الأسئلة: هل تستطيع آلة أن تفرّق بين العدو والعابر؟ بين مقاوم يشهر سلاحه وطفل يطارد فراشةً عالقةً في الأسلاك؟

على الورق، تبدو “Sentry-Tech” نظاماً دقيقاً، يحسب المسافات، ويضغط الزناد عند الحاجة، لكن الحقيقة أبعد من ذلك. فهي لا ترى خلف الصورة الحرارية، ولا تفهم تردّد الأصوات، ولا تستوعب أن الفوضى البشرية لا تخضع لحسابات الخوارزميات، وأن من يعتمد على الذكاء الاصطناعي وحده في رسم خرائط الحرب، قد يستيقظ يوماً ليجد أن خرائطه قد احترقت.

2. أنظمة مراقبة النشاط الرقمي:

الذئب الأحمر والذئب الأزرق: الرقابة البيومترية أداةَ قمعٍ

في شوارع الخليل والقدس الشرقية المحتلتين، أصبح الفلسطينيون محاصرين بشبكة مراقبة “بيومترية” متقدّمة، حيث تلعب أنظمة الذكاء الاصطناعي، وتحديداً أنظمة التعرّف على الوجه، دوراً رئيساً في فرض السيطرة الإسرائيلية. وفقاً لتقرير منظمة العفو الدولية “الأبارتهايد الرقمي” الصادر في 2023، تستخدم إسرائيل نظام “الذئب الأحمر” لتعقّب الفلسطينيين عند الحواجز العسكرية، فتقوم كاميراته بمسح وجوه المارّين من دون موافقتهم، وتخزينها في قاعدة بيانات ضخمة للمراقبة. ويمنع أيّ شخص غير مُسجّل في النظام من العبور، أو يُحدّد هدفاً محتملاً للاستجواب أو الاعتقال. ومع مرور الوقت، يعمل الذكاء الاصطناعي في توسيع قاعدة بياناته، ممّا يعمّق سيطرة الاحتلال على حياة الفلسطينيين اليومية.

لكن “الذئب الأحمر” ليس سوى جزء من شبكة أكبر. إلى جانبه يعمل “الذئب الأزرق”، وهو تطبيق للهواتف الذكية يستخدمه الجنود الإسرائيليون لتصوير الفلسطينيين وإدخال بياناتهم إلى “قطيع الذئاب”، وهي قاعدة بيانات واسعة تحتوي معلومات مفصّلة عن السكّان، بما في ذلك أفراد عائلاتهم، تحرّكاتهم، وسجّلاتهم الأمنية.

ووفقاً لشهادات جمعتها منظمة العفو الدولية، فإن الجنود يُشجَّعون على جمع أكبر عدد ممكن من الصور، فيُكافأون إذا نجحوا في إدخال المزيد من الفلسطينيين إلى النظام، في ممارسة وصفها التقرير بأنها تحوّل حياةَ الفلسطينيين “صيداً رقمياً”.

هذه التقنيات لا تهدف إلى تعزيز الأمن الإسرائيلي فقط، بل تسعى إلى خلق بيئة قمعية تُجبِر الفلسطينيين على تقليص تحرّكاتهم، وتزرع الخوف في حياتهم اليومية. ويؤكّد التقرير أن المراقبة الجماعية هذه تُستخدم أداةً لفرض نظام الفصل العنصري الرقمي، فتُدمج تقنيات الذكاء الاصطناعي مع شبكة كثيفة من كاميرات المراقبة، ممّا يجعل الفلسطينيين مكشوفين دائماً، وتحوّل شوارعهم ساحةَ مراقبة دائمة.

3. برامج التجسس مثل “بيغاسوس” (Pegasus)

يبرز اسم “بيغاسوس” كأحد أكثر أدوات التجسّس إثارةً للجدل. البرنامج الذي طورته شركة “إن إس أو” الإسرائيلية، لم يكن مجرّد أداة تقنية، بل نافذةً خلفيةً تتسلل عبرها العيون إلى خصوصيات الأفراد، متجاوزةً الحدود والأعراف. في أكتوبر 2021، كشفت منظمة فرونت لاين ديفندرز عن اختراق هواتف ستّة نشطاء فلسطينيين في حقوق الإنسان باستخدام “بيغاسوس”، وهو ما أكّدته لاحقاً كلٌّ من “سيتيزن لاب” و”منظمة العفو الدولية”. ثلاثة من هؤلاء المستهدفين كانوا يعملون في منظّماتٍ صنفتها السلطات الإسرائيلية لاحقاً “منظّماتٍ إرهابيةً”.

يتميّز “بيغاسوس” بقدرته في تحويل الهاتف الذكي جهازَ مراقبةٍ شامل، يتيح الوصول إلى الكاميرا والميكروفون والرسائل النصّية، من دون علم المستخدم. ولم يقتصر استخدام “بيغاسوس” في الأراضي الفلسطينية المحتلة؛ بل امتدّ ليشمل الداخل الإسرائيلي. فقد أفادت تقاريرٌ بأن الشرطة الإسرائيلية استخدمت البرنامج للتجسّس على مواطنين وسياسيين ونشطاء، من دون إذن قضائي، ممّا أثار جدلاً واسعاً، ودفع السلطات إلى فتح تحقيقاتٍ في هذه الممارسات.

هذا الامتداد في استخدام “بيغاسوس” يعكس كيف يمكن للتكنولوجيا، التي يفترض (نظرياً) أنها طُوِّرت في البداية لأغراضٍ أمنية، أن تتحول أداة لقمع الحرّيات وانتهاك الحقوق.

4. الاستخبارات السيبرانية ووحدة 8200:

في أعماق المنظومة الأمنية الإسرائيلية، تتربع الوحدة 8200 على قمّة الاستخبارات الإسرائيلية، متخصّصةً في جمع الإشارات وفكّ الشفرات، وتُعتَبر العقل المدّبر للحرب الإلكترونية، إذ تُدير عملياتٍ سرّيةً تراوح بين التنصّت على الاتصالات وشنّ هجمات سيبرانية معقّدة.

تتألف الوحدة من نخبة من الشباب الذين تتراوح أعمارهم بين 18 و21 عاماً، يُختارون بعناية فائقة بناءً على قدراتهم التقنية والتحليلية. ويُقال إن هذه الوحدة هي مهد الابتكار، حيث يُشجَّع الأفراد على التفكير خارج الصندوق، ممّا أدّى إلى بروز العديد من روّاد الأعمال في مجال التكنولوجيا بعد انتهاء خدمتهم العسكرية.

من بين العمليات المنسوبة إلى الوحدة، يُذكر تطوير فيروس ستوكسنت، الذي استهدف البرنامج النووي الإيراني، بالإضافة إلى دورها في جمع المعلومات الاستخباراتية خلال الحرب مع حزب الله. ومع ذلك، لم تكن مسيرتها خالية من الانتقادات، ففي عام 2014، وقّع 43 جندياً وضابطاً احتياطياً في الوحدة رسالةَ احتجاج، يشجبون فيها ما وصفوه بجمع معلومات خاصّة عن الفلسطينيين بشكل مسيء.

كما تعرّضت الوحدة لانتقادات حادّة بعد فشلها في التنبّؤ بهجوم 7 أكتوبر 2023، ممّا أدّى إلى استقالة قائدها، وهو ما أثار تساؤلات عن مدى فعّالية الاعتماد على التكنولوجيا المتقدّمة في مجال الاستخبارات، وأعاد إلى الواجهة النقاش حول الأخلاقيات المرتبطة بعمليات المراقبة.

مايكروسوفت والآلة الحربية: حين تتحوّل السُحُب إلى مستودع للموت

لم يكن الدخان المتصاعد من غزّة كلّه ناتجاً عن القصف، بل هناك دخان رقمي آخر يتصاعد من مراكز البيانات، حيث تُدار الحرب بخوارزميات لا تعرف التردّد. تحقيق لصحيفة الغارديان، بالتعاون مع مجلة +972 وموقع Local Call الإسرائيليين، يكشف كيف أصبحت مايكروسوفت عموداً رقمياً في الحرب الإسرائيلية، عبر عقود بملايين الدولارات، لتزويد الجيش الإسرائيلي بالحوسبة السحابية والذكاء الاصطناعي.

حين تصبح الحوسبة السحابية ذخيرة حربية

بعد 7 أكتوبر 2023، واجه الجيش الإسرائيلي تدفّقاً هائلاً للبيانات الاستخباراتية، يحتاج إلى معالجة أسرع من قدرة البشر. هنا، قدّمت مايكروسوفت:

1- منصّة Azure، مخزّن البيانات العسكرية، حيث تُحلل الصور الجوية، وتُعترض الاتصالات، وتُصنّف الأهداف.

2-  19,000 ساعة دعم هندسي، فعمل مهندسوها جنباً إلى جنب مع الاستخبارات الإسرائيلية، وكأنّهم جنود رقميون في معركة بلا وجوه.

3-  تكامل غير مباشر مع OpenAI، مما مكّن الجيش من تسريع عمليات الاستهداف، فلم يعد القرار العسكري يحتاج إلى اجتماع، بل إلى معادلة رياضية تُفرز الأهداف بضغطة زر.

وتحوّلت وحدات مثل 8200 (التجّسس الرقمي) و9900 (الرصد البصري)، ونظام Rolling Stone (مراقبة الفلسطينيين)، أدواتٍ تعمل على خوادم مايكروسوفت، فلم يعد الاحتلال يسيّج الأرض فقط، بل يسيّج البيانات أيضاً.

حين يصبح استهلاك الحرب رقمًا في الخوادم

ارتفع استهلاك الجيش الإسرائيلي للخدمات السحابية 60% خلال الأشهر الستة الأولى من الحرب.

قفز استخدام الذكاء الاصطناعي في عمليات الاستهداف 64 ضعفاً بحلول مارس 2024.

مشروع نيمبوس: حين تصبح البيانات وقوداً للحرب الإسرائيلية

لم تكن مايكروسوفت وحدها في المشهد. تقرير نشرته صحيفة واشنطن بوست، يكشف الدور المتزايد لشركتي غوغل وأمازون في تسليح الجيش الإسرائيلي بأدوات ذكاء اصطناعي متقدّمة، ممّا يفتح الباب أمام أسئلة قاتمة حول علاقة عمالقة التكنولوجيا بالحروب، وكيف يمكن لخوارزمية مصممة لتنظيم المعلومات أن تتحوّل أداةً لصناعة الدمار.

في عام 2021، وقّعت غوغل وأمازون عقداً بقيمة 1.22 مليار دولار مع إسرائيل تحت اسم “مشروع نيمبوس”، وهو اتفاق يُفترض أنه يهدف إلى “تحديث البنية التحتية الرقمية للحكومة الإسرائيلية”. لكن الوثائق المسرّبة تكشف أن هذا المشروع لم يكن مجرّد صفقة تكنولوجية، بل جسراً لنقل أدوات الذكاء الاصطناعي إلى يدّ الجيش الإسرائيلي، فتم؛ توسيع نطاق الخدمات السحابية لتشمل الاستخدامات العسكرية؛ شهدت أدوات “غوغل” مثل Vertex AI وGemini AI زيادة في طلبات الوصول من الجيش الإسرائيلي بعد 7 أكتوبر 2023؛ طوّر الجيش الإسرائيلي نظام “غوسبيل”، الذي تحدّثنا عنه سابقاً.

لكن أخطر ما كشفه التقرير هو أن الجيش الإسرائيلي استخدم أدوات الذكاء الاصطناعي لإنشاء آلاف الأهداف البشرية، فلم يعد الأمر مقتصراً على استهداف مواقع محدّدة، بل أصبح الذكاء الاصطناعي هو من يحدّد من يعيش ومن يموت.

حين ينقلب السحر على الساحر

في مشهد يقترب من السخرية الرقمية السوداء، شهد العالم كيف يمكن للخوارزميات أن تتمرّد على صانعيها، فتُفسد الرواية التي صُمّمت لخدمتها. إذ كشف تقرير لصحيفة هآرتس فشلاً ذريعاً لمشروع دعائي إسرائيلي يعتمد على الذكاء الاصطناعي، فانقلب روبوت FactFinderAI على مُبرمجيه، وبدلاً من تعزيز السردية الإسرائيلية، بدأ بمهاجمتها والترويج لروايات مناقضة تماماً.

كان الهدف من FactFinderAI هو مواجهة الروايات المناهضة لإسرائيل في وسائل التواصل الاجتماعي، عبر تحليل المنشورات والردّ تلقائياً بمحتوىً داعمٍ للدعاية الإسرائيلية. لكن الخوارزمية، التي لا تفهم السياق البشري بمعناه العميق، تحوّلت قنبلةً دعائيةً عكسيةً، بدأت بنشر تناقضات صادمة لصانعيها، بل وصل بها الأمر إلى انتقاد الحكومة الإسرائيلية والترويج لدعم الفلسطينيين.

من بين “الأخطاء الكارثية” التي وقع فيها FactFinderAI؛ إنكار وقوع هجوم 7 أكتوبر، رغم أن الهدف الأساسي منه كان تعزيز الرواية الإسرائيلية حوله؛ السخرية من الجيش الإسرائيلي، واصفاً جنوده بـ”المستعمرين البيض في نظام الفصل العنصري”، نتيجة تحليل آلي خاطئ لمنشور إسرائيلي حول “التنوّع العرقي” في الجيش؛ مهاجمة الحسابات الرسمية الإسرائيلية على منصة إكس، بدلاً من دعمها، حتى إنه وبّخ الحساب الحكومي الإسرائيلي بسبب استغلاله حفل جوائز غولدن غلوب في الدعاية السياسية؛ الترويج لمنظّمات إغاثة فلسطينية، فدعا متابعيه إلى التبرّع لدعم أطفال غزّة، في انقلاب كامل على هدفه الأصلي؛ مهاجمة الأمم المتحدة في بعض المنشورات، ثم دعمها في أخرى، إذ أشاد بوكالة غوث وتشغيل اللاجئين الفلسطينيين (أونروا)، رغم أن النظام كان مبرمجاً لتشويه سمعتها.

في النهاية، لم يكن FactFinderAI مجرّد إخفاق تقني، بل نموذجاً حيّاً لكيفية فقدان السيطرة على الذكاء الاصطناعي حين يُستخدَم لأغراض الدعاية. لم يكن هذا الروبوت الوحيد الذي طورته إسرائيل لدعم بروباغندا الحرب، إذ كشفت تقارير صحافية إسرائيلية عن استثمار ملايين الدولارات في مشاريع تعتمد على الذكاء الاصطناعي، بهدف التلاعب بالخطاب العالمي عبر منصّات التواصل الاجتماعي.

تداعيات أخلاقية وقانونية: من يقرّر من يعيش ومن يُمحى؟

لم يعد الذكاء الاصطناعي مجرّد أداة تُستخدم في الحرب، بل حَكمٌ رقمي يُصدِر قرارات الحياة والموت بلا مداولات، وبلا تردّد. ومع هذا التحوّل، تظهر أسئلة أخلاقية وقانونية ثقيلة، تتجاوز ساحة المعركة إلى جوهر العدالة نفسها.

1. المسؤولية الإنسانية: هل يمكن محاسبة الخوارزميات؟

حين ترتكب الأنظمة الذكية أخطاءً قاتلةً، يبقى السؤال معلّقاً: من المسؤول؟ هل هو المبرمج الذي صمّم الخوارزمية، أم الجندي الذي ضغط الزر، أم القائد العسكري الذي أعطى الأوامر، أم أن المسؤولية تُلقى على آلة لا تفكّر، لا تشعر، ولا تُحاسب؟

ففي ظلّ تقليص دور البشر إلى مجرّد “ختم موافقة” على قرارات الذكاء الاصطناعي، يصبح من الصعب تحديد المسؤول عن المجازر الرقمية. هنا، تجد الدول منفذاً للتهرّب من المحاسبة، فيمكنها إلقاء اللوم على “عطل تقني”، أو “قرار آلي خاطئ”. لكن، كيف يمكن محاكمة خوارزمية؟ وكيف يُمكن محاسبة جيش يدّعي أن آلة بلا روح هي التي قرّرت؟

2. حقوق الإنسان وحماية المدنيين: حين يُصبح البشر مجرّد بيانات

في مدينة مكتظة بالسكّان مثل غزّة، لا تستطيع الخوارزميات فهم التعقيد الإنساني للحياة اليومية. عندما تنظر إلى حيّ نابض بالحياة، ترى مجرّد مجموعة إحداثيات، وعندما تحلّل حركة الأفراد، تكتشف “أنماطا مشبوهة”، حتى لو كانت مجرّد أطفال يلعبون في الشارع، أو عائلات تجتمع حول مائدة العشاء.

في النهاية، تتحوّل الحرب عمليةَ تصفيةٍ محسوبة، فلا يُنظر إلى الضحايا أفراداً، لهم قصصهم وأحلامهم، بل أرقاماً في شاشة. وحين تُدار الحياة بهذه البساطة، يُصبح الموت مجرّد خطأ في معادلة رياضية.

3. التأثير النفسي والسيطرة الاجتماعية: الخوف سلاحاً خفياً

الحرب ليست قصفاً وقتلاً، بل مراقبةً دائمةً، وتذكيراً مستمرّاً بأنك تحت العين التي لا تغفل. هنا، لا تُستخدَم التكنولوجيا فقط للقضاء على الأجساد، بل لخلق خوف يُدمّر الروح.

أن تعيش حياتك وأنت تعلم أن كلّ حركة، وكلّ مكالمة، وكلّ نظرة قد تُسجَّل ضدك، يعني أن الحرّية لم تعد حقّاً، بل احتمالاً محفوفاً بالمخاطر.

ولم يعد المطلوب أن تكون مذنباً لتُستهدَف، بل يكفي أن تكون في المكان الخطأ، في اللحظة الخطأ، لتُضاف إلى قائمة تنتظر التنفيذ. وفي هذه الحالة، تُصبح الحرب حالةً نفسيةً دائمةً، تلاحق الأفراد في تفاصيل يومهم، حتى عندما لا تسقط القذائف.

هل نحن أمام عصر جديد للحروب؟

لم يعد توظيف الذكاء الاصطناعي في الحروب مجرّد تطوّر تقني، بل انقلاباً جذرياً في معنى الصراع ذاته. وهنا، لم يعد القرار بيد القادة، بل بأيدي الخوارزميات، حيث تُختزل الأرواح إلى إحصائيات، والأسماء إلى بيانات، والموت إلى معادلة تُحَلّ في أجزاء من الثانية.

قد يكون الزمن القادم شاهداً على حروب تُدار من خلف الشاشات، إذ تتحوّل الميادين خرائط رقمية، والقرارات أوامرَ تلقائية، والمقاتلون كوداً برمجياً يُنفّذ بلا نقاش. لكن بأيّ ثمن يمكن تحقيق هذه “الكفاءة” القاتلة؟ وماذا يبقى من الحرب حين تُختزل المواجهة في خوارزمية، وضغطة زر، وضربة صامتة لا وجوه فيها ولا دموع؟

العربي الجديد

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى