الذكاء الاصطناعي يقلب ميزان المعارك في غـ ـزة

الذكاء الاصطناعي يقلب ميزان المعارك في غـ ـزة
أشارت صحيفة “نيويورك تايمز” الأميركية أن إسرائيل لجأت إلى اختبار واسع النطاق لتقنيات الذكاء الاصطناعي المتطورة في قطاع غزة خلال الحرب التي اندلعت أواخر عام 2023
ما أثار جدلًا أخلاقيًا عالميًا حيال الاستخدام غير المسبوق لهذه التكنولوجيا في العمليات العسكرية.
ولفت تحقيق موسّع أعدّته الصحيفة إلى أن تقنيات الذكاء الاصطناعي شملت أنظمة لتحديد المواقع والتعرف على الوجوه، وتحليل المحتوى العربي، واستخدام أدوات غير مُجرّبة سابقًا في ساحات القتال.
وبحسب ثلاثة مسؤولين إسرائيليين وأميركيين مطلعين، بدأت التجربة بمحاولة اغتيال القيادي في “حماس” إبراهيم بياري، بعد فشل الاستخبارات الإسرائيلية في تعقبه داخل شبكة أنفاق غزة.
عندها، استخدمت أداة صوتية مدعومة بالذكاء الاصطناعي، طوّرها مهندسو الوحدة 8200، لتحديد موقعه التقريبي عبر تحليلات لمكالماته.
وذكرت الصحيفة على أن الابتكارات تم تطويرها في “الاستوديو”، وهو مركز مشترك بين الوحدة 8200 وجنود احتياط يعملون في شركات تقنية كبرى مثل “غوغل”، “مايكروسوفت”، و”ميتا”.
وعلى الرغم من التقدّم التقني، أثار الاستخدام الكثيف لهذه الأدوات مخاوف أخلاقية داخل إسرائيل وخارجها.
وقال ضباط إن بعض أدوات الذكاء الاصطناعي أخطأت في تحديد الأهداف، ما تسبّب باعتقالات خاطئة وسقوط مدنيين.
وحذّرت هاداس لوربر، المديرة السابقة في مجلس الأمن القومي الإسرائيلي، من أن غياب الضوابط قد يؤدي إلى عواقب وخيمة، رغم أنّ هذه التقنيات “غيّرت قواعد اللعبة”.
من أهم المشاريع كان تطوير نموذج لغوي ضخم لتحليل اللهجات العربية وفهم المزاج العام، واستخدم بعد اغتيال الأمين العام لـ”حزب الله” حسن نصرالله في أيلول 2024، لتقييم احتمالات الرد اللبناني من خلال تحليل التعابير المحلية.
لكن التكنولوجيا لم تكن في غاية الدقة، إذ أخفق الروبوت أحيانًا في فهم المصطلحات العامية، وقدم تفسيرات غير دقيقة مثل “أنابيب” بدلًا من “بنادق”. ومع ذلك، رأى الضباط أنها سريعة وفعالة مقارنة بالوسائل التقليدية.
“ميتا” و”مايكروسوفت” رفضتا التعليق، فيما أشارت “غوغل” أن موظفيها الذين يخدمون كجنود احتياط لا يؤدّون مهام مرتبطة بالشركة خلال الخدمة العسكرية.
من ناحيتها، امتنعت المتحدثة باسم الجيش الإسرائيلي عن التعليق على تفاصيل البرامج “نظراً لطبيعتها السرية”، مؤكدة التزام الجيش بالاستخدام “القانوني والمسؤول” للتكنولوجيا، مشيرة إلى تحقيق جارٍ في غارة اغتيال البياري.
خلاصة التحقيق أتت أن هذا ليس أول استخدام إسرائيلي لحقل المعركة كمختبر لتقنيات عسكرية، مشيرًا إلى تطوير القبة الحديدية والمسيّرات الهجومية في حروب سابقة.
لكن مسؤولين غربيين شددوا على أن حجم استخدام الذكاء الاصطناعي في حرب 2023 – 2024 غير مسبوق، وقد يتحوّل إلى نموذج لحروب المستقبل، وسط مخاوف من أن تؤدي الخوارزميات إلى أخطاء كارثية تضع المدنيين وشرعية العمليات على المحك.