أثارت العملية العسكرية الأخيرة في إيران، المعروفة باسم “الغضب الملحمي”، جدلاً حول تأثير الذكاء الاصطناعي في النزاعات المسلحة، بعد أن أسفرت عن مقتل 110 أطفال وعشرات المدنيين نتيجة قصف أسفر عن تدمير مدرسة ابتدائية في “ميناب”. وقد أثيرت تساؤلات حول مدى الاعتماد على الأنظمة الآلية في اتخاذ قرارات حاسمة، وفقاً لصحيفة «التايمز».
ضربات مكثفة
في الساعات الأولى للعملية، نفذت القوات الأميركية ضربات على أكثر من ألف هدف باستخدام أنظمة ذكاء اصطناعي متطورة، بمعدل تجاوز 42 هدفاً في الساعة. هذا الأمر أثار تساؤلات بين الخبراء حول ما إذا كان هناك تحكم كامل للآلات في مجريات الحرب، وهو ما يتجاوز قدرة العقل البشري على الاستجابة بشكل مماثل.
الإفادات حول الضربة
تشير الأدلة إلى أن الضربة التي استهدفت مدرسة “شجرة طيبة” الابتدائية، والتي كانت جزءاً من مجمع تابع للحرس الثوري الإيراني، أدت إلى سقوط عدد كبير من الضحايا، على الرغم من أن المدرسة كانت محاطة بسور يفصلها عن المجمع منذ تسع سنوات. وتظهر الصور الفضائية جداريات ملونة وساحة لعب، مما يثير الشكوك حول استخدام الأنظمة الآلية لبيانات قديمة في تحديد الأهداف.
آراء الخبراء
أكدت نواه سيلفيا، محللة أبحاث في معهد الخدمات المتحدة الملكي، أن هناك تساؤلات حول طبيعة الخطأ المسبب في قصف المدرسة. هل كان نتيجة لخطأ بشري أم نتيجة السرعة الفائقة للأنظمة التشغيلية الآلية؟ تساءلت عن إمكانية الاعتماد على بيانات قديمة أم أن الآلات نفذت الضربة بشكل تلقائي.
من جهته، أشار الدكتور كريغ جونز، محاضر في الجغرافيا السياسية بجامعة نيوكاسل، إلى أن الذكاء الاصطناعي قد أخفق في التعرف على المدرسة كمدرسة، واعتبرها هدفاً عسكرياً. وأوضح أن أي قرار بشري بشأن تنفيذ الضربة استند إلى معلومات تم جمعها بمساعدة الذكاء الاصطناعي.
تحقيقات البنتاغون
أكدت مصادر من البنتاغون أن التحقيقات مستمرة لتحديد ما إذا كانت المعلومات المقدمة عن المدرسة قديمة. في الوقت نفسه، ألمح الرئيس الأميركي دونالد ترامب إلى إمكانية تدخل إيران أو جهة أخرى، رغم أنه لم يقدم أدلة تدعم ذلك. ومع ذلك، تشير التحليلات إلى استخدام أسلحة أميركية في العملية.
أنظمة الذكاء الاصطناعي
تستخدم الولايات المتحدة وإسرائيل العديد من أنظمة الذكاء الاصطناعي في عملياتها العسكرية ضد إيران، من أبرزها مشروع “مافن”، الذي تم تطويره منذ 2018 بالتعاون مع شركة بالانتير لتحليل البيانات، وهو مدمج في جميع قيادات القوات الأميركية.
الأبعاد الأخلاقية
يرى الخبراء أن استخدام الذكاء الاصطناعي يشبه “نسخة عسكرية من أوبر”، حيث يسهم في توجيه الضربات والمراقبة، لكن القرار النهائي يبقى بيد البشر. ومع ذلك، فإن سرعة اقتراح آلاف الأهداف يومياً تثير مخاطر كبيرة، بما في ذلك ما يعرف بـ”تحيز الأتمتة” و”التحيز نحو التنفيذ”، ما قد يجعل قرار الآلة يتجاوز قدرات البشر على التقييم الأخلاقي والقانوني.
مخاوف مستقبلية
أعربت إلكه شوارتز، أستاذة النظرية السياسية بجامعة كوين ماري بلندن، عن قلقها من أن المستقبل قد يشهد توسيع مهام الذكاء الاصطناعي لتحديد الأهداف والسلوكيات المشبوهة بشكل مسبق. وهو ما قد يؤدي إلى تنفيذ ضربات استباقية، مما يجعل الذكاء الاصطناعي عاملاً متزايداً في اتخاذ قرارات استخدام القوة وبدء الصراعات، وهو أمر يثير المخاوف بشكل كبير.


