الذكاء الاصطناعي يدخل ساحة الحرب.. 900 ضربة في 12 ساعة

دخلت الحروب الحديثة منعطفًا غير مسبوق مع توظيف الجيش الأمريكي تقنيات ذكاء اصطناعي متقدمة في إدارة وتوجيه ضرباته العسكرية ضد إيران، في تطور اعتبره خبراء تحولًا جذريًا قد يعيد تشكيل دور الإنسان في اتخاذ القرار العسكري، وفقًا لما أوردته صحيفة ذا جارديان البريطانية.

تسريع غير مسبوق في التخطيط والتنفيذ
كشفت الصحيفة أن الجيش الأمريكي استخدم نموذج “كلود” للذكاء الاصطناعي، الذي تطوره شركة أنثروبيك، ضمن حملة ضربات واسعة النطاق استهدفت مواقع إيرانية، وبحسب التقرير، نُفذت نحو 900 ضربة خلال الاثنتي عشرة ساعة الأولى فقط، في وتيرة وحجم غير مسبوقين مقارنة بالحروب التقليدية. وكانت إسرائيل قد اعتمدت سابقًا على تقنيات مشابهة لتحديد أهداف في قطاع غزة، وأوضح كريج جونز، المحاضر في الجغرافيا السياسية بجامعة نيوكاسل، أن هذه الأنظمة تقلّص بشكل كبير المدة الزمنية الفاصلة بين رصد الهدف وتحليله والحصول على الموافقات القانونية اللازمة ثم تنفيذ الضربة، مشيرًا إلى أن ما كان يستغرق أيامًا أو أسابيع بات يُنجز خلال لحظات بفضل التوصيات السريعة التي تولدها الخوارزميات.

منظومة متكاملة بالشراكة مع البنتاجون
وطورت شركة بالانتير، بالتعاون مع وزارة الدفاع الأمريكية (البنتاجون)، منظومة تدمج نموذج “كلود” لتعزيز القدرات الاستخباراتية وتسريع عملية اتخاذ القرار، وبدأ نشر هذه التقنية منذ عام 2024 عبر المؤسسات الدفاعية والأمنية الأمريكية، بهدف تسريع التخطيط الحربي وتحليل البيانات الضخمة، بما يشمل لقطات الطائرات المسيّرة واعتراضات الاتصالات والمعلومات الاستخبارية البشرية، ويعتمد النظام على خوارزميات تعلم آلي لتحديد الأهداف وترتيبها حسب الأولوية، مع اقتراح نوع السلاح الأنسب لكل هدف استنادًا إلى البيانات المتاحة وفعالية الأسلحة في حالات مشابهة، إضافة إلى تقييم الجوانب القانونية لكل ضربة قبل تنفيذها.

مخاوف من “ضغط القرار” وتهميش الإنسان
في المقابل، حذر أكاديميون من ظاهرة أطلقوا عليها “ضغط القرار”، حيث يُقلّص الذكاء الاصطناعي الزمن المتاح لاتخاذ قرارات عسكرية حاسمة إلى ثوانٍ أو دقائق معدودة، ويرى منتقدون أن هذا التسارع قد يحول المسؤولين العسكريين والقانونيين إلى جهة تصادق على توصيات الخوارزميات دون مراجعة متعمقة، وأشار ديفيد ليزلي، أستاذ الأخلاقيات والتكنولوجيا والمجتمع بجامعة كوين ماري في لندن، إلى خطر ما سماه “الانفصال المعرفي”، موضحًا أن صناع القرار قد يشعرون بابتعاد نفسي عن تبعات قراراتهم، لأن التحليل المعقد تم بواسطة النظام الآلي، ما قد يضعف الإحساس بالمسؤولية الأخلاقية.
اقرأ أيضًا:
ترامب يوقف تعامل الوكالات الفيدرالية مع “أنثروبيك” ويمنحها مهلة 6 أشهر
تنافس الشركات وتوسع الاستخدام العسكري
وفي سياق متصل، ذكرت الصحيفة أن الإدارة الأمريكية أعلنت قبل الضربات نيتها استبعاد شركة أنثروبيك من بعض أنظمتها، بعد رفضها السماح باستخدام تقنيتها في أسلحة مستقلة بالكامل أو في أنظمة مراقبة داخلية، إلا أن النموذج لا يزال مستخدمًا إلى حين سحبه تدريجيًا، بالتوازي، سارعت شركة أوبن إيه آي إلى توقيع اتفاقية مع البنتاجون لاستخدام نماذجها في سياقات عسكرية، وأشارت برينانا جوشي، الباحثة في المعهد الملكي للخدمات المتحدة، إلى أن الذكاء الاصطناعي بات يتوسع عبر مختلف المنظومات الدفاعية، من اللوجستيات والتدريب إلى الصيانة وإدارة القرارات، مؤكدة أن هذه التقنيات تعزز الكفاءة من خلال تحليل البيانات بوتيرة أسرع، ما يمنح صناع القرار أدوات أكثر تطورًا وإن كان ذلك يفتح الباب أمام أسئلة أخلاقية وقانونية عميقة حول مستقبل الحرب ودور الإنسان فيها.





