مشروع مافن: كيف يغير الذكاء الاصطناعي مستقبل الحروب والصراعات العسكرية
جاري التحميل...

مشروع مافن: كيف يغير الذكاء الاصطناعي مستقبل الحروب والصراعات العسكرية
تونيا موسلي، المضيفة: هذا هو برنامج فريش إير. أنا تونيا موسلي. تتكشف أول حرب أمريكية مدعومة بالذكاء الاصطناعي الآن. على مدى الأسابيع الثلاثة الماضية، شنت الولايات المتحدة وإسرائيل ضربات ضد إيران، مستهدفة ألف هدف في أول 24 ساعة وحدها - ما يقرب من ضعف حجم حملة "الصدمة والرعب" عام 2003 في العراق. النظام الذي يساعد في تمكين الكثير من هذا يسمى نظام مافن الذكي (Maven Smart System)، ويعمل بداخله "كلود" (Claude) من شركة أنثروبيك (Anthropic)، وهو نموذج ذكاء اصطناعي يتفاعل معه ملايين الأشخاص يوميًا. في اليوم الأول من الحرب، أصاب صاروخ توماهوك أمريكي مدرسة ابتدائية للبنات في جنوب إيران، مما أسفر عن مقتل أكثر من 165 شخصًا، معظمهم من تلميذات المدارس. ووجد تحقيق عسكري أولي أن الضربة نتجت على الأرجح عن معلومات استخباراتية قديمة. وبينما لم يتم تأكيد دور الذكاء الاصطناعي، لا يزال البنتاغون يحقق فيما إذا كان مافن قد لعب أي دور. في قلب هذه القصة عقيد بحري غير معروف يدعى درو كوكر، الذي أمضى عقودًا في الكفاح لجلب الذكاء الاصطناعي إلى ساحة المعركة والذي غير هوسه بهدوء مستقبل الحرب. ضيفتي اليوم كانت تعد تقارير عن كوكر لسنوات وكيف وصلنا إلى هنا. كاترينا مانسون هي مراسلة بلومبرج الحائزة على جوائز وتغطي الأمن السيبراني والتكنولوجيا الناشئة والأمن القومي. كتابها الجديد هو "مشروع مافن: عقيد بحري وفريقه وفجر حرب الذكاء الاصطناعي". كاترينا مانسون، أهلاً بك في فريش إير.
كاترينا مانسون: شكرًا لاستضافتي.
موسلي: لقد كنتِ تعدين تقارير عن نظام مافن الذكي هذا منذ بضع سنوات، والآن تشاهدين استخدامه في حرب حقيقية. خذينا قليلاً إلى كيفية عمل نظام مافن الذكي فعليًا، وتحديداً ما هو دور كلود بداخله. كيف يعمل هذان الشيئان معًا؟
مانسون: إذا تخيلتِ النظر إلى شيء مثل خرائط جوجل إيرث، فستبدئين في تكوين فكرة عن الشاشة التي سينظر إليها مشغلو الجيش الأمريكي. وصف لي بعض الناس هذا بأنه "ويندوز للحرب" أو نظام تشغيل للحرب. إنه في الأساس خريطة رقمية. ما يجعل هذه الخريطة مميزة من وجهة نظر الجيش الأمريكي هو عدد تدفقات المعلومات الاستخباراتية التي تصل إليها. في إحدى الفعاليات العامة، تم توضيح أن هناك أكثر من 160 تدفقًا استخباراتيًا منفصلاً.
الآن، لمعالجة تلك البيانات، يستخدمون تحليلات البيانات الرقمية، لكنهم يستخدمون أيضًا بعض الأدوات الأخرى التي تعتمد على الذكاء الاصطناعي. هناك رؤية حاسوبية لتحليل بعض الكائنات التي تظهر على الخرائط والتي يمكن أن تكون أهدافًا محتملة، وأيضًا أماكن تواجد القوات الأمريكية. ثم يقوم كلود بشيء مختلف. هذا ليس رؤية حاسوبية. إنها أداة ذكاء اصطناعي تعتمد على نموذج لغوي كبير يمكنه معالجة البيانات. وما قيل لي من قبل هو أن كلود ونماذج اللغة الكبيرة (LLMs) داخل نظام مافن الذكي تساعد في تسريع العمليات. لذا، فإن أنواع العمليات التي تحتاجينها للحصول على موافقة على هدف، كل شيء باستثناء الموافقة النهائية يمكن أن يساعد كلود فيه، ويمكنه أيضًا المساعدة في تخطيط مسارات العمل، والمساعدة في مطابقة الأسلحة بالأهداف. يمكنه المساعدة في كل ما يحتاجه الجيش الأمريكي للقيام به عندما يتعلق الأمر باتخاذ قرار، باستثناء اتخاذ القرار الفعلي.
موسلي: في اليوم الأول من الحرب، أصاب هذا الصاروخ مدرسة البنات، وهناك بعض التقارير حول هذه الحالة تفيد بأن الولايات المتحدة كانت مسؤولة على الأرجح. لا يوجد ما يشير حتى الآن إلى أن الذكاء الاصطناعي لعب دورًا هنا، لكن الإحداثيات التي استخدموها كانت قديمة بأكثر من عقد من الزمان. ماذا تخبرنا هذه الحادثة المحددة عن بعض الثغرات في حفظ البيانات وما يمكن أن يكون تحديًا لنماذج الذكاء الاصطناعي مع استخدامها بشكل متكرر في الحرب؟
مانسون: يؤكد مؤيدو حرب الذكاء الاصطناعي لي بانتظام على مدى أهمية المساءلة. في كل حرب، هناك ضربات خاطئة. وما إذا كانت الولايات المتحدة مستعدة للتحقيق في الأمر ونشر ما حدث خطأ في هذه الحالة إذا كانت الولايات المتحدة مسؤولة، سيكون اختبارًا حقيقيًا لتلك الادعاءات بالمساءلة. من المفترض أن يجعل الذكاء الاصطناعي الحرب أكثر قابلية للتدقيق. الآن، ما إذا كانت هذه حالة كانت فيها المدرسة على قائمة أهداف سابقة للذكاء الاصطناعي ولم يتم تحديثها، وما إذا كان الذكاء الاصطناعي قد استمد من قائمة الأهداف تلك، كل هذا سيكون من المهم الكشف عنه. أي نظام، وخاصة الذي يستخدم الذكاء الاصطناعي، لن يكون جيدًا إلا بقدر جودة البيانات التي تغذيه. وإذا كانوا يعتمدون على قاعدة بيانات قديمة، فإن الذكاء الاصطناعي، إذا تم إعداده بهذه الطريقة، لا يمكنه فعل أي شيء حيال ذلك. وفي مناسبات عديدة، وجدت أمثلة على بيانات ضعيفة أو خاطئة بشكل صارخ تم تغذية الأنظمة بها.
