15 فيفري 2026 في 11:18 ص
news.tn
أخبار.تن - شعار الموقع
عاجل

البنتاغون يستخدم نموذج كلود للذكاء الاصطناعي في عملية اختطاف مادورو بفنزويلا

Admin User
نُشر في: 15 فيفري 2026 في 08:00 ص
5 مشاهدة
3 min دقائق قراءة
المصدر: The Guardian
0 إعجاب
0 حفظ
0 مشاركة
مشاركة على:

جاري التحميل...

البنتاغون يستخدم نموذج كلود للذكاء الاصطناعي في عملية اختطاف مادورو بفنزويلا

البنتاغون يستخدم نموذج كلود للذكاء الاصطناعي في عملية اختطاف مادورو بفنزويلا

كشفت صحيفة وول ستريت جورنال يوم السبت أن نموذج الذكاء الاصطناعي كلود، الذي طورته شركة أنثروبيك، استخدمه الجيش الأمريكي خلال عمليته لاختطاف نيكولاس مادورو من فنزويلا، وهو مثال بارز على كيفية استخدام وزارة الدفاع الأمريكية للذكاء الاصطناعي في عملياتها.

تضمنت الغارة الأمريكية على فنزويلا قصفًا في جميع أنحاء العاصمة كاراكاس، ومقتل 83 شخصًا، وفقًا لوزارة الدفاع الفنزويلية. تحظر شروط استخدام أنثروبيك استخدام كلود لأغراض عنيفة، أو لتطوير الأسلحة، أو لإجراء المراقبة.

كانت أنثروبيك أول مطور للذكاء الاصطناعي يُعرف استخدامه في عملية سرية من قبل وزارة الدفاع الأمريكية. لم يتضح كيف تم نشر الأداة، التي تتراوح قدراتها من معالجة ملفات PDF إلى قيادة الطائرات بدون طيار المستقلة.

رفض متحدث باسم أنثروبيك التعليق على ما إذا كان كلود قد استخدم في العملية، لكنه قال إن أي استخدام لأداة الذكاء الاصطناعي يتطلب الامتثال لسياسات الاستخدام الخاصة بها. ولم تعلق وزارة الدفاع الأمريكية على هذه المزاعم.

استشهدت صحيفة وول ستريت جورنال بمصادر مجهولة قالت إن كلود استخدم من خلال شراكة أنثروبيك مع شركة بالانتير تكنولوجيز، وهي مقاول لوزارة الدفاع الأمريكية ووكالات إنفاذ القانون الفيدرالية. ورفضت بالانتير التعليق على هذه المزاعم.

تنشر الولايات المتحدة وجيوش أخرى الذكاء الاصطناعي بشكل متزايد كجزء من ترساناتها. استخدم الجيش الإسرائيلي طائرات بدون طيار ذات قدرات مستقلة في غزة واستخدم الذكاء الاصطناعي على نطاق واسع لملء بنك الأهداف الخاص به في غزة. وقد استخدم الجيش الأمريكي استهداف الذكاء الاصطناعي في ضربات بالعراق وسوريا في السنوات الأخيرة.

حذر النقاد من استخدام الذكاء الاصطناعي في تقنيات الأسلحة ونشر أنظمة الأسلحة المستقلة، مشيرين إلى أخطاء الاستهداف التي تحدثها أجهزة الكمبيوتر التي تحدد من يجب قتله ومن لا يجب قتله. تثير هذه المخاوف تساؤلات جدية حول الأخلاقيات والمسؤولية في ساحة المعركة الحديثة، حيث يمكن أن تؤدي الأخطاء الحسابية إلى عواقب وخيمة على المدنيين.

تصارعت شركات الذكاء الاصطناعي مع كيفية تعامل تقنياتها مع قطاع الدفاع، حيث دعا الرئيس التنفيذي لشركة أنثروبيك، داريو أمودي، إلى تنظيم لمنع الأضرار الناجمة عن نشر الذكاء الاصطناعي. كما أعرب أمودي عن حذره من استخدام الذكاء الاصطناعي في العمليات القاتلة المستقلة والمراقبة في الولايات المتحدة. يعكس هذا التوتر بين الابتكار التكنولوجي والاعتبارات الأخلاقية تحديًا كبيرًا يواجه صناعة الذكاء الاصطناعي والمؤسسات العسكرية على حد سواء.

يبدو أن هذا الموقف الأكثر حذرًا قد أثار استياء وزارة الدفاع الأمريكية، حيث قال وزير الحرب، بيت هيغسيث، في يناير إن الوزارة لن "توظف نماذج ذكاء اصطناعي لا تسمح لك بخوض الحروب". يشير هذا التصريح إلى رغبة البنتاغون في استخدام الذكاء الاصطناعي دون قيود قد تعيق قدراته القتالية، مما يضع ضغطًا على شركات التكنولوجيا لتكييف منتجاتها مع المتطلبات العسكرية.

أعلن البنتاغون في يناير أنه سيعمل مع شركة xAI، المملوكة لإيلون ماسك، في إشارة إلى سعيه لتوسيع نطاق شركائه في مجال الذكاء الاصطناعي. كما تستخدم وزارة الدفاع نسخة مخصصة من أنظمة جوجل جيميني وOpenAI لدعم الأبحاث، مما يؤكد التزامها بدمج أحدث التطورات في الذكاء الاصطناعي ضمن استراتيجياتها الدفاعية والعسكرية.

التصنيفات:

طبيعة الخبر: محايد
هذا الخبر يقدم معلومات محايدة

الكلمات المفتاحية(2)

التعليقات

News.tn يقدم مجموعة من الأخبار المستقاة من مجموعة واسعة من المصادر الإخبارية غير العربية. يجب التنويه أن المحتوى المقدم لا يعكس بالضرورة معتقداتنا وأفكارنا كمالكي الموقع. ما هو تقييمك للمعلومات المقدمة في المقال؟

مقالات ذات صلة