2 مارس 2026 في 07:36 ص
news.tn
أخبار.تن - شعار الموقع
عاجل

صفقة OpenAI مع البنتاغون تثير الجدل وتساؤلات حول الضمانات الأمنية

Admin User
نُشر في: 2 مارس 2026 في 05:00 ص
6 مشاهدة
3 min دقائق قراءة
المصدر: TechCrunch
0 إعجاب
0 حفظ
0 مشاركة
مشاركة على:

جاري التحميل...

صفقة OpenAI مع البنتاغون تثير الجدل وتساؤلات حول الضمانات الأمنية

صفقة OpenAI مع البنتاغون تثير الجدل وتساؤلات حول الضمانات الأمنية

باعتراف الرئيس التنفيذي سام ألتمان نفسه، كانت صفقة OpenAI مع وزارة الدفاع "متسرعة بالتأكيد"، و"مظهرها لا يبدو جيدًا".

بعد فشل المفاوضات بين Anthropic والبنتاغون يوم الجمعة، وجه الرئيس دونالد ترامب الوكالات الفيدرالية بوقف استخدام تقنية Anthropic بعد فترة انتقالية مدتها ستة أشهر، وقال وزير الدفاع بيت هيغسيث إنه يصنف شركة الذكاء الاصطناعي على أنها خطر على سلسلة التوريد.

ثم، أعلنت OpenAI بسرعة أنها توصلت إلى صفقة خاصة بها لنشر نماذجها في بيئات سرية. ومع إعلان Anthropic أنها تضع خطوطًا حمراء حول استخدام تقنيتها في الأسلحة ذاتية التحكم بالكامل أو المراقبة المحلية الجماعية، وقول ألتمان إن OpenAI لديها نفس الخطوط الحمراء، ظهرت بعض الأسئلة الواضحة: هل كانت OpenAI صادقة بشأن ضماناتها؟ لماذا تمكنت من التوصل إلى صفقة بينما لم تتمكن Anthropic من ذلك؟

لذا، بينما دافع المسؤولون التنفيذيون في OpenAI عن الاتفاقية على وسائل التواصل الاجتماعي، نشرت الشركة أيضًا منشورًا على مدونتها يوضح نهجها.

في الواقع، أشار المنشور إلى ثلاثة مجالات قالت فيها إن نماذج OpenAI لا يمكن استخدامها فيها المراقبة المحلية الجماعية، وأنظمة الأسلحة ذاتية التحكم، و"القرارات الآلية عالية المخاطر (مثل أنظمة "الائتمان الاجتماعي")".

وقالت الشركة إنه على عكس شركات الذكاء الاصطناعي الأخرى التي "قللت أو أزالت حواجز السلامة الخاصة بها واعتمدت بشكل أساسي على سياسات الاستخدام كضمانات أساسية لها في عمليات النشر المتعلقة بالأمن القومي"، فإن اتفاقية OpenAI تحمي خطوطها الحمراء "من خلال نهج متعدد الطبقات وأكثر شمولاً".

وجاء في المدونة: "نحتفظ بسلطة تقديرية كاملة على مكدس السلامة لدينا، ونقوم بالنشر عبر السحابة، ويشارك موظفو OpenAI المصرح لهم في العملية، ولدينا حماية تعاقدية قوية". وأضافت: "كل هذا بالإضافة إلى الحماية القوية القائمة في القانون الأمريكي".

وأضافت الشركة: "لا نعرف لماذا لم تتمكن Anthropic من التوصل إلى هذه الصفقة، ونأمل أن يفكروا هم والمزيد من المختبرات في ذلك".

بعد نشر المنشور، ادعى مايك ماسنيك من Techdirt أن الصفقة "تسمح تمامًا بالمراقبة المحلية"، لأنها تنص على أن جمع البيانات الخاصة سيتوافق مع الأمر التنفيذي 12333 (إلى جانب عدد من القوانين الأخرى). وصف ماسنيك هذا الأمر بأنه "كيف تخفي وكالة الأمن القومي (NSA) مراقبتها المحلية عن طريق التقاط الاتصالات من خلال التنصت على الخطوط *خارج الولايات المتحدة* حتى لو كانت تحتوي على معلومات من/عن أشخاص أمريكيين".

في منشور على LinkedIn، جادلت كاترينا موليغان، رئيسة شراكات الأمن القومي في OpenAI، بأن الكثير من النقاش حول لغة العقد يفترض أن "الشيء الوحيد الذي يقف بين الأمريكيين واستخدام الذكاء الاصطناعي للمراقبة المحلية الجماعية والأسلحة ذاتية التحكم هو بند واحد في سياسة الاستخدام ضمن عقد واحد مع وزارة الحرب".

وقالت موليغان: "هذه ليست طريقة عمل أي من هذا"، مضيفة: "هندسة النشر أهم من لغة العقد [...] من خلال تقييد نشرنا على واجهة برمجة تطبيقات السحابة (cloud API)، يمكننا ضمان عدم إمكانية دمج نماذجنا مباشرة في أنظمة الأسلحة أو أجهزة الاستشعار أو غيرها من الأجهزة التشغيلية".

كما أجاب ألتمان على أسئلة حول الصفقة على منصة X، حيث اعترف بأنها كانت متسرعة وأدت إلى رد فعل عنيف كبير ضد OpenAI (لدرجة أن Claude من Anthropic تجاوز ChatGPT من OpenAI في متجر تطبيقات Apple يوم السبت). فلماذا فعلوا ذلك؟

قال ألتمان: "أردنا حقًا تهدئة الأمور، واعتقدنا أن الصفقة المعروضة كانت جيدة". وأضاف: "إذا كنا على حق وأدى هذا إلى تهدئة بين وزارة الدفاع والصناعة، فسوف نبدو كعباقرة، وشركة تحملت الكثير من الألم للقيام بأشياء لمساعدة الصناعة. وإذا لم يكن الأمر كذلك، فسوف نستمر في أن نوصف بأننا [...] متسرعون وغير حذرين".

طبيعة الخبر: محايد
هذا الخبر يقدم معلومات محايدة

الكلمات المفتاحية(2)

التعليقات

News.tn يقدم مجموعة من الأخبار المستقاة من مجموعة واسعة من المصادر الإخبارية غير العربية. يجب التنويه أن المحتوى المقدم لا يعكس بالضرورة معتقداتنا وأفكارنا كمالكي الموقع. ما هو تقييمك للمعلومات المقدمة في المقال؟

مقالات ذات صلة