صراع أنثروبيك مع إدارة ترامب: جدل الذكاء الاصطناعي بين الأمن القومي والسلامة
جاري التحميل...

صراع أنثروبيك مع إدارة ترامب: جدل الذكاء الاصطناعي بين الأمن القومي والسلامة
بعد ظهر يوم الجمعة، ومع بدء هذه المقابلة، ومض تنبيه إخباري على شاشة حاسوبي: إدارة ترامب تقطع العلاقات مع أنثروبيك، شركة الذكاء الاصطناعي في سان فرانسيسكو التي أسسها داريو أمودي عام 2021. وسرعان ما استند وزير الدفاع بيت هيغسيث إلى قانون الأمن القومي لوضع الشركة على القائمة السوداء ومنعها من التعامل مع البنتاغون بعد أن رفض أمودي السماح باستخدام تقنية أنثروبيك للمراقبة الجماعية للمواطنين الأمريكيين أو للطائرات المسيرة المسلحة ذاتية التحكم التي يمكنها اختيار الأهداف وقتلها دون تدخل بشري.
لقد كانت سلسلة أحداث مذهلة. تخاطر أنثروبيك بخسارة عقد تصل قيمته إلى 200 مليون دولار وقد تُمنع من العمل مع مقاولي الدفاع الآخرين بعد أن نشر الرئيس ترامب على منصة Truth Social توجيهًا لكل وكالة فيدرالية بـ "وقف جميع استخدامات تقنية أنثروبيك فورًا". (وقد صرحت أنثروبيك منذ ذلك الحين بأنها ست تطعن قرار البنتاغون في المحكمة).
أمضى ماكس تيجمارك الجزء الأكبر من عقد من الزمان وهو يحذر من أن سباق بناء أنظمة ذكاء اصطناعي أقوى يتجاوز قدرة العالم على تنظيمها. أسس الفيزيائي من معهد ماساتشوستس للتكنولوجيا (MIT) معهد مستقبل الحياة في عام 2014، وفي عام 2023 ساعد في تنظيم رسالة مفتوحة وقع عليها في النهاية أكثر من 33000 شخص، بمن فيهم إيلون ماسك تدعو إلى وقف تطوير الذكاء الاصطناعي المتقدم.
نظرته لأزمة أنثروبيك لا هوادة فيها: الشركة، مثل منافسيها، زرعت بذور ورطتها الخاصة. لا تبدأ حجة تيجمارك بالبنتاغون، بل بقرار اتُخذ قبل سنوات خيار مشترك عبر الصناعة، لمقاومة التنظيم. لطالما وعدت أنثروبيك، وأوبن إيه آي، وغوغل ديب مايند، وغيرها بتنظيم أنفسهم بمسؤولية. حتى أن أنثروبيك أسقطت هذا الأسبوع المبدأ الأساسي لتعهدها بالسلامة وعدها بعدم إطلاق أنظمة ذكاء اصطناعي قوية بشكل متزايد حتى تتأكد الشركة من أنها لن تسبب ضررًا.
الآن، في غياب القواعد، ليس هناك الكثير لحماية هؤلاء اللاعبين، كما يقول تيجمارك. إليكم المزيد من تلك المقابلة، تم تحريرها للاختصار والوضوح. يمكنكم الاستماع إلى المحادثة الكاملة الأسبوع المقبل على بودكاست TechCrunchs StrictlyVC Download.
عندما رأيت هذا الخبر الآن عن أنثروبيك، ما كان رد فعلك الأول؟
الطريق إلى الجحيم مفروش بالنوايا الحسنة. من المثير للاهتمام أن نتذكر قبل عقد من الزمان، عندما كان الناس متحمسين للغاية بشأن كيف سنصنع الذكاء الاصطناعي لعلاج السرطان، لزيادة الازدهار في أمريكا وجعل أمريكا قوية. وها نحن الآن حيث الحكومة الأمريكية غاضبة من هذه الشركة لعدم رغبتها في استخدام الذكاء الاصطناعي للمراقبة الجماعية المحلية للأمريكيين، وأيضًا لعدم رغبتها في امتلاك روبوتات قاتلة يمكنها بشكل مستقل دون أي تدخل بشري على الإطلاق تحديد من يُقتل.
حدث تك كرانش
سان فرانسيسكو، كاليفورنيا | 13-15 أكتوبر 2026
لقد بنت أنثروبيك هويتها بالكامل على كونها شركة ذكاء اصطناعي تضع السلامة أولاً، ومع ذلك كانت تتعاون مع وكالات الدفاع والاستخبارات [يعود تاريخ ذلك إلى عام 2024 على الأقل]. هل تعتقد أن هذا متناقض بأي شكل من الأشكال؟
إنه متناقض. إذا سمحت لي بنظرة ساخرة قليلاً على هذا نعم، كانت أنثروبيك جيدة جدًا في تسويق نفسها على أنها تهتم بالسلامة بالكامل. ولكن إذا نظرت فعليًا إلى الحقائق بدلاً من الادعاءات، فما تراه هو أن أنثروبيك، وأوبن إيه آي، وغوغل ديب مايند، وإكس إيه آي قد تحدثت جميعها كثيرًا عن اهتمامها بالسلامة. لم يخرج أي منها لدعم تنظيم سلامة ملزم بالطريقة التي لدينا في الصناعات الأخرى. وقد خرقت جميع هذه الشركات الأربع وعودها الآن.
أولاً كان لدينا غوغل هذا الشعار الكبير، "لا تكن شريرًا". ثم أسقطوا ذلك. ثم أسقطوا التزامًا أطول آخر كان يقول أساسًا إنهم وعدوا بعدم التسبب في ضرر بالذكاء الاصطناعي. أسقطوا ذلك حتى يتمكنوا من بيع الذكاء الاصطناعي للمراقبة والأسلحة. أسقطت أوبن إيه آي للتو كلمة السلامة من بيان مهمتها. أغلقت إكس إيه آي فريق السلامة بأكمله. والآن أنثروبيك، في وقت سابق من الأسبوع، أسقطت أهم التزام لها بالسلامة الوعد بعدم إطلاق أنظمة ذكاء اصطناعي قوية حتى تتأكد من أنها لن تسبب ضررًا.
كيف انتهى المطاف بالشركات التي قدمت مثل هذه الالتزامات البارزة بالسلامة في هذا الموقف؟
