صفقة البنتاغون مع OpenAI: صراع الذكاء الاصطناعي بين السياسة والأمن

في ساعات قليلة، تبدلت قواعد اللعبة في عالم الذكاء الاصطناعي. حين أعلن الرئيس ترامب حظر استخدام أنثروبيك في كل المؤسسات الحكومية، كانت OpenAI تُبرم اتفاقاً جديداً مع البنتاغون، تُثبت فيه أن السيطرة على مستقبل الذكاء الاصطناعي ليست فقط للميادين التقنية، بل هي لعبة سياسية وعسكرية بحسابات دقيقة.
التفاصيل الخفية وراء صفقة البنتاغون مع OpenAI
أعلن سام ألتمان، الرئيس التنفيذي لـOpenAI، في مساء 27 فبراير 2026 عن توقيع اتفاق يسمح بنشر تقنيات الشركة ضمن شبكات وزارة الدفاع الأميركية المصنفة سرّية. هذه الصفقة التي جرت في ظل توتر واضح مع شركة أنثروبيك التي منعت حكومياً عن العمل الفدرالي، احتوت على شروط صارمة تحظر استخدام الذكاء الاصطناعي في المراقبة الجماعية داخل الولايات المتحدة، بالإضافة إلى تأكيد مسؤولية بشرية كاملة في استخدام القوة، خصوصًا في الأنظمة المستقلة.
أرقام ومفاجآت: كيف تعكس الصفقة قيم التمويل والالتزام الأخلاقي؟
رغم غموض التفاصيل المالية رسميًا، تشير تقديرات إلى أن OpenAI تدعمها استثمارات ضخمة تبلغ نحو 110 مليار دولار، تشمل عمالقة مثل أمازون وإنفيديا وسوفتبانك، مما يمكّنها من توسيع نطاق عمليّاتها عسكريًا. هذه الصفقة تؤسس معيارًا جديدًا للأمان الأخلاقي في الذكاء الاصطناعي العسكري، مع تخلي الوزارة عن حلول منافسة معقدة كأنثروبيك بسبب رفضها تلبية نفس القيود.
حدث اليوم:
الموقع: واشنطن، 2026. الكيانات: OpenAI، البنتاغون، إدارة ترامب، Anthropic. خلفية الحدث: توقيع OpenAI صفقة مع البنتاغون لاستخدام أدوات الذكاء الاصطناعي في أنظمة عسكرية سرية، بعد ساعات من قرار إدارة ترامب بحظر استخدام Anthropic بسبب مخاطر تتعلق بالأمن وسلسلة التوريد. الصفقة تضمنت قيوداً أمنية وشروطاً مشددة تشبه تلك التي رفضتها Anthropic، مما أثار تساؤلات حول الفرق في التعامل مع الشركتين وحول مستقبل ذكاء الآلة في المجال العسكري والسياسي.
حظر أنثروبيك: خطوة مفاجئة في السياسة الأميركية والردود المتباينة
شنّ ترامب هجومًا رسميًا على أنثروبيك، مُعلناً إبعادها عن جميع العقود الحكومية لمدة ستة أشهر، ووصمها كـ”مخاطر في سلسلة الإمداد”، وهي تسمية عادة ما تخصص للشركات المرتبطة بالدول المعادية. الشركة، من جانبها، تؤكد دعمها الكامل للاستخدامات الأمنية المصرح بها، لكنها رفضت التنازل عن مبادئها الأخلاقية حول المراقبة والأسلحة المستقلة، محذرة من تأثير هذه القرارات على مستقبل التقنية.
صفقة البنتاغون: تنافسٌ سعودي وعالمي في مضمار الذكاء الاصطناعي العسكري
تثير هذه الصفقة قلب التنافس العالمي على الذكاء الاصطناعي، لا سيما أن السعودية تطمح إلى تطوير تطبيقات عسكرية وآمنة للذكاء الاصطناعي ضمن رؤيتها 2030. استيراد تجربة OpenAI في قيادة تحديثات آمنَة للأنظمة الدفاعية يعطي فرصًا ثمينة لفهم تحديات دمج الرقابة الأخلاقية في منظومات متقدمة، خصوصًا في مواجهة التهديدات الإلكترونية والحروب الرقمية الحديثة.
كيف يغيّر الذكاء الاصطناعي الخارطة العسكرية مع صفقة البنتاغون؟
تعكس الصفقة دخول عصر جديد حيث لا تُسمح فيه التقنية العسكرية بالتجاوز على حقوق الإنسان، كما تم الاتفاق على أن تكون العمليات محكومة فقط بسحابة مؤمنة بشرية الإشراف، بعيدًا عن الأسلحة المستقلة والمراقبة الجماعية. هذه الخطوط الحمراء تمهد الطريق لتعاون أكبر بين شركات التقنية والدول التي تتبنى شراكات مسؤولة في الذكاء الاصطناعي، مع استبعاد أي حلول “زائفة الأمان” تعرقل الابتكار.
وجه المستقبل: الذكاء الاصطناعي في خدمة الدفاع أم السيطرة؟
يبقى السؤال الأبرز متى ستتوازن أهداف الذكاء الاصطناعي بين الفائدة العسكرية والأخلاقية. صفقة البنتاغون مع OpenAI مثال لتلك المحاولات، لكنه في الوقت نفسه يفتح تساؤلات جدّية حول توازن القوة، الرقابة، والشفافية، خاصة وسط تصاعد صراعات المصالح بين الشركات العملاقة وضغوط الحكومات الغربية.
