عزيزي الزائر أهلا وسهلا بك في موقع نيوز مصر نقدم لكم اليوم بالتزامن مع حرب إيران.. تفاصيل حظر ترامب لـAnthropic وClaude AI - بوابة نيوز مصر
مع تصاعد التوترات الجيوسياسية بين الولايات المتحدة وإيران واندلاع الحرب فعليًا، أعلن الرئيس الأمريكي دونالد ترامب والإدارة الأمريكية عن مواجهة تقنية كبيرة ضد شركة Anthropic ونظامها المعروف Claude AI، في خطوة اعتبرها خبراء بمثابة حرب تقنية موازية للأحداث العسكرية الجارية.
في وقت سابق، كانت الحكومة الأمريكية قد أبرمت صفقة بقيمة 200 مليون دولار مع Anthropic، إلا أن البيت الأبيض ووزارة الدفاع قررا حظر استخدام منصة Claude في أي جهة اتحادية، ما أدى إلى قطع الشركة عمليًا عن القطاع الدفاعي الأمريكي.
وأمر الرئيس الأمريكي دونالد ترامب جميع الوكالات الفيدرالية بوقف استخدام أنظمة الذكاء الاصطناعي الخاصة بـAnthropic على الفور، فيما صنفت وزارة الدفاع الشركة كخطر على سلسلة التوريد للأمن القومي، حيث جاءت هذه الخطوة بعد خلاف طويل بين الحكومة الأمريكية ومختبر الذكاء الاصطناعي "الأولوية للسلامة" حول ضوابط أمان استخدام الذكاء الاصطناعي.
وعلى مدار عامين تقريبًا، عملت Anthropic، الشركة المطورة لـClaude AI، بشكل وثيق مع الحكومة الأمريكية بما يشمل وزارة الدفاع، وكانت الشركة التي تقدر قيمتها بأكثر من 380 مليار دولار أمريكي، قد أبرمت عقدًا بقيمة 200 مليون دولار مع البنتاغون لتخصيص ونشر نموذج كلاود لأغراض الأمن القومي.
وكان البنتاجون يعتمد على كلاود كنظام الذكاء الاصطناعي الرئيسي المصرح له بالعمل على شبكات الحوسبة السحابية الحساسة والمصنفة، واكتسبت نسخة "Claude Gov" شهرة واسعة بين موظفي الدفاع الأمريكي لسهولة استخدامها، وقد استخدمت سابقًا في عمليات عسكرية مثل ملاحقة الرئيس الفنزويلي مادورو.
لكن شركة Anthropic أكدت على كونها تضع السلامة على رأس أولوياتها، مما أدى إلى صراع طويل حول كيفية استخدام الذكاء الاصطناعي في الأنظمة العسكرية، وانقسمت العلاقة بين الحكومة وAnthropic حول مسألة رئيسية تتعلق بمن يحدد كيفية استخدام الذكاء الاصطناعي للأمن القومي.
وطالب البنتاجون بإزالة القيود المفروضة على استخدام Claude، ليتمكن الجيش من الوصول الكامل للنموذج لأي غرض دفاعي قانوني، فيما رفض الرئيس التنفيذي للشركة، ديمو أمودي، التنازل عن الضوابط الأخلاقية للشركة، مؤكداً خطين أحمرين، ألا يُستخدم Claude للمراقبة الداخلية الشاملة للمواطنين الأمريكيين، وألا ينشر في أنظمة أسلحة مستقلة تتخذ قرارات الحياة والموت دون إشراف بشري ملائم، وأصر البنتاجون على أن القانون الأمريكي هو الذي يجب أن يحدد استخدام الذكاء الاصطناعي الدفاعي، وليس سياسات شركة خاصة.
وبعد رفض Anthropic التنازل، أمر الرئيس الأمريكي دونالد ترامب بحظر استخدام جميع أنظمة الشركة في الوكالات الفيدرالية، مع فترة انتقالية ستة أشهر، وتبع ذلك إعلان وزارة الدفاع أن Anthropic أصبحت مصنفة كخطر على سلسلة التوريد للأمن القومي، وهو تصنيف كان يخصص عادةً للشركات الأجنبية المعادية مثل هواوي، مما يمنع أي متعاقد أو شريك مع الجيش الأمريكي من التعامل مع الشركة. وردت Anthropic بأنها ستطعن في هذا التصنيف قانونيًا، معتبرة أنه سابقة خطيرة وغير قانونية.
يركز التحرك المتشدد ضد Anthropic على مسألة التفوق العسكري والسيادة الوطنية، وأكد البنتاغون عدم اهتمامه بالمراقبة الجماعية أو بأسلحة مستقلة قاتلة، لكنه يرى أن الضوابط الأخلاقية للشركات الخاصة قد تحد من مرونة الجيش على ساحة المعركة، وخاصة في مواجهة دول مثل الصين.
وفي تعليق له على منصة Truth Social، اعتبر الرئيس الأمريكي دونالد ترامب أن شركة Anthropic ارتكبت خطأ كارثيًا بمحاولة فرض شروط خدمتهم على وزارة الحرب بدل الدستور، مؤكداً أن الولايات المتحدة هي من ستقرر مصيرها وليس شركة ذكاء اصطناعي متطرفة بلا فهم للعالم الحقيقي.
وبعد ساعات من الحظر، أعلن الرئيس التنفيذي لـOpenAI، سام ألتمان، عن صفقة جديدة مع وزارة الدفاع، لتطبيق نماذج شركته على الشبكات المصنفة للبنتاجون، مع الالتزام بمبادئ السلامة، بما يشمل منع المراقبة الجماعية المحلية وضمان مسؤولية بشرية واضحة عن استخدام القوة.
وأوضح ألتمان أن هذه المبادئ منصوص عليها في القانون الأمريكي ومدمجة رسميًا في العقد الجديد، ليحل بذلك OpenAI محل Anthropic في المشاريع الدفاعية الحساسة دون التخلي عن الضوابط الأمنية.




