صراع أنثروبيك وDeepSeek: اتهامات بسرقة بيانات Claude وتطوير نماذج منافسة - بوابة نيوز مصر

صراع أنثروبيك وDeepSeek: اتهامات بسرقة بيانات Claude وتطوير نماذج منافسة - بوابة نيوز مصر
صراع أنثروبيك وDeepSeek: اتهامات بسرقة بيانات Claude وتطوير نماذج منافسة - بوابة نيوز مصر

عزيزي الزائر أهلا وسهلا بك في موقع نيوز مصر نقدم لكم اليوم صراع أنثروبيك وDeepSeek: اتهامات بسرقة بيانات Claude وتطوير نماذج منافسة - بوابة نيوز مصر

تتواصل منذ فترة حالة التوتر والمنافسة الحادة بين شركات الذكاء الاصطناعي في الولايات المتحدة ونظيراتها في الصين، في مشهد يشبه حربًا باردة رقمية تتصاعد تدريجيًا.

وفي أحدث تطور، وجهت شركة Anthropic الأمريكية، المطورة لنموذج Claude، اتهامات مباشرة إلى ثلاث شركات صينية رائدة، هي DeepSeek وMiniMax وMoonshot AI، بسرقة بيانات من نموذجها لاستخدامها في تدريب نماذج ذكاء اصطناعي منافسة.

وفي منشور رسمي على مدونتها، قالت أنثروبيك إن هذه الشركات استخدمت آلاف الحسابات لإجراء محادثات مطولة مع Claude، بلغ مجموعها ملايين الرموز النصية (tokens)، بهدف استخراج مخرجات عالية الجودة، ثم إعادة استخدامها في تحسين نماذجها الخاصة.

“التقطير” أم الغش؟ طبيعة الاتهامات

تتهم أنثروبيك الشركات الصينية بما يُعرف في عالم الذكاء الاصطناعي بعملية “التقطير” (Distillation)، وهي أسلوب يتم فيه تدريب نموذج أصغر أو أحدث باستخدام مخرجات نموذج أكثر تقدمًا، وتُستخدم هذه التقنية بشكل مشروع داخل الشركات نفسها، مثل أنثروبيك وOpenAI، لتطوير نسخ أكثر كفاءة من نماذجها.

غير أن أنثروبيك تؤكد أن هذا الأسلوب يصبح غير قانوني عندما يتم دون إذن، أو عندما يُستخدم لنسخ قدرات نموذج متقدم تابع لشركة أخرى، وشبّهت الشركة ما حدث بطالب يغش في الامتحان عبر النظر إلى ورقة إجابات زميله ونسخها، ووفقًا لبيان أصدرته هذا الأسبوع، زعمت أنثروبيك أن الشركات الثلاث أنشأت نحو 24 ألف حساب احتيالي، أجروا من خلالها أكثر من 16 مليون تفاعل مع Claude، وتقول الشركة إن الهدف كان استخراج قدرات متقدمة في مجالات مثل البرمجة، والاستدلال المنطقي، واستخدام الأدوات البرمجية، وهي نقاط قوة تعتبرها أنثروبيك من أبرز ميزات نموذجها.

وأضافت الشركة: “لقد رصدنا حملات واسعة النطاق على مستوى صناعي من قبل ثلاثة مختبرات ذكاء اصطناعي - DeepSeek وMoonshot وMiniMax - لاستخراج قدرات Claude بشكل غير مشروع بهدف تحسين نماذجهم الخاصة”.

مخاوف تتعلق بالأمان وفقدان الضوابط

رغم اعتراف أنثروبيك بأن “التقطير” قد يكون أسلوبًا مشروعًا في سياقات معينة، فإنها حذّرت من أن النماذج المبنية عبر “تقطير غير مشروع” قد لا تحتفظ بإجراءات الأمان والحماية التي تميز النماذج الأصلية، وقالت الشركة إن هذا الأمر قد يؤدي إلى انتشار قدرات خطيرة دون الضوابط اللازمة، ما قد يفتح الباب أمام إساءة الاستخدام، خاصة إذا تم تجريد النماذج الجديدة من طبقات الحماية المدمجة في النموذج الأصلي.

ردود فعل الإنترنت: “الجميع يفعل الشيء نفسه”

لكن بينما وجهت أنثروبيك اتهامات ثقيلة إلى الشركات الصينية، لم يكن التفاعل على الإنترنت متعاطفًا معها، فقد امتلأت منصات التواصل الاجتماعي بالتعليقات الساخرة والميمز التي تشير إلى أن صناعة الذكاء الاصطناعي بأكملها تعتمد أساسًا على جمع كميات ضخمة من البيانات من الإنترنت.
واستحضر بعض المستخدمين قضايا قانونية سابقة واجهتها أنثروبيك، من بينها تسوية قانونية وافقت فيها الشركة على دفع ما لا يقل عن 1.5 مليار دولار أمريكي في دعوى رفعها مؤلفون اتهموا الشركة باستخدام كتب مقرصنة لتدريب نموذج Claude، وكتب أحد المستخدمين على منصة X: “لدي موقع عن الطب الصيني التقليدي استغرقت سنوات في بنائه، عندما سألت Claude عن الموضوع، كرر تقريبًا حرفيًا ما كتبته بنفسي. لذا رجاءً توقفوا عن تبرير تدريب الذكاء الاصطناعي على أعمال الآخرين”.

وكتب مستخدم آخر: “هذا شر محض، أولًا، أنثروبيك استخدمت التورنت لتنزيل كتب وبيانات للتدريب دون إذن، ثانيًا، الشركات الصينية دفعت مقابل استخدام الواجهة البرمجية (API) ولم تحصل على المعلومات مجانًا. ثالثًا، يبدو أن أنثروبيك تراقب المستخدمين”.

إيلون ماسك يدخل على الخط

وكما جرت العادة في القضايا المثيرة للجدل في قطاع التكنولوجيا، لم يفوّت الملياردير التقني Elon Musk الفرصة للتعليق، فقد وجّه انتقادات مباشرة إلى أنثروبيك، متهمًا إياها بأنها نفسها درّبت نماذجها على بيانات تم جمعها من الإنترنت، واضطرت إلى دفع تسويات بمليارات الدولارات بسبب ذلك، وكتب ماسك أن أنثروبيك “مذنبة بسرقة بيانات تدريب على نطاق واسع، واضطرت إلى دفع تسويات بمليارات الدولارات نتيجة لذلك، هذه حقيقة”.
لكن شركة ماسك نفسها، xAI، ليست بعيدة تمامًا عن اتهامات مماثلة، فعندما أشار أحد المستخدمين إلى أن شركته تعتمد أيضًا على مجموعات بيانات ضخمة، أقرّ ماسك بأن أنظمة الذكاء الاصطناعي تتدرب بالفعل على كميات هائلة من البيانات، لكنه اعتبر أن الفرق يكمن في “نبرة الغرور والنفاق” التي تتعامل بها أنثروبيك مع القضية.

الحكومة الأمريكية تضغط على DeepSeek

تأتي اتهامات أنثروبيك في وقت تتصاعد فيه المنافسة بين الولايات المتحدة والصين في مجال الذكاء الاصطناعي، مع تزايد اعتبار واشنطن للتقنيات المتقدمة مسألة أمن قومي، وفي هذا السياق، ذكرت وكالة Reuters في تقرير حديث أن DeepSeek ربما استخدمت أحدث شرائح Blackwell من شركة Nvidia لتدريب نموذجها الأخير، رغم القيود الأمريكية على تصدير هذه الرقائق المتقدمة إلى الصين.

وبحسب التقرير، يعتقد مسؤولون أمريكيون أن هذه الرقائق جرى تجميعها في مركز بيانات تابع لـ DeepSeek في منغوليا الداخلية، ما يثير تساؤلات حول احتمال الالتفاف على قيود التصدير.

DeepSeek تستعد لإطلاق نموذج جديد

اللافت أن هذا التصعيد يأتي في وقت تستعد فيه DeepSeek لإطلاق نموذجها الجديد خلال أيام، وكانت الشركة قد دخلت دائرة الضوء بقوة مع إطلاق نموذج R1 الذي أثار اهتمامًا واسعًا، وتشير التوقعات إلى أن النموذج المقبل، الذي يُعتقد أنه سيحمل اسم R2، قد ينافس أو يتفوق على أفضل النماذج الأمريكية من حيث الأداء.

معضلة النماذج مفتوحة المصدر

إحدى المشكلات التي تواجه الشركات الأمريكية حاليًا هي أن العديد من النماذج الصينية تُطرح كمشروعات مفتوحة المصدر، مع إتاحة أوزان التدريب (weights) للجمهور، وهذا يتيح للمطورين والشركات حول العالم استخدامها وتعديلها بطرق لا تسمح بها النماذج الأمريكية المملوكة حصريًا لشركاتها.

وفي حال تمكنت النماذج الصينية من الوصول إلى مستوى أداء مماثل أو قريب من نماذج مثل Claude أو Gemini أو ChatGPT، فإن ذلك قد يقلل من القيمة التجارية للنماذج الأمريكية المغلقة، ويعيد رسم خريطة المنافسة العالمية في سوق الذكاء الاصطناعي.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق من التعلم للطبخ.. 3 تطبيقات هتحتاجها فى رمضان - بوابة نيوز مصر
التالى iPhone 18 Pro يدخل مرحلة الإنتاج التجريبي دون تغييرات كبيرة فى التصميم - بوابة نيوز مصر