
الصين تطلق DeepSeek R1 الذكاء الاصطناعي الآمن.. كل ما تحتاج معرفته
تم الانشاء فى 12 يونيه, 2025 • مشاهدات 31
نموذج DeepSeek الصيني يتجدد بتركيز على الامتثال التنظيمي
شهد النموذج الصيني الشهير متعدد اللغات DeepSeek عملية تطوير شاملة تركز على تعزيز الامتثال للضوابط الحكومية. وفقاً لتقارير رويترز، تم تطوير إصدار جديد يحمل اسم DeepSeek-R1-Safe لمعالجة القضايا السياسية الحساسة وزيادة التوافق مع قيود التعبير التي تفرضها الجهات التنظيمية الصينية.
تعاون استثنائي بين القطاعين التقني والأكاديمي
المثير للاهتمام أن تطوير هذا الإصدار الجديد لم يتم من قبل DeepSeek نفسها، بل قامت شركة هواوي بالتعاون مع باحثين من جامعة تشجيانغ بإعادة تدريب النموذج مفتوح المصدر DeepSeek R1 باستخدام 1000 رقاقة ذكاء اصطناعي من طراز Ascend الخاصة بها.
توازن دقيق بين الأداء والامتثال
هدف الفريق المطور كان دمج ضمانات أكثر صرامة في النظام دون إضعاف ملحوظ في الأداء. وتدعي هواوي الآن أن الإصدار المحدث لم يفقد سوى حوالي 1% من قدرته وسرعته الأصلية، بينما حقق مقاومة أقوى بكثير للخطاب الضار والمحتوى السياسي الحساس والتحريض على الأنشطة غير القانونية.
نسب نجاح مثيرة للإعجاب مع بعض القيود
تبدو النتائج مبهرة من الناحية الظاهرية، حيث تزعم هواوي أن نظام DeepSeek-R1-Safe "ناجح بنسبة تقارب 100%" في تجنب المواضيع الحساسة سياسياً في التفاعلات العادية. ومع ذلك، لا تزال هناك بعض القيود، فعندما يستخدم المستخدمون أساليب مثل لعب الأدوار أو إخفاء النوايا عبر توجيهات غير مباشرة، ينخفض معدل نجاح النموذج بشكل حاد إلى 40% فقط.
السياق التنظيمي الصيني للذكاء الاصطناعي
يعكس هذا المشروع جهود بكين المستمرة لتنظيم الذكاء الاصطناعي بدقة، حيث تفرض السلطات الصينية على جميع أنظمة الذكاء الاصطناعي الموجهة للجمهور الالتزام بالقيم الوطنية وحدود التعبير المحددة. وتتبع الأدوات الحالية هذا النهج بالفعل، حيث أفادت التقارير أن روبوت الدردشة "إرني" من بايدو يحظر الأسئلة المتعلقة بالسياسة الداخلية للصين أو الحزب الشيوعي الحاكم.
التحيز الثقافي في نماذج الذكاء الاصطناعي العالمية
حتى الشركات الأمريكية تعترف بالتأثير الثقافي على نماذجها، حيث صرحت OpenAI علناً أن ChatGPT "يميل إلى وجهات النظر الغربية". وأثار هذا الاعتراف جدلاً حول إمكانية وجود ذكاء اصطناعي محايد حقاً، وما إذا كانت النماذج ستعكس دائماً تحيزات المجتمعات التي تتدرب فيها.
المعايير الأمريكية للحياد في الذكاء الاصطناعي
اتخذت الحكومة الأمريكية أيضاً خطوات لتحديد معايير الذكاء الاصطناعي، حيث كُشف النقاب عن خطة عمل الذكاء الاصطناعي الأمريكية في وقت سابق من هذا العام تحت إدارة ترامب. تشترط هذه الخطة أن يكون أي نموذج ذكاء اصطناعي يتفاعل مع الوكالات الحكومية "محايداً وغير متحيز"، إلا أن تعريف الحياد يحمل نكهة سياسية واضحة.
ينص أمر تنفيذي وقعه ترامب على أن النماذج المؤهلة يجب أن ترفض "العقيدة المناخية المتطرفة" و"التنوع والمساواة والشمول" بالإضافة إلى "نظرية العرق النقدية، والتحول الجنسي، والتحيز اللاواعي، والتقاطعية، والعنصرية المنهجية".
مقالات شائعه
-
تحديث جديد في ChatGPT يدعم الآن الدردشات الصوتية وإرسال الصوراخبار • مشاهدات 8,100
-
تعرف على أكثر المنصات استخداما في السعودية 2023سوشيال ميديا • مشاهدات 4,412
-
-
-