أطلقت شركة DeepSeek الصينية نموذج DeepSeek V3 الذكي، الذي أثبت تفوقًا كبيرًا في منافسة العديد من النماذج الأخرى بمجالات مثل كتابة الأكواد البرمجية، وإنشاء النصوص.

وأتاحت الشركة المطورة نموذجها الجديد لمختلف الاستخدامات، بما في ذلك التجارية، من خلال حصول المطورين على تراخيص بالموافقة من جانبها.

ويتمكن نموذج DeepSeek V3 من إنجاز مهام مختلفة، مثل كتابة النصوص والترجمة الفورية والأكواد البرمجية التي أثبت تفرده بها أمام نماذج رائدة مثل نموذج Llama 3.1 405B من ميتا، وGPT-4o من OpenAI، وكذلك نموذج شركة علي بابا الأحدث Qwen 2.5 72B، بحسب اختبارات منصة Cpdefprces للبرمجة الآلية.

ونجح النموذج الصيني الجديد في تسجيل أرقام قياسية في اختبار Aider Polyglot، الذي يقيس العديد من قدرات النماذج الذكية، بما في ذلك القدرة على كتابة أكواد برمجية جديدة تتماشى مع الكود البرمجي الحالي.

وتفوق نموذج DeepSeek V3 قد يكون متوقعًا، إذ أشارت شركته المطورة إلى أنه قد تم تدريبه على قاعدة بيانات مكونة من 12.8 تريليون توكن، والتوكن هي وحدة تمثيل حجم البيانات في صورتها النصية، ومليون توكن تساوي قرابة 750 ألف كلمة.

ويعتمد DeepSeek V3 على عدد ضخم من المتغيرات، إذ يتكون من 685 مليار متغير، بما يفوق حجم أكبر نموذج مفتوح المصدر لدى ميتا وحجمه 405 مليارات متغير، بقرابة 1.6 مرة.

يُذكر أن فكرة المتغير Parameter مرتبطة في نماذج الذكاء الاصطناعي بتنوع وحجم المهارات والقدرات الخاصة بتلك النماذج، فكلما كان عدد المتغيرات أكبر، كلما زاد تطور إمكانيات النماذج.