تخيلوا فيه موديل مفتوح المصدر أقوى من GPT-4! 🤯
وصلنا لمرحلة جديدة مع DeepSeek v3، هذا الموديل يعتبر أقوى من Claude Sonnet 3.5 في البرمجة حسب عدة مقاييس.
يستخدم تقنية MoE (Mixture-of-Experts) مع 37 مليار معلمة نشطة.
تم تدريبه على 14.8 تريليون توكن.
الصينيون قدموا نموذج محترم بإمكانات محدودة جداً وبأيادٍ صينية، بعيداً عن وادي السيليكون.
ملاحظة: هذا النموذج لا يتفوق على O3 الجديد من ChatGPT.
رابط 🔗 chat.deepseek.com
وصلنا لمرحلة جديدة مع DeepSeek v3، هذا الموديل يعتبر أقوى من Claude Sonnet 3.5 في البرمجة حسب عدة مقاييس.
يستخدم تقنية MoE (Mixture-of-Experts) مع 37 مليار معلمة نشطة.
تم تدريبه على 14.8 تريليون توكن.
الصينيون قدموا نموذج محترم بإمكانات محدودة جداً وبأيادٍ صينية، بعيداً عن وادي السيليكون.
ملاحظة: هذا النموذج لا يتفوق على O3 الجديد من ChatGPT.
رابط 🔗 chat.deepseek.com