أطلقت DeepSeek V3.2 Exp مع بنية DeepSeek Sparse Attention (DSA) الجديدة التي تدعي أنها تقلل من تأثير التحجيم التربيعي للحوسبة بطول السياق لقد قمنا بشكل مستقل بقياس V3.2 Exp على أنه يحقق ذكاء مشابها ل DeepSeek V3.1 Terminus. تحولت DeepSeek إلى استخدام V3.2 لنقطة نهاية واجهة برمجة التطبيقات الرئيسية الخاصة بها وخفضت أسعار واجهة برمجة التطبيقات بنسبة >50٪. مع تسعير واجهة برمجة تطبيقات الطرف الأول المحدث من DeepSeek ، تنخفض تكلفة تشغيل مؤشر ذكاء التحليل الاصطناعي من 114 دولارا إلى 41 دولارا. تدعي DeepSeek أنها "قامت بمحاذاة متعمد" تكوينات التدريب ل V3.1 Terminus و V3.2 Exp. يبدو أن أداء مطابقة V3.1 Terminus يوضح أن فوائد الأداء لبنية DeepSeek Spare Attention لا تأتي على حساب الذكاء. النقاط الرئيسية المعيارية: ➤ 🧠 لا يوجد تغيير في الذكاء الإجمالي: في وضع التفكير ، يسجل DeepSeek V3.2 Exp 57 في مؤشر ذكاء التحليل الاصطناعي. نرى هذا مكافئا في الذكاء ل DeepSeek V3.1 Terminus (التفكير) ➤ 📈 لا يوجد انخفاض في منطق السياق الطويل: على الرغم من تغييرات بنية DeepSeek ، يبدو أن V3.2 Exp (المنطق) لا يظهر أي انخفاض في منطق السياق الطويل - مما يسجل ارتفاعا طفيفا في AA-LCR. ➤ ⚡ أداء غير منطقي: في وضع عدم التفكير ، لا يظهر DeepSeek V3.2 Exp أي تدهور في الذكاء ، حيث يطابق DeepSeek V3.1 Terminus بدرجة 46 في مؤشر ذكاء التحليل الاصطناعي ➤ ⚙️ كفاءة الرمز المميز: بالنسبة إلى DeepSeek V3.2 Exp (التفكير) ، ينخفض استخدام الرمز المميز لتشغيل مؤشر ذكاء التحليل الاصطناعي بشكل طفيف من 67 مليونا إلى 62 مليونا مقارنة ب V3.1 Terminus. يظل استخدام الرمز المميز دون تغيير للمتغير غير المنطقي ➤ 💲التسعير: خفضت DeepSeek بشكل كبير تسعير الرمز المميز لواجهة برمجة تطبيقات الطرف الأول من 0.56 دولار / 1.68 دولار إلى 0.28 دولار / 0.42 دولار لكل 1 مليون رمز إدخال / إخراج - انخفاض بنسبة 50٪ و 75٪ في تسعير رموز المدخلات والمخرجات على التوالي. تفاصيل النموذج الأخرى: ➤ ©️ الترخيص: DeepSeek V3.2 Exp متاح بموجب ترخيص معهد ماساتشوستس للتكنولوجيا ➤ 🌐 التوفر: يتوفر DeepSeek V3.2 Exp عبر DeepSeek API ، والتي حلت محل DeepSeek V3.1 Terminus. لا يزال بإمكان المستخدمين الوصول إلى DeepSeek V3.1 Terminus عبر واجهة برمجة تطبيقات DeepSeek مؤقتة حتى 15 أكتوبر ➤ 📏 الحجم: يحتوي DeepSeek V3.2 Exp على 671B معلمات إجمالية و 37B معلمات نشطة. هذا هو نفس الموديلات السابقة في سلسلة DeepSeek V3 و R1
قارن بين أداء DeepSeek V3.2 Exp بالنسبة للنماذج التي تستخدمها أو تفكر فيها:
‏‎40.29‏K