Estado de los modelos de DeepSeek: DeepSeek lanzó sus nuevos modelos de razonamiento híbrido V3.1 Terminus y V3.2 Exp en rápida sucesión en septiembre, dando pasos significativos tanto en inteligencia como en rentabilidad Ambos modelos se pueden usar en modos de razonamiento y no razonamiento, y están destinados a reemplazar los modelos V3 y R1 anteriores. DeepSeek V3.1 Terminus saltó 4 puntos más alto en el Índice de Inteligencia de Análisis Artificial que la versión original V3.1 sin sustancialmente más tokens, y V3.2 Experimental retuvo la mayoría de estas ganancias al tiempo que redujo sustancialmente los costos por token debido a la nueva arquitectura experimental de DeepSeek. DeepSeek V3.1 Terminus y V3.2 Exp obtienen una puntuación similar en Análisis artificial, con V3.1 Terminus un punto por encima de V3.2 Exp. Ambos son actualizaciones materiales de los modelos V3 y R1 anteriores. Una variedad de proveedores están sirviendo a ambos modelos, con la disponibilidad de V3.2 aún expandiéndose: ➤ DeepSeek V3.1 Terminus está disponible en SambaNova, DeepInfra, Fireworks, GMI y Novita, y @SambaNovaAI ofrece velocidades de salida de ~ 250 tokens por segundo (alrededor de 10 veces más rápido que la inferencia propia de DeepSeek) ➤ DeepSeek V3.2 Exp está disponible en la API propia de DeepSeek, DeepInfra, GMI y Novita, y DeepInfra lo sirve más rápido a velocidades de hasta 79 tokens por segundo
Vea a continuación nuestra comparación de proveedores para estos dos nuevos modelos de DeepSeek:
20.17K