Stan modeli DeepSeek: DeepSeek w szybkim tempie wprowadził swoje nowe modele hybrydowego rozumowania V3.1 Terminus i V3.2 Exp we wrześniu, dokonując znaczących postępów zarówno w zakresie inteligencji, jak i efektywności kosztowej. Oba modele mogą być używane w trybie rozumowania i nie-rozumowania i mają na celu zastąpienie wcześniejszych modeli V3 i R1. DeepSeek V3.1 Terminus skoczył o 4 punkty wyżej w Indeksie Inteligencji Analizy Sztucznej niż oryginalne wydanie V3.1, nie wykorzystując znacznie więcej tokenów, a V3.2 Experimental zachował większość tych zysków, jednocześnie znacznie obniżając koszty na token dzięki eksperymentalnej nowej architekturze DeepSeek. DeepSeek V3.1 Terminus i V3.2 Exp uzyskują podobne wyniki w Analizie Sztucznej, przy czym V3.1 Terminus jest o jeden punkt wyżej niż V3.2 Exp. Oba są istotnymi ulepszeniami wcześniejszych modeli V3 i R1. Szereg dostawców obsługuje oba modele, a dostępność V3.2 wciąż się rozszerza: ➤ DeepSeek V3.1 Terminus jest dostępny na SambaNova, DeepInfra, Fireworks, GMI i Novita, przy czym @SambaNovaAI oferuje prędkości wyjściowe wynoszące ~250 tokenów na sekundę (około 10x szybciej niż inferencja pierwszej strony DeepSeek) ➤ DeepSeek V3.2 Exp jest dostępny w pierwszej stronie API DeepSeek, DeepInfra, GMI i Novita - przy czym DeepInfra obsługuje go najszybciej z prędkościami do 79 tokenów na sekundę.
Zobacz poniżej nasze porównanie dostawców dla obu tych nowych modeli DeepSeek:
20,18K