Stato dei modelli DeepSeek: DeepSeek ha lanciato i suoi nuovi modelli di ragionamento ibrido V3.1 Terminus e V3.2 Exp in rapida successione a settembre, compiendo passi significativi sia in termini di intelligenza che di efficienza dei costi. Entrambi i modelli possono essere utilizzati in modalità di ragionamento e non ragionamento, e sono destinati a sostituire i precedenti modelli V3 e R1. DeepSeek V3.1 Terminus ha guadagnato 4 punti in più sull'Indice di Intelligenza di Analisi Artificiale rispetto al rilascio originale V3.1 senza sostanzialmente più token, e V3.2 Experimental ha mantenuto la maggior parte di questi guadagni riducendo sostanzialmente i costi per token grazie alla nuova architettura sperimentale di DeepSeek. DeepSeek V3.1 Terminus e V3.2 Exp ottengono punteggi simili nell'Analisi Artificiale, con V3.1 Terminus che si posiziona un punto sopra V3.2 Exp. Entrambi sono aggiornamenti materiali rispetto ai precedenti modelli V3 e R1. Una serie di fornitori stanno servendo entrambi i modelli, con la disponibilità di V3.2 che continua ad espandersi: ➤ DeepSeek V3.1 Terminus è disponibile su SambaNova, DeepInfra, Fireworks, GMI e Novita, con @SambaNovaAI che offre velocità di output di ~250 token al secondo (circa 10 volte più veloce rispetto all'inferenza di prima parte di DeepSeek). ➤ DeepSeek V3.2 Exp è disponibile sull'API di prima parte di DeepSeek, DeepInfra, GMI e Novita - con DeepInfra che lo serve più velocemente a velocità di fino a 79 token al secondo.
Vedi di seguito il nostro confronto tra i fornitori per entrambi questi nuovi modelli DeepSeek:
20,18K