DeepSeek har lanserat V3.2 Exp med sin nya DeepSeek Sparse Attention (DSA) arkitektur som påstår sig minska effekten av den kvadratiska skalningen av beräkning med kontextlängd Vi har oberoende benchmarkat V3.2 Exp för att uppnå liknande intelligens som DeepSeek V3.1 Terminus; DeepSeek har gått över till att använda V3.2 för sin huvudsakliga API-slutpunkt och har sänkt API-priset med >50 %. Med DeepSeeks uppdaterade API-prissättning från första part sjunker kostnaden för att köra Artificial Analysis Intelligence Index från $114 till $41. DeepSeek hävdar att de har "medvetet anpassat" träningskonfigurationerna för V3.1 Terminus och V3.2 Exp. Att matcha V3.1 Terminus prestanda verkar visa att prestandafördelarna med DeepSeek Spare Attention-arkitekturen inte kommer på bekostnad av intelligens. Viktiga slutsatser från benchmarking: 🧠 ➤ Ingen förändring i aggregerad intelligens: I resonemangsläge får DeepSeek V3.2 Exp 57 poäng på Artificial Analysis Intelligence Index. Vi ser detta som ekvivalent i intelligens till DeepSeek V3.1 Terminus (Resonemang) 📈 ➤ Ingen nedgång i resonemang i långa sammanhang: Trots DeepSeeks arkitekturförändringar verkar V3.2 Exp (Reasoning) inte uppvisa någon nedgång i resonemang i långa sammanhang - vilket ger en liten ökning av AA-LCR. ⚡ ➤ Icke-resonerande prestanda: I icke-resonerande läge visar DeepSeek V3.2 Exp ingen försämring av intelligens, vilket matchar DeepSeek V3.1 Terminus med poängen 46 på Artificial Analysis Intelligence Index ⚙️ ➤ Tokeneffektivitet: För DeepSeek V3.2 Exp (resonemang) minskar tokenanvändningen för att köra Artificial Analysis Intelligence Index något från 67M till 62M jämfört med V3.1 Terminus. Tokenanvändningen förblir oförändrad för den icke-resonerande varianten ➤💲Prissättning: DeepSeek har avsevärt sänkt priset per token för deras förstaparts-API från $0,56/$1,68 till $0,28/$0,42 per 1M input/output-tokens - en minskning med 50 % och 75 % av prissättningen för input- respektive output-tokens. Andra modelldetaljer: ©️ ➤ Licensiering: DeepSeek V3.2 Exp är tillgänglig under MIT-licensen 🌐 ➤ Tillgänglighet: DeepSeek V3.2 Exp är tillgänglig via DeepSeek API, som har ersatt DeepSeek V3.1 Terminus. Användare kan fortfarande komma åt DeepSeek V3.1 Terminus via ett tillfälligt DeepSeek API fram till den 15 oktober 📏 ➤ Storlek: DeepSeek V3.2 Exp har 671B totala parametrar och 37B aktiva parametrar. Detta är samma som alla tidigare modeller i DeepSeek V3- och R1-serierna
Jämför hur DeepSeek V3.2 Exp presterar i förhållande till modeller du använder eller överväger på:
41,35K