Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Uavhengig analyse av AI-modeller og vertsleverandører - velg den beste modellen og API-leverandøren for ditt bruksområde
Resonneringsmodeller er dyre å kjøre med tradisjonelle benchmarks, men blir ofte billigere i agentiske arbeidsflyter ettersom de kommer til svar i færre svinger
Gjennom 2025 har vi sett databehandling på testtid øke kostnadene for grensebasert intelligens, men med agentiske arbeidsflyter er det en viktig forskjell: å komme raskt til svaret kan redusere antall svinger til tross for at hver sving koster mer.

9,74K
Tilstanden til DeepSeek-modeller: DeepSeek lanserte sine nye V3.1 Terminus og V3.2 Exp hybride resonneringsmodeller i rask rekkefølge i september, og tok meningsfulle skritt i både intelligens og kostnadseffektivitet
Begge modellene kan brukes i resonnerings- og ikke-resonnerende modus, og er ment å erstatte både de tidligere V3- og R1-modellene. DeepSeek V3.1 Terminus hoppet 4 poeng høyere på Artificial Analysis Intelligence Index enn den originale V3.1-utgivelsen uten vesentlig flere tokens, og V3.2 Experimental beholdt de fleste av disse gevinstene samtidig som de reduserte kostnadene per token betydelig på grunn av DeepSeeks eksperimentelle nye arkitektur.
DeepSeek V3.1 Terminus og V3.2 Exp scorer på samme måte i kunstig analyse, med V3.1 Terminus som kommer inn ett poeng over V3.2 Exp. Begge er materialoppgraderinger til tidligere V3- og R1-modeller.
En rekke leverandører betjener begge modellene, med tilgjengeligheten av V3.2 som fortsatt utvides:
➤ DeepSeek V3.1 Terminus er tilgjengelig på SambaNova, DeepInfra, Fireworks, GMI og Novita, med @SambaNovaAI som tilbyr utgangshastigheter på ~250 tokens per sekund (rundt 10 ganger raskere enn DeepSeek førsteparts slutning)
➤ DeepSeek V3.2 Exp er tilgjengelig på DeepSeeks førsteparts API, DeepInfra, GMI og Novita - med DeepInfra som serverer den raskest med hastigheter på opptil 79 tokens per sekund



20,17K
Z ais oppdaterte GLM 4.6 (Reasoning) er en av de mest intelligente modellene med åpne vekter, med nær DeepSeek V3.1 (Reasoning) og Qwen3 235B 2507 (Reasoning) nivå intelligens
🧠 Viktige tips om benchmarking av intelligens:
➤ Resonnementmodellytelse: GLM 4.6 (resonnement) scorer 56 på Artificial Analysis Intelligence Index, opp fra GLM 4.5s poengsum på 51 i resonnementmodus
➤ Ikke-resonnerende modellytelse: I ikke-resonnerende modus oppnår GLM 4.6 en poengsum på 45, og plasserer den 2 poeng foran GPT-5 (minimal, ikke-resonnement)
➤ Token-effektivitet: Z ai har økt GLMs evalueringsscore samtidig som den har redusert utdatatokens. For GLM 4.6 (resonnement) ser vi en vesentlig nedgang på 14 % i tokenbruk for å kjøre Artificial Analysis Intelligence Index fra 100 millioner til 86 millioner, sammenlignet med GLM 4.5 (resonnement). Dette er forskjellig fra andre modelloppgraderinger vi har sett der økning i intelligens ofte er korrelert med økning i bruk av utdatatoken. I ikke-resonnerende modus bruker GLM 4.6 12 millioner utdatatokener for Artificial Analysis Intelligence Index
Andre modelldetaljer:
➤ 🪙 Kontekstvindu: 200K token-kontekst. Dette er større sammenlignet med GLM 4.5s kontekstvindu på 128K tokens
➤ 📏 Størrelse: GLM 4.6 har 355B totale parametere og 32B aktive parametere - dette er det samme som GLM 4.5. For selvdistribusjon vil GLM 4.6 kreve ~710 GB minne for å lagre vektene i opprinnelig BF16-presisjon og kan ikke distribueres på en enkelt NVIDIA 8xH100-node (~640 GB minne)
➤ ©️ Lisensiering: GLM 4.6 er tilgjengelig under MIT-lisensen
➤ 🌐 Tilgjengelighet: GLM 4.6 er tilgjengelig på Z ais førsteparts API og flere tredjeparts APIer som DeepInfra (FP8), Novita (BF16), GMI Cloud (BF16) og Parasail (FP8)

41,86K
Topp
Rangering
Favoritter