DeepSeek モデルの現状: DeepSeek は、新しい V3.1 Terminus と V3.2 Exp ハイブリッド推論モデルを 9 月に立て続けに発表し、インテリジェンスとコスト効率の両方で有意義な一歩を踏み出しました どちらのモデルも推論モードと非推論モードで使用でき、以前の V3 モデルと R1 モデルの両方を置き換えることを目的としています。DeepSeek V3.1 Terminus は、トークンを大幅に増やさずに元の V3.1 リリースよりも人工分析知能指数で 4 ポイント上昇し、V3.2 Experimental は、DeepSeek の実験的な新しいアーキテクチャによりトークンあたりのコストを大幅に削減しながら、これらの利益のほとんどを維持しました。 DeepSeek V3.1 TerminusとV3.2 Expは、人工分析で同様のスコアを獲得し、V3.1 TerminusはV3.2 Expを1ポイント上回っています。どちらも以前の V3 および R1 モデルへの重要なアップグレードです。 さまざまなプロバイダーが両方のモデルにサービスを提供しており、V3.2 の可用性は引き続き拡大しています。 ➤ DeepSeek V3.1 Terminus は、SambaNova、DeepInfra、Fireworks、GMI、Novita で利用でき、@SambaNovaAI は毎秒 ~250 トークンの出力速度を提供します (DeepSeek のファーストパーティ推論の約 10 倍) ➤ DeepSeek V3.2 Expは、DeepSeekのファーストパーティAPI、DeepInfra、GMI、およびNovitaで利用でき、DeepInfraは毎秒最大79トークンの速度で最速で提供します
これらの新しいDeepSeekモデルの両方のプロバイダーの比較については、以下を参照してください。
20.21K