Ilość mocy obliczeniowej, jaką mają laboratoria, rośnie w dramatyczny sposób. Na przykład, @OpenAI ma 14 razy więcej mocy obliczeniowej niż w momencie uruchomienia GPT-4. @xAI rośnie w ekstremalnie szybkim tempie, a ich moc obliczeniowa podwoiła się między premierami Grok 3 a Grok 4. @AnthropicAI ma najmniej mocy obliczeniowej, ale byli bardzo efektywni w przekształcaniu mocy obliczeniowej w bardzo udane modele. Na przykład, Claude 3.5 został uruchomiony z około jedną piątą mocy obliczeniowej, którą Anthropic ma teraz. Uwaga: dane nie obejmują @GoogleDeepMind, które prawdopodobnie ma najwięcej mocy obliczeniowej, chociaż nie jest jasne, jak skoncentrowana jest ona na szkoleniu LLM. Źródło: @SemiAnalysis_