A quantidade de computação que os laboratórios têm está a crescer dramaticamente. Por exemplo, @OpenAI tem 14 vezes mais computação do que quando lançou o GPT-4. @xAI está a crescer a computação de forma extremamente rápida, e eles duplicaram a computação disponível entre os lançamentos do Grok 3 e do Grok 4.
@AnthropicAI tem a menor computação, mas têm sido muito eficientes em converter computação em modelos altamente bem-sucedidos. Por exemplo, o Claude 3.5 foi lançado com cerca de um quinto da computação que a Anthropic tem agora.
Nota: os dados excluem @GoogleDeepMind, que provavelmente tem a maior computação, embora não esteja claro quão concentrada está para o treinamento de LLM.
Fonte: @SemiAnalysis_