Кількість обчислень, які є в розпорядженні лабораторій, різко зростає. Наприклад, @OpenAI має в 14 разів більше обчислень, ніж коли він запускав GPT-4. @xAI надзвичайно швидко розвиває обчислення, і вони подвоїли обчислення, доступні між запусками Grok 3 і Grok 4. @AnthropicAI має найменше обчислень, але вони були дуже ефективними у перетворенні обчислень у дуже успішні моделі. Наприклад, Claude 3.5 був запущений з приблизно однією п'ятою обчислень, які зараз має Anthropic. Примітка: дані виключають @GoogleDeepMind, які, ймовірно, мають найбільше обчислень, хоча неясно, наскільки вони концентровані для навчання LLM. Джерело: @SemiAnalysis_