Escalando RL para Modelo de Pensamento em Escala de Trilhões Escalar RL é difícil! Mas essa equipe pode ter descoberto alguma coisa. Eles introduzem o Ring-1T, um modelo de raciocínio MoE de parâmetro 1T com ~ 50B parâmetros ativos por token. Ele é treinado com uma fase SFT CoT longa, uma fase RL de raciocínio de recompensas verificáveis e, em seguida, uma fase RLHF geral e apresenta três peças que fazem o RL em escala de trilhões realmente funcionar: - IcePop para estabilizar atualizações - C3PO++ para manter as GPUs ocupadas com um orçamento de token - ASystem para unificar a pilha RL de alto rendimento Em benchmarks, ele lidera pesos abertos em AIME-25, HMMT-25, ARC-AGI-1, LiveCodeBench, CodeForces e ArenaHard v2. Atinge o nível de medalha de prata no IMO-2025 usando apenas raciocínio de linguagem natural.