Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
não tenha medo da grandeza
Julian Schrittwieser (Antrópico):
- A discussão sobre a bolha de IA em X é "muito divorciada" do que está acontecendo nos laboratórios de fronteira. "Nos laboratórios de fronteira, não estamos vendo nenhuma desaceleração do progresso."
- A IA terá um "enorme impacto econômico". As projeções de receita para OpenAI, Anthropic e Google são, na verdade, "bastante conservadoras".
- Extrapolando coisas como dados METR, no próximo ano, os modelos poderão trabalhar por conta própria em uma ampla gama de tarefas. A duração da tarefa é importante, porque desbloqueia a capacidade de um humano supervisionar uma equipe de modelos, cada um dos quais trabalha de forma autônoma por horas a fio (em vez de ter que falar com um agente a cada 10 minutos para dar feedback).
- "Extremamente provável" que a abordagem atual para treinar modelos de IA (pré-treinamento, RL) produza um sistema que possa funcionar em nível aproximadamente humano em basicamente todas as tarefas com as quais nos preocupamos em termos de produtividade.
- Sobre o movimento 37: "Acho que está bem claro que esses modelos podem fazer coisas novas." AlphaCode e AlphaTensor "provaram que você pode descobrir novos programas e algoritmos". A IA já está "absolutamente descobrindo coisas novas" e "estamos apenas subindo na escala de quão impressionantes, quão interessantes são as coisas que ela é capaz de descobrir por conta própria".
- "Altamente provável" que em algum momento do próximo ano tenhamos algumas descobertas que as pessoas concordam unanimemente que são superimpressionantes.
- A IA será capaz de fazer por si só um avanço digno de um Prêmio Nobel em 2027 ou 2028.
- Sobre a capacidade da IA de acelerar o desenvolvimento da IA: Um problema muito comum em muitos campos científicos é que se torna cada vez mais difícil fazer avanços à medida que o campo avança (ou seja, 100 anos atrás, um único cientista poderia descobrir o primeiro antibiótico por acidente, enquanto agora são necessários bilhões de dólares para descobrir um novo medicamento). O mesmo pode acontecer com a pesquisa de IA - embora a IA torne a pesquisa de nova IA mais produtiva, pode não haver uma explosão devido a novos avanços se tornando cada vez mais difíceis de encontrar.

Matt Turck24 de out. de 2025
Não entendendo o exponencial, de novo?
Minha conversa com @Mononofu - Julian Schrittwieser (@AnthropicAI, AlphaGo Zero, MuZero) - sobre o Move 37, Scaling RL, Prêmio Nobel de IA e a fronteira da IA:
00:00 - Abertura fria: "Não estamos vendo nenhuma desaceleração."
00:32 – Introdução — Conheça Julian
01:09 – O "exponencial" de dentro dos laboratórios de fronteira
04:46 - 2026–2027: agentes que trabalham um dia inteiro; Amplitude de nível de especialista
08:58 – Benchmarks versus realidade: trabalho de longo horizonte, GDP-Val, valor do usuário
10:26 - Lance 37 - o que realmente aconteceu e por que isso importava
13:55 - Nova ciência: AlphaCode / AlphaTensor → quando a IA ganha um Nobel?
16:25 – Descontinuidade versus progresso suave (e sinais de alerta)
19:08 - O pré-treino + RL nos leva até lá? (Debates AGI à parte)
20:55 - "RL do zero" de Sutton? A opinião de Julian
23:03 – O caminho de Julian: Google → DeepMind → Anthropic
26:45 – AlphaGo (aprender + pesquisar) em inglês simples
30:16 – AlphaGo Zero (sem dados humanos)
31:00 - AlphaZero (um algoritmo: Go, xadrez, shogi)
31:46 – MuZero (planejamento com um modelo de mundo aprendido)
33:23 -Lições para os agentes de hoje: pesquisa + aprendizado em escala
34:57 – Os LLMs já têm modelos de mundo implícitos?
39:02 – Por que o RL em LLMs levou tempo (estabilidade, loops de feedback)
41:43 – Computação e dimensionamento para RL – o que vemos até agora
42:35 – Fronteira de recompensas: preferências humanas, rubricas, RLVR, recompensas de processo
44:36 - Dados de treinamento RL e o "volante" (e por que a qualidade é importante)
48:02 - RL e Agentes 101 - por que RL desbloqueia robustez
50:51 – Os construtores devem usar o RL como serviço? Ou apenas ferramentas + prompts?
52:18 – O que está faltando para agentes confiáveis (capacidade versus engenharia)
53:51 - Evals & Goodhart - benchmarks internos vs externos
57:35 - Interpretabilidade mecanicista e "Golden Gate Claude"
1:00:03 - Segurança e alinhamento na Anthropic - como isso aparece na prática
1:03:48 - Empregos: complementaridade humano-IA (vantagem comparativa)
1:06:33 - Desigualdade, política e o caso de 10× produtividade → abundância
1:09:24 – Considerações finais
203,12K
Melhores
Classificação
Favoritos



