Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
No tengas miedo de la grandeza
Por cierto, ¿te diste cuenta de que el pasante de investigación automatizado de IA de OpenAI funcionará en cientos de miles de GPUs?
Se suponía que OpenAI tendría "más de 1 millón" de GPUs para finales de 2025, así que esto es al menos ~20% del total actual de computación disponible de OpenAI.

29,92K
Julian Schrittwieser (Anthropic):
- La discusión sobre la burbuja de la IA en X está "muy divorciada" de lo que está sucediendo en los laboratorios de vanguardia. "En los laboratorios de vanguardia, no estamos viendo ninguna desaceleración del progreso."
- La IA tendrá un "impacto económico masivo". Las proyecciones de ingresos para OpenAI, Anthropic y Google son en realidad "bastante conservadoras".
- Extrapolando a partir de datos como los de METR, el próximo año, los modelos podrán trabajar por su cuenta en una amplia gama de tareas. La duración de la tarea es importante, porque desbloquea la capacidad de que un humano supervise un equipo de modelos, cada uno de los cuales trabaja de forma autónoma durante horas a la vez (en lugar de tener que hablar con un agente cada 10 minutos para darle retroalimentación).
- Es "extremadamente probable" que el enfoque actual para entrenar modelos de IA (pre-entrenamiento, RL) produzca un sistema que pueda desempeñarse a un nivel aproximadamente humano en prácticamente todas las tareas que nos importan en términos de productividad.
- Sobre el Movimiento 37: "Creo que está bastante claro que estos modelos pueden hacer cosas novedosas." AlphaCode y AlphaTensor "demostraron que se pueden descubrir programas y algoritmos novedosos". La IA está "absolutamente descubriendo cosas novedosas" ya, y "solo estamos subiendo la escala de cuán impresionantes, cuán interesantes son las cosas que puede descubrir por su cuenta."
- Es "muy probable" que en algún momento del próximo año tengamos algunos descubrimientos que la gente acuerde unánimemente que son superimpresionantes.
- La IA podrá, por su cuenta, hacer un descubrimiento que merezca un Premio Nobel en 2027 o 2028.
- Sobre la capacidad de la IA para acelerar el desarrollo de la IA: Un problema muy común en muchos campos científicos es que se vuelve cada vez más difícil hacer avances a medida que el campo progresa (es decir, hace 100 años, un solo científico podía descubrir el primer antibiótico por accidente, mientras que ahora se necesitan miles de millones de dólares para descubrir un nuevo fármaco). Lo mismo podría suceder con la investigación en IA: aunque la IA hará que la investigación de nueva IA sea más productiva, puede que no haya una explosión debido a que los nuevos avances se vuelven cada vez más difíciles de encontrar.

Matt Turck24 oct 2025
¿No entiendes el exponencial, otra vez?
Mi conversación con @Mononofu - Julian Schrittwieser (@AnthropicAI, AlphaGo Zero, MuZero) - sobre el Movimiento 37, Escalando RL, el Premio Nobel para la IA y la frontera de la IA:
00:00 - Apertura fría: “No estamos viendo ninguna desaceleración.”
00:32 - Introducción — Conoce a Julian
01:09 - El “exponencial” desde dentro de los laboratorios de frontera
04:46 - 2026–2027: agentes que trabajan un día completo; amplitud a nivel experto
08:58 - Referencias vs realidad: trabajo a largo plazo, PIB-Val, valor del usuario
10:26 - Movimiento 37 — lo que realmente sucedió y por qué importó
13:55 - Ciencia novedosa: AlphaCode/AlphaTensor → ¿cuándo gana la IA un Nobel?
16:25 - Discontinuidad vs progreso suave (y señales de advertencia)
19:08 - ¿El pre-entrenamiento + RL nos lleva allí? (debates sobre AGI aparte)
20:55 - ¿“RL desde cero” de Sutton? La opinión de Julian
23:03 - El camino de Julian: Google → DeepMind → Anthropic
26:45 - AlphaGo (aprender + buscar) en inglés sencillo
30:16 - AlphaGo Zero (sin datos humanos)
31:00 - AlphaZero (un algoritmo: Go, ajedrez, shogi)
31:46 - MuZero (planificación con un modelo de mundo aprendido)
33:23 -Lecciones para los agentes de hoy: búsqueda + aprendizaje a escala
34:57 - ¿Los LLMs ya tienen modelos de mundo implícitos?
39:02 - Por qué RL en LLMs tomó tiempo (estabilidad, bucles de retroalimentación)
41:43 - Computación y escalado para RL — lo que hemos visto hasta ahora
42:35 - Frontera de recompensas: preferencias humanas, rúbricas, RLVR, recompensas de proceso
44:36 - Datos de entrenamiento de RL y el “flywheel” (y por qué la calidad importa)
48:02 - RL & Agentes 101 — por qué RL desbloquea la robustez
50:51 - ¿Deberían los creadores usar RL como servicio? ¿O solo herramientas + indicaciones?
52:18 - ¿Qué falta para agentes confiables (capacidad vs ingeniería)?
53:51 - Evaluaciones & Goodhart — referencias internas vs externas
57:35 - Interpretabilidad mecanicista & “Golden Gate Claude”
1:00:03 - Seguridad & alineación en Anthropic — cómo se manifiesta en la práctica
1:03:48 - Empleos: complementariedad humano–IA (ventaja comparativa)
1:06:33 - Desigualdad, política y el caso por 10× productividad → abundancia
1:09:24 - Reflexiones finales
203,11K
Parte superior
Clasificación
Favoritos


