Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
No tengas miedo de la grandeza
Sholto Douglas (Antrópico):
"Durante el último año, RL finalmente nos ha permitido tomar un ciclo de retroalimentación y convertirlo en un modelo que es al menos tan bueno como los mejores humanos en un dominio limitado. Y lo estamos viendo con las matemáticas y el código de competencia, que son los dos dominios más modificables a esto, donde rápidamente los modelos se están convirtiendo en matemáticos de competencia y codificadores de competencia increíblemente competentes.
No hay nada intrínsecamente diferente en el código de competencia y las matemáticas. Es solo que realmente son [más] susceptibles a RL que a cualquier otro dominio. Pero lo más importante es que demuestran que no hay techo intelectual en los modelos. Son capaces de hacer un razonamiento realmente difícil dado el ciclo de retroalimentación correcto. Por lo tanto, creemos que el mismo enfoque se generaliza básicamente a todos los demás dominios del esfuerzo intelectual humano donde, dado el ciclo de retroalimentación correcto, estos modelos [serán] al menos tan buenos como los mejores humanos en una cosa determinada. Y luego, una vez que tienes algo que es al menos tan bueno como los mejores humanos en una cosa, puedes ejecutar 1,000 de ellos en paralelo o 100 veces más rápido y tienes algo que incluso con esa condición es sustancialmente más inteligente que cualquier humano dado. Y esto es dejar de lado por completo si es posible o no hacer algo que sea más inteligente que un humano.
Las implicaciones de esto son bastante asombrosas, ¿verdad? En los próximos 2 o 3 años, dados los ciclos de retroalimentación correctos, dado el cómputo correcto, etc., creemos que nosotros, como la industria de la IA en su conjunto, estamos en camino de crear algo que sea al menos tan capaz como la mayoría de los humanos en la mayoría de las tareas orientadas a la computadora, posiblemente tan bueno como muchos de nuestros mejores científicos en sus campos. Será afilado y puntiagudo, habrá ejemplos de cosas que no puede [hacer]. Pero el mundo cambiará.
... Creo que vale la pena llorar un poco a los cuatro vientos: chicos, cualquier cosa que podamos medir parece estar mejorando muy rápidamente. ¿A dónde nos lleva eso en 2 o 3 años? No puedo decirlo con certeza. Pero creo que vale la pena construir en las visiones del mundo que hay una posibilidad bastante seria de que obtengamos AGI".
74.67K
Probablemente el desarrollo más sorprendente en IA para mí en los últimos 6 meses es que GPT-5 Pro e incluso GPT-5 Thinking pueden hacer descubrimientos científicos novedosos muy pequeños.
Como recordatorio, estos son modelos que piensan durante <40 minutos y no son tan avanzados como los modelos multiagenciales inéditos de OpenAI (que sabemos que pueden funcionar de forma autónoma durante horas).
Es bastante fácil ver por qué OpenAI decidió lanzar la iniciativa "OpenAI for Science" ahora, presumiblemente solo unas semanas antes de que el modelo que ganó el oro en la OMI, el IOI y el CIPC esté disponible para el público. ¡Tiempos emocionantes!

Sam Altman1 oct, 10:41
parece que esto realmente está empezando a suceder (en pequeñas formas)
136.55K
Populares
Ranking
Favoritas