RT @RichardHanania: Hasta 225.000 dólares para ser escritor de un pódcast es un salario realmente alto. Dwarkesh está dispuesto a pagar por la calidad. Animo a t...
"Una de las cosas más confusas de los modelos ahora mismo: cómo reconciliar el hecho de que les va tan bien en las evaluaciones.
Y miras las evaluaciones y piensas: 'Son evaluaciones bastante duras.'
Pero el impacto económico parece estar dramáticamente por detrás.
Hay una posible explicación. Cuando la gente hacía pre-entrenamiento, la pregunta de qué datos usar entrenamiento se respondía, porque esa respuesta lo era todo. Así que no tienes que pensar si van a ser estos o aquellos datos.
Cuando la gente hace entrenamiento de RL, dicen: 'Vale, queremos tener este tipo de entrenamiento de RL para esto y aquel tipo de entrenamiento de RL para aquello.'
Dices: 'Oye, me encantaría que nuestro modelo funcionara muy bien cuando lo lancemos. Quiero que las evaluaciones queden geniales. ¿Qué entrenamiento en vida real podría ayudar en esta tarea?'
Si combinas esto con la generalización de que los modelos son realmente insuficientes, eso podría explicar mucho de lo que estamos viendo, esta desconexión entre el rendimiento de evaluación y el rendimiento real en el mundo real"
El episodio @ilyasut
0:00:00 – Explicando la irregularidad del modelo
0:09:39 - Emociones y funciones de valor
0:18:49 – ¿Qué estamos escalando?
0:25:13 – Por qué los humanos generalizan mejor que los modelos
0:35:45 – Superinteligencia de tiro directo
0:46:47 – El modelo de SSI aprenderá del despliegue
0:55:07 – Alineación
1:18:13 – "Somos claramente una empresa de la era de la investigación"
1:29:23 – Auto-juego y multiagente
1:32:42 – Sabor de investigación
Busca Dwarkesh Podcast en YouTube, Apple Podcasts o Spotify. ¡Disfrutar!