Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aquí está el Digest de Investigación Ritual de esta semana, un boletín que cubre lo último en el mundo de los LLM y la intersección de Crypto x AI.
Con cientos de artículos publicados semanalmente, mantenerse al día con lo último es imposible. Hacemos la lectura para que tú no tengas que hacerlo.

Este documento pregunta: ¿Qué verificar? ¿Cómo verificar? ¿Y por qué verificar en absoluto?
Encuentran que el valor de la verificación depende de no tener una aplicación excesivamente rígida que descarte soluciones razonables, mientras que ignorar la verificación por completo permite que los datos de baja calidad dominen.
Variación en la Verificación: Comprendiendo la Dinámica de la Verificación en Modelos de Lenguaje Grandes
El documento estudia los factores que influyen en el éxito de la verificación a lo largo de
- la dificultad del problema
- la capacidad de generación de los generadores
- la capacidad de generación de los verificadores.

Encuentran que:
- Los verificadores son más propensos a reconocer soluciones correctas en problemas fáciles
- Los errores cometidos por generadores débiles son más fáciles de detectar que los cometidos por generadores fuertes
- La capacidad de generación del verificador se correlaciona con el rendimiento en la dificultad del problema.
Aprendizaje por refuerzo en datos de preentrenamiento
El artículo propone RLPT, que escala el aprendizaje por refuerzo en datos de preentrenamiento. Proponen un objetivo de razonamiento de siguiente segmento que recompensa a los LLM por predecir correctamente el siguiente segmento dado el contexto anterior.

Experimentos extensivos en razonamiento de dominio general y matemático muestran que RLPT mejora sustancialmente el rendimiento y exhibe una tendencia de escalado favorable, y demuestran además que RLPT proporciona una base sólida para el posterior RLVR.

ARE: Ampliando Entornos y Evaluaciones de Agentes
Este documento propone Entornos de Investigación de Agentes Meta (ARE), una plataforma que apoya orquestaciones, creación de entornos y conexión de aplicaciones para el desarrollo y evaluación de agentes.

El documento también presenta Gaia2, una evaluación para agentes. Gaia2 está compuesto por 1,120 escenarios verificables y anotados que tienen lugar en un entorno móvil, imitando un teléfono inteligente con aplicaciones como correo electrónico, mensajería y calendario. Encuentran que gpt-5 tiene el mejor rendimiento.

Síguenos en @ritualdigest para más información sobre todo lo relacionado con la investigación en cripto x IA, y
@ritualnet para aprender más sobre lo que Ritual está construyendo.
7,21K
Parte superior
Clasificación
Favoritos