Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
DeepSeek ha lanzado V3.2 Exp con su nueva arquitectura DeepSeek Sparse Attention (DSA) que pretende reducir el impacto del escalado cuadrático de la computación con longitud de contexto
Hemos evaluado de forma independiente V3.2 Exp como un logro de inteligencia similar a DeepSeek V3.1 Terminus; DeepSeek ha cambiado al uso de V3.2 para su punto final de API principal y ha reducido los precios de la API en un >50%. Con los precios actualizados de la API de DeepSeek, el costo de ejecutar el Índice de Inteligencia de Análisis Artificial cae de $ 114 a $ 41.
DeepSeek afirma haber "alineado deliberadamente" las configuraciones de entrenamiento de V3.1 Terminus y V3.2 Exp. Coincidir con el rendimiento de V3.1 Terminus parece demostrar que los beneficios de rendimiento de la arquitectura DeepSeek Spare Attention no tienen un costo para la inteligencia.
Conclusiones clave de la evaluación comparativa:
🧠 ➤ Sin cambios en la inteligencia agregada: En el modo de razonamiento, DeepSeek V3.2 Exp obtiene una puntuación de 57 en el Índice de Inteligencia de Análisis Artificial. Vemos esto como equivalente en inteligencia a DeepSeek V3.1 Terminus (Razonamiento)
📈 ➤ No hay disminución en el razonamiento de contexto largo: A pesar de los cambios en la arquitectura de DeepSeek, V3.2 Exp (Razonamiento) parece no exhibir ninguna disminución en el razonamiento de contexto largo, lo que anota un ligero aumento en AA-LCR.
⚡ ➤ Rendimiento sin razonamiento: En el modo sin razonamiento, DeepSeek V3.2 Exp no muestra degradación en la inteligencia, igualando a DeepSeek V3.1 Terminus con una puntuación de 46 en el Índice de Inteligencia de Análisis Artificial
⚙️ ➤ Eficiencia del token: Para DeepSeek V3.2 Exp (Reasoning), el uso del token para ejecutar el Índice de Inteligencia de Análisis Artificial disminuye ligeramente de 67M a 62M en comparación con V3.1 Terminus. El uso de tokens permanece sin cambios para la variante sin razonamiento
➤ 💲Precios: DeepSeek ha reducido significativamente el precio por token para su API de origen de $ 0.56 / $ 1.68 a $ 0.28 / $ 0.42 por 1 millón de tokens de entrada / salida, una reducción del 50% y 75% en los precios de los tokens de entrada y salida, respectivamente.
Otros detalles del modelo:
©️ ➤ Licencias: DeepSeek V3.2 Exp está disponible bajo la licencia MIT
🌐 ➤ Disponibilidad: DeepSeek V3.2 Exp está disponible a través de la API de DeepSeek, que ha reemplazado a DeepSeek V3.1 Terminus. Los usuarios aún pueden acceder a DeepSeek V3.1 Terminus a través de una API temporal de DeepSeek hasta el 15 de octubre
📏 ➤ Tamaño: DeepSeek V3.2 Exp tiene 671 mil millones de parámetros totales y 37 mil millones de parámetros activos. Esto es lo mismo que todos los modelos anteriores de las series DeepSeek V3 y R1

29.02K
ServiceNow ha lanzado Apriel-v1.5-15B-Thinker, un modelo de razonamiento de pesos abiertos de 15B que lidera nuestra categoría de modelos pequeños (parámetros <40B)
💼 Descripción general: Apriel-v1.5-15B-Thinker es un modelo de razonamiento de pesos abiertos denso de 15B parámetros. Este no es el primer modelo que ServiceNow ha lanzado, pero es un salto sustancial en la inteligencia lograda en comparación con versiones anteriores
🧠 Inteligencia: El modelo obtiene una puntuación de 52 en el Índice de Inteligencia de Análisis Artificial. Esto lo pone a la par con DeepSeek R1 0528, que tiene una arquitectura de parámetros 685B mucho más grande. El modelo de ServiceNow puntúa particularmente bien dentro de comportamientos importantes para los agentes empresariales, como el seguimiento de instrucciones (62% en IFBench, por delante de gpt-oss-20B, razonamiento) y las conversiones de múltiples turnos y el uso de herramientas (68% en τ²-Bench Telecom, por delante de gpt-oss-120B, razonamiento). Esto lo hace particularmente adecuado para casos de uso de agentes, lo que probablemente fue un enfoque dado que ServiceNow está activo en el espacio de agentes empresariales
⚙️ Tokens de salida y verbosidad: El modelo produce una gran cantidad de tokens de salida incluso entre modelos de razonamiento, utilizando ~ 110 millones de tokens de razonamiento y respuesta combinados para completar el Índice de Inteligencia de Análisis Artificial
🖥️ Acceso: Ningún proveedor de inferencia sin servidor está sirviendo el modelo, pero ahora está disponible en Hugging Face para inferencia local o autoimplementación. El modelo ha sido lanzado bajo una licencia MIT, que admite un uso comercial sin restricciones
i️ Ventana de contexto: el modelo tiene una ventana de contexto nativa de 128k tokens.
¡Felicitaciones a @ServiceNowRSRCH por este impresionante resultado!

49.82K
Ray 3 de Luma Labs ocupa el puesto #2 en Texto a Video en el Artificial Analysis Video Arena, ¡solo detrás del Veo 3 de Google!
@LumaLabsAI ha lanzado Ray 3, una actualización importante de su modelo Ray 2, llegando al # 2 en Texto a Video y # 7 en Imagen a Video en las tablas de clasificación de video de análisis artificial.
Utilizando un enfoque de cadena de pensamiento, Ray 3 itera en las generaciones de video, analizándolas en cada paso para garantizar la calidad y la adherencia rápida. El modelo es compatible con las generaciones T2V e I2V con videos de hasta 10 segundos a una resolución de 1080p.
Más allá de las generaciones típicas de SDR, Ray 3 presenta soporte HDR de 16 bits, el primero en la industria. Esto permite la generación de video HDR a partir de imágenes SDR e incluso la conversión de videos SDR existentes a HDR.
Actualmente, Ray 3 solo está disponible en Luma Dream Machine, y el acceso a la API aún no está disponible.
Vea Ray 3 por sí mismo en el campo 🧵 de video de análisis artificial


9.97K
Populares
Ranking
Favoritas