Una entrevista muy perspicaz con un empleado de $NVDA (también ex empleado de $GOOGL) sobre el tema $NVDA/ASIC: 1. No cree que la división entre $NVDA y ASIC en los próximos 5 años sea 50/50, sino más bien 80/20 o 70/30 a favor de $NVDA. Él cree que $GOOGL TPU traen ahorros de costos, pero no cree que sean tan eficientes como $NVDA GPU. Menciona que, sobre una base de token por segundo, un TPU es de alrededor de 1500-2000 tokens por segundo, mientras que un H100 está a 2000-3500 tokens por segundo en la configuración optimizada. 2. Da ejemplos de cuándo las TPU o GPU son buenas para su uso. Si ejecutara la inferencia de ChatGPT5 para consultas simples como el dibujo de imágenes, cree que las TPU serían más rentables. También menciona que están viendo que $GOOGL ofrece importantes descuentos a los clientes para que utilicen TPU. 3. Menciona que, en su opinión, la xAI de Elon está construyendo una tremenda fuerza de ventas y haciendo una disrupción masiva, y que su objetivo es vender computación y convertirse en $ORCL. 4. Dice que $NVDA en algunos casos está instalando nuevas GPU / aceleradores y recomprando los viejos a los clientes: »Si un cliente tiene A100 y quiere ir a H100, volveremos a comprar los servidores y los chips y luego los revenderemos en el extranjero.« 5. Insinúa que cree que $CRWV será un »monstruo absoluto« en los próximos 3-5 años, ya que están obteniendo prioridad de $NVDA. También insinúa algunos anuncios significativos en el próximo GTC en octubre, específicamente en el lado manufacturero de EE. UU. Encontrado en @AlphaSenseInc