Een zeer inzichtelijk interview met een $NVDA-medewerker (ook een voormalige $GOOGL-medewerker) over het $NVDA/ASIC-onderwerp: 1. Hij denkt niet dat de splitsing tussen $NVDA en ASICs in de komende 5 jaar 50/50 zal zijn, maar meer zoals 80/20 of 70/30 in het voordeel van $NVDA. Hij denkt dat $GOOGL TPUs kostenbesparingen opleveren, maar denkt niet dat ze zo performant zijn als $NVDA GPU's. Hij vermeldt dat op basis van tokens per seconde, een TPU rond de 1500-2000 tokens per seconde is, terwijl een H100 op 2000-3500 tokens per seconde zit in de geoptimaliseerde instelling. 2. Hij geeft voorbeelden van wanneer TPUs of GPU's goed zijn voor gebruik. Als je ChatGPT5-inferentie uitvoert voor eenvoudige vragen zoals het tekenen van een afbeelding, denkt hij dat TPUs kosteneffectiever zouden zijn. Hij vermeldt ook dat ze zien dat $GOOGL aanzienlijke kortingen biedt aan klanten om TPUs te gebruiken. 3. Hij vermeldt dat, naar zijn mening, Elon's xAI een enorme verkooporganisatie opbouwt en een enorme verstoring teweegbrengt, en dat hun doel is om rekencapaciteit te verkopen en $ORCL te worden. 4. Hij zegt dat $NVDA in sommige gevallen nieuwe GPU's/versnellers plaatst en oude terugkoopt van klanten: »Als een klant A100's heeft en ze willen overstappen naar H100's, kopen we de servers en de chips terug en verkopen ze vervolgens opnieuw in het buitenland.« 5. Hij laat doorschemeren dat hij gelooft dat $CRWV een »absolute monster« zal zijn in de komende 3-5 jaar, aangezien ze prioriteit krijgen van $NVDA. Hij hint ook naar enkele belangrijke aankondigingen op de volgende GTC in oktober, specifiek aan de Amerikaanse productiezijde. gevonden op @AlphaSenseInc