Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Wees niet bang voor grootsheid
Trouwens, is het je opgevallen dat de geautomatiseerde AI-onderzoeksstagiair van OpenAI op honderden duizenden GPU's zal draaien?
OpenAI zou tegen het einde van 2025 "ver boven de 1 miljoen" GPU's moeten hebben, dus dit is ten minste ~20% van de huidige totale beschikbare rekencapaciteit van OpenAI.

29,92K
Julian Schrittwieser (Anthropic):
- De discussie over de AI-bubbel op X is "zeer losgekoppeld" van wat er gebeurt in de grenslaboratoria. "In de grenslaboratoria zien we geen vertraging in de vooruitgang."
- AI zal een "massale economische impact" hebben. De omzetprognoses voor OpenAI, Anthropic en Google zijn eigenlijk "vrij conservatief".
- Door extrapolatie van dingen zoals METR-gegevens, zullen de modellen volgend jaar in staat zijn om zelfstandig te werken aan een hele reeks taken. De lengte van de taak is belangrijk, omdat het de mogelijkheid ontsluit voor een mens om een team van modellen te superviseren, waarvan elk autonoom werkt gedurende uren (in tegenstelling tot elke 10 minuten met een agent moeten praten om feedback te geven).
- "Extreem waarschijnlijk" dat de huidige aanpak voor het trainen van AI-modellen (voortraining, RL) een systeem zal opleveren dat op ongeveer menselijk niveau kan presteren in basically alle taken die we belangrijk vinden voor productiviteit.
- Over Move 37: "Ik denk dat het vrij duidelijk is dat deze modellen nieuwe dingen kunnen doen." AlphaCode en AlphaTensor "bewijzen dat je nieuwe programma's en algoritmen kunt ontdekken". AI is "absoluut al nieuwe dingen aan het ontdekken", en "we bewegen gewoon omhoog op de schaal van hoe indrukwekkend, hoe interessant de dingen zijn die het in staat is om zelf te ontdekken."
- "Zeer waarschijnlijk" dat we volgend jaar enkele ontdekkingen zullen hebben waar mensen unaniem het erover eens zijn dat ze super indrukwekkend zijn.
- AI zal in staat zijn om op eigen kracht een doorbraak te maken die het waard is om een Nobelprijs te krijgen in 2027 of 2028.
- Over het vermogen van AI om de ontwikkeling van AI te versnellen: Een zeer veelvoorkomend probleem in veel wetenschappelijke gebieden is dat het steeds moeilijker wordt om vooruitgang te boeken naarmate het veld vordert (d.w.z. 100 jaar geleden kon een enkele wetenschapper per ongeluk het eerste antibioticum ontdekken, terwijl het nu miljarden dollars kost om een nieuw medicijn te ontdekken). Hetzelfde zou kunnen gebeuren met AI-onderzoek - hoewel AI het onderzoek naar nieuwe AI productiever zal maken, kan er geen explosie zijn omdat nieuwe vooruitgangen steeds moeilijker te vinden zijn.

Matt Turck24 okt 2025
Het niet begrijpen van de exponentiële, opnieuw?
Mijn gesprek met @Mononofu - Julian Schrittwieser (@AnthropicAI, AlphaGo Zero, MuZero) - over Zet 37, Schalen van RL, Nobelprijs voor AI, en de AI-grens:
00:00 - Koude opening: “We zien geen vertraging.”
00:32 - Intro — Maak kennis met Julian
01:09 - De “exponentiële” van binnenuit grenslaboratoria
04:46 - 2026–2027: agenten die een volle dag werken; expert-niveau breedte
08:58 - Benchmarks versus realiteit: langetermijnwerk, GDP-Val, gebruikerswaarde
10:26 - Zet 37 — wat er daadwerkelijk gebeurde en waarom het belangrijk was
13:55 - Nieuwe wetenschap: AlphaCode/AlphaTensor → wanneer verdient AI een Nobelprijs?
16:25 - Discontinuïteit versus soepele vooruitgang (en waarschuwingssignalen)
19:08 - Krijgen we het daar met pre-training + RL? (AGI-debatten terzijde)
20:55 - Sutton’s “RL vanaf nul”? Julians visie
23:03 - Julians pad: Google → DeepMind → Anthropic
26:45 - AlphaGo (leren + zoeken) in gewone taal
30:16 - AlphaGo Zero (geen menselijke data)
31:00 - AlphaZero (één algoritme: Go, schaken, shogi)
31:46 - MuZero (plannen met een geleerd wereldmodel)
33:23 - Lessen voor de agenten van vandaag: zoeken + leren op schaal
34:57 - Hebben LLM's al impliciete wereldmodellen?
39:02 - Waarom RL op LLM's tijd kostte (stabiliteit, feedbackloops)
41:43 - Rekenen & schalen voor RL — wat we tot nu toe zien
42:35 - Beloningen grens: menselijke voorkeuren, rubrieken, RLVR, procesbeloningen
44:36 - RL-trainingsdata & het “flywheel” (en waarom kwaliteit belangrijk is)
48:02 - RL & Agenten 101 — waarom RL robuustheid ontgrendelt
50:51 - Moeten bouwers RL-as-a-service gebruiken? Of gewoon tools + prompts?
52:18 - Wat ontbreekt er voor betrouwbare agenten (capaciteit versus engineering)
53:51 - Evals & Goodhart — interne versus externe benchmarks
57:35 - Mechanistische interpretatie & “Golden Gate Claude”
1:00:03 - Veiligheid & afstemming bij Anthropic — hoe het in de praktijk tot uiting komt
1:03:48 - Banen: menselijke–AI-complementariteit (vergelijkend voordeel)
1:06:33 - Ongelijkheid, beleid, en de zaak voor 10× productiviteit → overvloed
1:09:24 - Afsluitende gedachten
203,12K
Boven
Positie
Favorieten


