Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Séb Krier
🪼 AGI beleid ontwikkeling & strategie @GoogleDeepMind | rekkid junkie, dimensionaal zweefvliegtuig, diepe ArXiv-bewoner, interstellaire voortvluchtige, onzeker | 🛸
Een paar voorzichtige, lauwe meningen over de toekomst van AI-beleid:
Tot nu toe hebben de meeste mensen in het veld zich gefocust op modellen - dat wil zeggen de R&D-kant. Ze gaan impliciet ervan uit dat het gevaarlijke/transformatieve aspect het basismodel zelf is, in plaats van hoe het is geconfigureerd, beperkt en geïntegreerd in echte systemen; dus het model wordt het relevante 'object' van regulering of toezicht. Dit kan waar of niet waar zijn, en ik ben blij dat er veel nadenken in deze richting plaatsvindt.
Maar het is even plausibel dat wat uiteindelijk net zo belangrijk is, het systeem is dat het model benut via scaffolding, tools, subagenten en meer - wat mensen meestal de 'implementatie' kant van de zaak noemen. Deze systemen/diensten zullen er heel anders uitzien, afhankelijk van de relevante gebruikers, markten en sectoren. Dit kan een paar verschillende dingen betekenen:
Ten eerste denk ik dat implementaties veel belangrijker zijn dan doorgaans wordt gesuggereerd. Dit werd enigszins geïnternaliseerd in debatten over bias, waar het duidelijk werd dat je een model niet kunt laten voldoen aan alle biases die je maar kunt bedenken, en in plaats daarvan is het betere interventiepunt bij de implementatie, gezien lokale wetten en contexten. De modelgerichte visie moedigt soms een redeneerstijl aan die losstaat van de institutionele en domeinspecifieke context waar risico's daadwerkelijk zich materialiseren.
Ten tweede, om China te verslaan of om ziekten te genezen of om hoge groeipercentages te behalen, heeft het geen zin om een superkrachtig model gewoon in je kelder te hebben. Je moet de technologie daadwerkelijk breed inzetten. En mijn gok is dat dit behoorlijk moeilijk zal zijn, om dezelfde redenen als veel westerse economieën moeite hebben om iets te bouwen (huisvesting, energie, infrastructuur, medtech, consumentenfinanciering, enz.). De 'implementatiekant' wordt verlamd door de vele legacy niet-AI-wetten die nuttige adoptie zullen vertragen. Denk aan hoe Londen nog steeds metrobestuurders heeft, ondanks dat de "capaciteit" automatiseerbaar is. Als je wilt dat AGI de samenlevingen helpt bloeien, dan moet je veel beleidsproblemen aanpakken die niet met AI te maken hebben.
Ten derde, als implementaties het belangrijkst zijn, dan is de recente obsessie over 'soevereine' AI-modellen waarschijnlijk misplaatst. Economische kracht komt voort uit het effectief inzetten van AI in je economie, niet uit het bezitten van een basismodel. Dit vereist zowel het verhelpen van implementatiebarrières (zoals hierboven) als het pragmatisch gebruiken van de beste beschikbare modellen, ongeacht de oorsprong. Breder gezien geldt dezelfde logica ook buiten de modellen zelf. Proberen om alles lokaal te onshoren, hetzij via industrieel beleid of protectionisme, negeert de basis economische realiteiten. België profiteert meer van toegang tot miljoenen boeken dan van het bezitten van drukpersen; op dezelfde manier halen geavanceerde economieën meer voordeel uit intelligente specialisatie en handel met bondgenoten dan uit kostbare pogingen tot autarkie.
Zelfs als AI een abnormale technologie is, zijn de fundamenten van hoe economieën complexe productie organiseren niet veranderd. Als dit klopt, ligt veel van het beleidswerk dat voor ons ligt in het verminderen van implementatiewrijving, het faciliteren van handel en het opbouwen van sectorale en institutionele capaciteit: altijd-al-geweest-atronaut.gif!

5,54K
Boven
Positie
Favorieten