Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

The Cognitive Revolution Podcast
Illia Polosukhin (@ilblackdragon), medforfatter av «Attention is All You Need» og grunnlegger av @NEARProtocol, blir med @labenz på @cogrev_podcast for å diskutere sin konkrete visjon for en AI-drevet fremtid.
De diskuterer:
* Hvordan AI-kodeassistenter muliggjør "personlig programvare" - der alle kan bygge sin egen automatisering i stedet for å bruke komplekse, one-size-fits-all-verktøy som Salesforce
* Overgangen fra tradisjonelle brukergrensesnitt til et enhetlig intelligenslag som fungerer på tvers av alle enhetene dine, forutser hva du trenger og proaktivt får ting gjort
* Hvordan AI-agenter vil transformere markeder ved å koble kjøpere og selgere direkte, noe som gjør reklame og mellommenn mindre relevante
* Hvordan dagliglivet ser ut i en tid med AI-overflod - med personlig underholdning og folk som finner mening i små nisjesamfunn
* AI-delegater som stemmer på vegne av tokeninnehavere, og NEARs langsiktige mål om at hver enkelt skal ha sin egen AI som deltar i styringen
* Det symbiotiske forholdet mellom mennesker og deres personlige AI-er som "vokser opp sammen" - der AI-er forfølger sine menneskelige interesser selv i forhandlinger med andre AI-er
* De gjenværende utfordringene innen biosikkerhet og behovet for koordinering etter hvert som kraftige AI-systemer blir bredt distribuert
KAPITLER:
(00:00) Sponsor: Google Gemini Notebook LM
(00:31) Om episoden
(03:33) AI transformerer programvareutvikling
(14:18) Fremtidens arbeid
(18:58) Sikring av blokkjede med AI (del 1)
(19:08) Sponsorer: Tasklet | Lineær
(21:48) Sikring av blokkjede med AI (del 2)
(33:03) Visjon for et AI-samfunn (del 1)
(33:55) Sponsor: Shopify
(35:52) Visjon for et AI-samfunn (del 2)
(49:14) Agentarkitektur og justering
(58:30) Eksperimentere med AI-styring
(01:06:43) AI-sikkerhet og robusthet
(01:16:09) Biosikkerhet og åpne modeller
(01:22:56) Koordinering av AI-utvikling
(01:28:52) Outro
38,86K
.@eoghan, administrerende direktør i @intercom, og @fergal_reid, Chief AI Officer, blir med @labenz på @cogrev_podcast for å diskutere hvordan de bygde Fin – AI-kundeserviceagenten som gikk fra 35 % til 65 % oppløsningsgrad over 30 måneder, mens de var banebrytende resultatbasert prising på 99 ¢ per oppløsning. De utforsker:
* Hvorfor intelligens ikke er flaskehalsen – GPT-4 var allerede smart nok, og bare noen få prosentpoeng av deres 30-punkts forbedring kom fra bedre basismodeller
* Kontekstteknikk som den virkelige driveren: tilpassede gjenfinningsmodeller, re-rankere og tusenvis av produksjons-A/B-tester som oppdager endringer i oppløsningsfrekvensen på 0,1 %
* Prismodellen på 99¢ per oppløsning som startet ulønnsomt, men oppnådde marginer på programvarenivå gjennom forbedrede suksessrater og fallende slutningskostnader
* Hvordan Fin løste problemet med undervannsstøtteteamet uten masseoppsigelser – bremset nyansatte samtidig som de flyttet mennesker oppover i verdikjeden (unntatt BPO-er, som blir erstattet umiddelbart)
TIDSSTEMPLER:
(00:00) Om episoden
(03:43) Holde tritt med kunstig intelligens
(09:56) Evaluering av modeller og evalueringer
(13:04) Etablerte vs. oppstartsbedrifter
(18:54) Produktrisiko og skjønn (del 1)
(19:00) Sponsorer: Lineær | NØYAKTIGHET
(21:34) Produktrisiko og dømmekraft (del 2)
(23:42) Historien om Klarna-permitteringen (del 1)
(32:11) Sponsorer: Claude | Annonse Tillegg
(36:13) Historien om Klarna-permitteringen (del 2)
(36:14) Oppløsningsfrekvens for kjøring
(45:00) Intelligens er ikke flaskehalsen
(50:10) Lukke automatiseringsgapet
(56:20) Menneskelig vs. AI-nøyaktighet
(1:01:03) Nyansen av hastighet
(1:04:48) Med tanke på paradigmeendringer
(1:09:31) Resultatbasert prismodell
(1:19:12) Tilfeldig hacking og innsikt
(1:26:05) AI-adopsjon og ambisjoner
(1:36:00) Outro
4,53K
Forstå psykologien og beslutningstakerne til AI-ledere som @sama. @FU_joehudson, ledercoach og grunnlegger av @artofaccomp, blir med @labenz på @CogRev_Podcast for å diskutere psykologien og beslutningstakingen til AI-forskere og ledere.
De utforsker:
* Hvorfor alle AI-forskere kjemper med «gjør jeg godt for menneskeheten?», men mangler konsensus om hva det betyr
* Hvordan emosjonelle blokkeringsmønstre skader innovasjon - og teknikker for å "unblocking" gjennom hode/hjerte/tarm-integrasjon
* Hvorfor det å skamme AI-utviklere slår tilbake og støtte dem som "helter som føder barn" fungerer bedre
* Uunngåeligheten av AI-utvikling og behov for positive visjoner utover ren intelligensoptimalisering
Tidsstempler:
(00:00) Om episoden
(03:00) Joes trenerbakgrunn
(12:40) AI-forskningsmønstre (del 1)
(17:46) Sponsor: Lineær
(19:15) AI-forskningsmønstre (del 2) (del 1)
(28:10) Sponsor: Oracle Cloud Infrastructure
(29:34) AI-forskningsmønstre (del 2) (del 2)
(31:54) Racing og regulering
(50:20) Etikk og støtte
(01:04:07) Spørsmål om AI-bevissthet
(01:21:34) Positive fremtidsvisjoner
(01:39:12) Støtte AI-utviklere
(01:43:09) Outro
980
Topp
Rangering
Favoritter

