Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

The Cognitive Revolution Podcast
Illia Polosukhin (@ilblackdragon), współautor "Attention is All You Need" i założyciel @NEARProtocol, dołącza do @labenz w @cogrev_podcast, aby omówić swoją konkretną wizję przyszłości napędzanej AI.
Rozmawiają o:
* Jak asystenci kodowania AI umożliwiają "osobne oprogramowanie" - gdzie każdy może stworzyć swoją własną automatyzację zamiast korzystać z skomplikowanych, uniwersalnych narzędzi, takich jak Salesforce
* Przejściu od tradycyjnych interfejsów użytkownika do zjednoczonej warstwy inteligencji, która działa na wszystkich urządzeniach, przewiduje, czego potrzebujesz, i proaktywnie załatwia sprawy
* Jak agenci AI przekształcą rynki, łącząc bezpośrednio kupujących i sprzedających, co sprawi, że reklama i pośrednicy staną się mniej istotni
* Jak wygląda codzienne życie w erze obfitości AI - z spersonalizowaną rozrywką i ludźmi znajdującymi sens w małych niszowych społecznościach
* Delegaty AI, które głosują w imieniu posiadaczy tokenów, oraz długoterminowy cel NEAR, aby każda osoba miała własnego AI uczestniczącego w zarządzaniu
* Symbiotycznej relacji między ludźmi a ich osobistymi AI, które "dorastają razem" - gdzie AI dąży do interesów swojego człowieka, nawet w negocjacjach z innymi AI
* Pozostałych wyzwaniach w zakresie bezpieczeństwa biologicznego i potrzebie koordynacji, gdy potężne systemy AI stają się szeroko rozpowszechnione
ROZDZIAŁY:
(00:00) Sponsor: Google Gemini Notebook LM
(00:31) O odcinku
(03:33) AI przekształca rozwój oprogramowania
(14:18) Przyszłość pracy
(18:58) Zabezpieczanie blockchaina za pomocą AI (Część 1)
(19:08) Sponsorzy: Tasklet | Linear
(21:48) Zabezpieczanie blockchaina za pomocą AI (Część 2)
(33:03) Wizja społeczeństwa AI (Część 1)
(33:55) Sponsor: Shopify
(35:52) Wizja społeczeństwa AI (Część 2)
(49:14) Architektura agentów i dostosowanie
(58:30) Eksperymentowanie z zarządzaniem AI
(01:06:43) Bezpieczeństwo AI i odporność
(01:16:09) Bezpieczeństwo biologiczne i otwarte modele
(01:22:56) Koordynowanie rozwoju AI
(01:28:52) Zakończenie
38,16K
.@eoghan, CEO @intercom, oraz @fergal_reid, Chief AI Officer, dołączają do @labenz w @cogrev_podcast, aby omówić, jak zbudowali Fin—agenta obsługi klienta AI, który zwiększył wskaźnik rozwiązywania problemów z 35% do 65% w ciągu 30 miesięcy, wprowadzając jednocześnie model cenowy oparty na wynikach za 99¢ za rozwiązanie. Zgłębiają:
* Dlaczego inteligencja nie jest wąskim gardłem—GPT-4 był już wystarczająco inteligentny, a tylko kilka punktów procentowych z ich 30-punktowej poprawy pochodziło z lepszych modeli bazowych
* Inżynieria kontekstu jako prawdziwy motor napędowy: niestandardowe modele wyszukiwania, re-ranking i tysiące testów A/B w produkcji, które wykrywają zmiany wskaźnika rozwiązywania problemów na poziomie 0,1%
* Model cenowy 99¢ za rozwiązanie, który początkowo był nieopłacalny, ale osiągnął marże na poziomie oprogramowania dzięki poprawie wskaźników sukcesu i spadającym kosztom wnioskowania
* Jak Fin rozwiązał problem podwodnego zespołu wsparcia bez masowych zwolnień—spowolnienie nowych zatrudnień przy jednoczesnym przesuwaniu ludzi w górę łańcucha wartości (z wyjątkiem BPO, które są natychmiast zastępowane)
CZASOMIERZE:
(00:00) O odcinku
(03:43) Nadążanie za AI
(09:56) Ocena modeli i ewaluacji
(13:04) Uczestnicy vs. Startupy
(18:54) Ryzyko produktu i osąd (Część 1)
(19:00) Sponsorzy: Linear | AGNTCY
(21:34) Ryzyko produktu i osąd (Część 2)
(23:42) Historia zwolnień w Klarna (Część 1)
(32:11) Sponsorzy: Claude | Shopify
(36:13) Historia zwolnień w Klarna (Część 2)
(36:14) Zwiększanie wskaźnika rozwiązywania problemów
(45:00) Inteligencja nie jest wąskim gardłem
(50:10) Zamykanie luki w automatyzacji
(56:20) Dokładność ludzi vs. AI
(1:01:03) Niuanse szybkości
(1:04:48) Rozważanie zmian paradygmatów
(1:09:31) Model cenowy oparty na wynikach
(1:19:12) Luźne hackowanie i spostrzeżenia
(1:26:05) Przyjęcie AI i ambicje
(1:36:00) Zakończenie
4,51K
Zrozum psychologię i decydentów liderów AI, takich jak @sama. @FU_joehudson, coach wykonawczy i założyciel @artofaccomp, dołącza do @labenz w @CogRev_Podcast, aby omówić psychologię i podejmowanie decyzji przez badaczy i liderów AI.
Oni badają:
* Dlaczego każdy badacz AI zmaga się z pytaniem "czy robię coś dobrego dla ludzkości?", ale brakuje konsensusu co to oznacza
* Jak emocjonalne wzorce blokujące szkodzą innowacjom - oraz techniki "odblokowywania" poprzez integrację głowy/serca/intuicji
* Dlaczego zawstydzanie deweloperów AI przynosi odwrotny skutek, a wspieranie ich jak "bohaterów dających życie" działa lepiej
* Nieuchronność rozwoju AI i potrzeba pozytywnych wizji wykraczających poza czystą optymalizację inteligencji
Czas:
(00:00) O odcinku
(03:00) Tło coachingowe Joe'a
(12:40) Wzorce badań AI (Część 1)
(17:46) Sponsor: Linear
(19:15) Wzorce badań AI (Część 2) (Część 1)
(28:10) Sponsor: Oracle Cloud Infrastructure
(29:34) Wzorce badań AI (Część 2) (Część 2)
(31:54) Wyścigi i regulacje
(50:20) Etyka i wsparcie
(01:04:07) Pytania o świadomość AI
(01:21:34) Pozytywne wizje przyszłości
(01:39:12) Wspieranie deweloperów AI
(01:43:09) Zakończenie
956
Najlepsze
Ranking
Ulubione

