Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Nie bój się wielkości
Sierpień 2025: Matematycy z Oksfordu i Cambridge opublikowali artykuł zatytułowany "Żaden LLM nie rozwiązał 554. problemu Yu Tsumury".
Przekazali ten problem o3 Pro, Gemini 2.5 Deep Think, Claude Opus 4 (Rozszerzone Myślenie) i innym modelom, z instrukcją, aby "nie przeprowadzać wyszukiwania w sieci w celu rozwiązania problemu". Żaden LLM nie był w stanie go rozwiązać.
Artykuł z dumą twierdzi: "Pokazujemy, wbrew optymizmowi na temat zdolności LLM do rozwiązywania problemów, podsycanemu przez ostatnie złote medale, że istnieje problem—554. problem Yu Tsumury—który a) mieści się w zakresie problemu IMO pod względem złożoności dowodu, b) nie jest problemem kombinatorycznym, co sprawiło trudności LLM, c) wymaga mniej technik dowodowych niż typowe trudne problemy IMO, d) ma publicznie dostępną rozwiązanie (prawdopodobnie w danych treningowych LLM), i e) nie może być łatwo rozwiązany przez jakikolwiek istniejący LLM dostępny na rynku (komercyjny lub open-source)."
(Prawdopodobnie ci matematycy nie dostali informacji, że nieopublikowane modele OpenAI i Google, które zdobyły złoto na IMO, są znacznie potężniejsze niż publicznie dostępne modele, które testowali. Ale to nie ma znaczenia.)
Październik 2025: GPT-5 Pro rozwiązuje 554. problem Yu Tsumury w 15 minut.
Moment Lee Sedola nadchodzi dla wielu.

Bartosz Naskręcki5 paź, 10:37
GPT-5-Pro rozwiązał, w zaledwie 15 minut (bez żadnego wyszukiwania w internecie), problem prezentacyjny znany jako „554. Problem Yu Tsumury”.
To pierwszy model, który całkowicie rozwiązał to zadanie. Oczekuję więcej takich wyników wkrótce — model wykazuje silne zrozumienie podstawowego rozumowania w algebrze abstrakcyjnej.



92,52K
Sholto Douglas (Anthropic):
"W ciągu ostatniego roku, RL w końcu pozwolił nam wziąć pętlę sprzężenia zwrotnego i przekształcić ją w model, który jest przynajmniej tak dobry jak najlepsi ludzie w danej dziedzinie w wąskim zakresie. I widzisz to w matematyce i kodowaniu w zawodach, które są dwiema dziedzinami najbardziej podatnymi na to - gdzie modele szybko stają się niesamowicie kompetentnymi matematykami i programistami w zawodach.
Nie ma nic zasadniczo różnego w kodzie zawodowym i matematyce. Po prostu są one naprawdę [bardziej] podatne na RL niż jakakolwiek inna dziedzina. Ale co ważne, pokazują, że nie ma intelektualnego sufitu dla modeli. Są zdolne do naprawdę trudnego rozumowania, jeśli mają odpowiednią pętlę sprzężenia zwrotnego. Uważamy, że to samo podejście generalizuje się do zasadniczo wszystkich innych dziedzin ludzkiego intelektualnego wysiłku, gdzie przy odpowiedniej pętli sprzężenia zwrotnego, te modele staną się [przynajmniej] tak dobre jak najlepsi ludzie w danej dziedzinie. A kiedy masz coś, co jest przynajmniej tak dobre jak najlepsi ludzie w danej dziedzinie, możesz po prostu uruchomić 1 000 z nich równolegle lub 100 razy szybciej i masz coś, co jest nawet tylko z tym warunkiem znacznie mądrzejsze niż jakikolwiek dany człowiek. I to całkowicie pomija kwestię, czy możliwe jest stworzenie czegoś, co jest mądrzejsze niż człowiek.
Implikacje tego są dość oszałamiające, prawda? W ciągu następnych 2 lub 3 lat, przy odpowiednich pętlach sprzężenia zwrotnego, przy odpowiednich obliczeniach itd., uważamy, że jako branża AI jesteśmy na dobrej drodze do stworzenia czegoś, co jest przynajmniej tak zdolne jak większość ludzi w większości zadań związanych z komputerami, być może tak dobrego jak wielu naszych najlepszych naukowców w ich dziedzinach. Będzie to ostre i wyboiste, będą przykłady rzeczy, których nie może [zrobić]. Ale świat się zmieni.
... Myślę, że warto krzyczeć z dachów trochę - ludzie, wszystko, co możemy zmierzyć, wydaje się poprawiać naprawdę szybko. Gdzie to nas zaprowadzi za 2 lub 3 lata? Nie mogę powiedzieć na pewno. Ale myślę, że warto wbudować w światopoglądy, że istnieje całkiem poważna szansa, że osiągniemy AGI."
115,48K
Prawdopodobnie najbardziej zaskakującym rozwojem w dziedzinie AI dla mnie w ciągu ostatnich 6 miesięcy jest to, że GPT-5 Pro, a nawet GPT-5 Thinking, mogą dokonywać bardzo małych nowatorskich odkryć naukowych.
Przypominam, że są to modele, które myślą przez <40 minut i nie są wcale tak zaawansowane jak niewydane modele wieloagentowe OpenAI (o których wiemy, że mogą działać autonomicznie przez godziny).
Łatwo zrozumieć, dlaczego OpenAI zdecydowało się uruchomić inicjatywę "OpenAI for Science" teraz, przypuszczalnie zaledwie kilka tygodni przed udostępnieniem modelu, który zdobył złoto na IMO, IOI i ICPC. Ekscytujące czasy!

Sam Altman1 paź, 10:41
naprawdę wydaje się, że to zaczyna się dziać (w małych sposób)
138,46K
Najlepsze
Ranking
Ulubione