Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Rozhovor se zakladatelem společnosti Kimi, Zhilin Yangem, je venku.
Opět si můžete nechat Kimiho přeložit za vás:) je tam spousta postřehů.
Několik záběrů:
1/ Zaměření základního modelu: K2 si klade za cíl být solidním základním modelem. Zjistili jsme, že růst vysoce kvalitních dat je pomalý a multimodální data výrazně nezvyšují textové "IQ". Proto se zaměřujeme na maximalizaci hodnoty každého datového tokenu – efektivity tokenu.
2/ Přeformulování dat: U 30T tokenů je jen malá část vysoce kvalitních dat (miliardy tokenů). Přeformulujeme je tak, aby byly pro model efektivnější a zlepšily zobecnění.
3/ Agentní schopnost: Naším cílem je posílit zobecnění. Největší výzvou je zajistit, aby model byl zobecněn nad rámec konkrétních úkolů. RL toto vylepšuje oproti jemnému doladění pod dohledem (SFT).
4/ Školení nativní pro AI: Zkoumáme další způsoby trénování modelů s nativní AI. Pokud umělá inteligence dokáže provádět dobrý výzkum zarovnání, bude lépe zobecňovat nad rámec optimalizace jednotlivých úkolů.
5/ RL vs SFT: Zobecnění RL je lepší, protože se učí ze vzorků politik, ale má své limity. RL pomáhá zlepšit konkrétní úlohy, ale je těžké zobecnit na všechny scénáře bez přizpůsobených úloh.
6/ Dlouhé kontexty: Délka kontextu je klíčová, potřebujeme miliony. Výzvou je vyvážit velikost modelu a délku kontextu pro optimální výkon, protože některé architektury se zlepšují s dlouhým kontextem, ale zhoršují se s krátkými.

72,97K
Top
Hodnocení
Oblíbené