Rezultatele modelului de recursivitate mică (TRM) pe ARC-AGI - ARC-AGI-1: 40%, 1,76 USD/sarcină - ARC-AGI-2: 6,2%, 2,10 USD/sarcină Mulțumim @jm_alexia pentru contribuția cu TRM, o cercetare bine scrisă, open source și amănunțită pentru comunitate bazată pe HRM din @makingAGI
Mulțumim @k_schuerholt pentru reproducerea acestor rezultate pentru Premiul ARC, dintre care s-au bazat pe analiza sa anterioară HRM Punctele noastre de control ale modelului reprodus și instrucțiunile de reproducere sunt disponibile pe @huggingface
Notele noastre: - TRM are o durată de funcționare mai mare decât HRM, chiar dacă este mai mică. Ipoteza noastră este că aceasta se datorează propagării înapoi în toate etapele, în timp ce HRM a făcut doar pași parțiali Întrebare deschisă: Este TRM mai bun pentru că este mai inteligent? sau pentru că se antrenează mai mult timp? Dacă ați folosi calculul fix pentru ambele, performanța ar fi aceeași?
- Este TRM la fel de robust la numărul de augmentări ca HRM? - Trecerea de la straturi liniare la atenție este interesantă, atenția este mai slabă la o sarcină mai mică. De ce? S-ar putea să fie mai puțin eficient din punct de vedere computațional, dar de ce este mult mai rău pe Maze?
Apelul nostru pentru comunitate: Split Pre-training și inferență în TRM În prezent, pre-antrenamentul și inferența sunt cuplate în TRM. Loturile suplimentare de sarcini trebuie să fie pre-antrenate din nou. Acest TRM augmentat ar putea rula probabil pe Kaggle pentru ARC Prize 2025
Costuri de reproducere: * ARC-AGI-1 Public: 9h 52m 6 * 2x8H100 * 8 USD/oră = 157,86 USD * ARC-AGI-1 Semi-privat: 11h 23m* 2x8H100 * $8/oră = $176.38 * ARC-AGI-1 Public: 9h 35m * 3x8H100 * $8/oră = $216.58 * ARC-AGI-2 Semi-privat: 10h 30m * 3x8H100 * 8 USD/oră = 252 USD
259,53K