Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Rezultatele modelului de recursivitate mică (TRM) pe ARC-AGI
- ARC-AGI-1: 40%, 1,76 USD/sarcină
- ARC-AGI-2: 6,2%, 2,10 USD/sarcină
Mulțumim @jm_alexia pentru contribuția cu TRM, o cercetare bine scrisă, open source și amănunțită pentru comunitate bazată pe HRM din @makingAGI

Mulțumim @k_schuerholt pentru reproducerea acestor rezultate pentru Premiul ARC, dintre care s-au bazat pe analiza sa anterioară HRM
Punctele noastre de control ale modelului reprodus și instrucțiunile de reproducere sunt disponibile pe @huggingface
Notele noastre:
- TRM are o durată de funcționare mai mare decât HRM, chiar dacă este mai mică. Ipoteza noastră este că aceasta se datorează propagării înapoi în toate etapele, în timp ce HRM a făcut doar pași parțiali
Întrebare deschisă: Este TRM mai bun pentru că este mai inteligent? sau pentru că se antrenează mai mult timp? Dacă ați folosi calculul fix pentru ambele, performanța ar fi aceeași?
- Este TRM la fel de robust la numărul de augmentări ca HRM?
- Trecerea de la straturi liniare la atenție este interesantă, atenția este mai slabă la o sarcină mai mică. De ce?
S-ar putea să fie mai puțin eficient din punct de vedere computațional, dar de ce este mult mai rău pe Maze?
Apelul nostru pentru comunitate: Split Pre-training și inferență în TRM
În prezent, pre-antrenamentul și inferența sunt cuplate în TRM. Loturile suplimentare de sarcini trebuie să fie pre-antrenate din nou.
Acest TRM augmentat ar putea rula probabil pe Kaggle pentru ARC Prize 2025
Costuri de reproducere:
* ARC-AGI-1 Public: 9h 52m 6 * 2x8H100 * 8 USD/oră = 157,86 USD
* ARC-AGI-1 Semi-privat: 11h 23m* 2x8H100 * $8/oră = $176.38
* ARC-AGI-1 Public: 9h 35m * 3x8H100 * $8/oră = $216.58
* ARC-AGI-2 Semi-privat: 10h 30m * 3x8H100 * 8 USD/oră = 252 USD
259,53K
Limită superioară
Clasament
Favorite

