Aby wygenerować 1K tokenów, LLM z 100 warstwami musi przejść przez 100*1,000 = 100,000 warstw Aby wygenerować dowolną ilość tokenów, TRM wykonuje 16 kroków rozumowania o głębokości 2*7*3=42, co daje łącznie 16*42 = 672 warstwy