A Meta acabou de lançar este artigo que derrama o molho secreto do aprendizado por reforço (RL) em LLMs. Ele apresenta uma receita de RL, usa 400.000 horas de GPU e postula uma lei de dimensionamento para desempenho com mais computação em RL, como as leis clássicas de dimensionamento de pré-treinamento. Leitura obrigatória para nerds de IA.
Fonte:
102,65K