Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Há muita conversa sobre como a formatação/prompt em JSON/XML para LLMs irá multiplicar por 10 a sua produção com o ChatGPT, Claude, Grok, etc.
Mas isso é 0% verdade.
O modelo tem a mesma janela de contexto, quer você esteja pedindo Guerra e Paz ou {"story": "Guerra e Paz"}.
As pessoas pensam que JSON/XML engana o modelo porque veem saídas mais longas em formatos estruturados, mas isso é correlação, não causação... você está apenas fazendo perguntas melhores com expectativas mais claras.
O que realmente funciona para multiplicar por 10 a produção é um conselho "chato", mas aqui está de qualquer forma:
Dividir pedidos complexos em partes, usar prompts de "continuar" e ser específico sobre o que você quer, em vez de esperar que tags XML/JSON de alguma forma contornem a arquitetura fundamental dos modelos de transformadores.
87,48K
Top
Classificação
Favoritos