Mye snakk om hvordan JSON/XML-formatering/forespørsler for LLM-er vil 10x utdataene dine av ChatGPT, Claude, Grok etc. Men det er 0% sant. Modellen har samme kontekstvindu enten du ber om krig og fred eller {"story": "Krig og fred"}. Folk tror JSON/XML lurer modellen fordi de ser lengre utganger i strukturerte formater, men det er korrelasjon, ikke årsakssammenheng.... du stiller bare bedre spørsmål med klarere forventninger. Det som faktisk fungerer til 10x utgang er "kjedelige" råd, men her er det uansett: Å dele komplekse forespørsler i biter, bruke "fortsett"-ledetekster og være spesifikk om hva du vil i stedet for å håpe at XML/JSON-tagger på en eller annen måte vil omgå den grunnleggende arkitekturen til transformatormodeller.
85,31K