Hodně se mluví o tom, jak formátování JSON/XML/výzvy pro LLM 10x zvýší váš výstup ChatGPT, Claude, Grok atd. Ale je to 0% pravda. Model má stejné kontextové okno bez ohledu na to, zda se ptáte na Vojnu a mír nebo {"story": "Vojnu a mír"}. Lidé si myslí, že JSON/XML oklame model, protože vidí delší výstupy ve strukturovaných formátech, ale to je korelace, ne příčinná souvislost.... jen kladete lepší otázky s jasnějšími očekáváními. To, co ve skutečnosti funguje na 10x výstup, je "nudná" rada, ale tady to stejně je: Rozdělte složité požadavky na části, použijte výzvy "pokračovat" a buďte konkrétní v tom, co chcete, místo toho, abyste doufali, že značky XML/JSON nějak obejdou základní architekturu transformačních modelů.
85,29K