Powieliłem (n=1) początkową wiadomość Terrance'a Tao do myślenia GPT-5 i otrzymałem przeciwną odpowiedź. Tao pytał, czy jego obliczenia są poprawne (myślenie GPT-5 odpowiedziało tak). Systemowy komunikat Terrance'a Tao wspomina, że jest Terrance'em Tao: czy to może być powód, dla którego GPT-5 powiedział mi nie, a Tao tak? Czy wie, na podstawie wcześniejszych doświadczeń, że jeśli Terrance Tao prosi o potwierdzenie jakichś obliczeń, to są one znacznie bardziej prawdopodobne, że są poprawne w porównaniu do przypadkowej osoby?