向 ChatGPT 或 Perplexity 或任何你使用的工具提出一個複雜的問題,你已經知道答案。通常我發現它會無中生有地拉出統計數據,當你質疑這些數據時,它最終承認找不到這些所謂數據的基礎或記錄。 我們在依賴這些 AI 模型產生絕對真理時必須小心。它們尚未完善,但我一次又一次地看到人們發佈重複的錯誤資訊,因為 AI 告訴他們這是真理,而沒有進行事實核查。 這裡的教訓是:始終對 AI 的回答進行事實核查。深入挖掘,不要把它吐出的所有內容都當作真理。