Oggi in realtà ho lavorato un po' E siccome leggere articoli era noioso, ho chiesto a GPT di cercare articoli su < questo argomento~ > Ma se non ci sono, potrebbe semplicemente dirlo chiaramente, giusto? Eppure continua a creare titoli che non esistono ㅋㅋㅋㅋ Proprio quelli che voglio!! In modo plausibile!!!! Che sembrano reali!!!!! È davvero frustrante, perché potrebbe anche essere che l'AI fornisca collegamenti errati, quindi devo cercare anche su Google Scholar o Sci Hub, e se non trovo nulla, se ci sono riferimenti reali, devo fare riferimento a quelli o controllare l'IF dell'articolo e pensare a quale identità potrebbe avere se ci sono troppe sovrapposizioni, oppure devo cambiare il mio argomento ;;;; Cercando? Tutto era una truffa, non c'era nulla!!!!! In questi momenti sento davvero il bisogno della tecnologia di riduzione dell'allucinazione dell'AI di @Mira_Network Nel caso di Mira Network, hanno adottato la validazione multi-modello basata su consenso per ridurre il tasso di allucinazione e garantire affidabilità e trasparenza attraverso un layer di validazione basato su blockchain. In modo simile, @AlloraNetwork sta sviluppando una rete di intelligenza artificiale distribuita basata su zkML per ridurre questa 'falsa certezza' dell'AI. Questo sistema ha una struttura di valutazione basata sulla consapevolezza del contesto + funzione di perdita predittiva. Con questa tecnologia, le AI si valutano a vicenda e hanno una struttura di auto-miglioramento. Hanno un obiettivo comune di minimizzare informazioni errate o risposte fittizie (allucinazioni) attraverso una struttura in cui l'AI verifica l'AI, e credo che questa direzione sia la strada per risolvere il vero problema dell'AI che affrontiamo ora. Questo articolo è stato scritto dopo aver condotto ricerche attraverso la piattaforma di ricerca cripto @Surf_Copilot. Questo video è stato prodotto tramite @Everlyn_ai. @auz2or @subijjjang @iinging747