De fapt, am lucrat puțin astăzi Am fost deranjat să citesc lucrări, așa că < găsit o lucrare pe acest subiect ~ > i-am cerut GPT să o facă Dar dacă nu o ai, poți spune cu siguranță că nu există, nu? Dar ei continuă să inventeze titluri care nu există ha ha Exact asta vreau!! Plauzibil!!! Este posibil!!! Acest lucru este cu adevărat enervant, deoarece inteligența artificială poate lega incorect, așa că trebuie să caut Google Scholar sau SCI Hub, iar dacă nu apare, trebuie să mă refer la referință dacă există o referință reală, să verific IF al lucrării și să mă gândesc la ce fel de identitate pot avea dacă se suprapune prea mult sau să-mi schimb subiectul ;;;; Dacă cauți? A fost o înșelătorie care nu avea totul!!! În astfel de momente, simt că tehnologia de reducere a halucinațiilor AI @Mira_Network este cu adevărat necesară În cazul rețelei Mira, este un proiect care adoptă verificarea multi-model bazată pe consens pentru a reduce rata de halucinații și asigură fiabilitatea și transparența cu un strat de verificare bazat pe blockchain În mod similar, @AlloraNetwork dezvoltă o rețea distribuită de inteligență artificială bazată pe zkML pentru a reduce această "falsă încredere" în AI. Sistemul are o structură de evaluare bazată pe funcție de pierdere conștientă de context + predictivă, care are o structură în care IA se evaluează reciproc și se auto-îmbunătățesc Avem un punct comun că AI încearcă să minimizeze dezinformarea sau răspunsurile fictive (halucinații) printr-o structură care verifică AI, și cred că această direcție este calea de a rezolva problemele reale ale AI cu care ne confruntăm acum Acest articol a fost scris după efectuarea unei cercetări prin intermediul platformei de cercetare cripto @Surf_Copilot Acest videoclip a fost produs de @Everlyn_ai @auz2or @subijjjang @iinging747