Jag gjorde faktiskt lite jobb idag Jag störde mig på att läsa tidningar, så < hittade en uppsats om detta ämne~ > jag bad GPT att göra det Men om du inte har det kan du med säkerhet säga att det inte finns någon, eller hur? Men de fortsätter att hitta på titlar som inte finns ha ha Det är precis vad jag vill!! Rimligen!!! Det är möjligt!!! Detta är verkligen irriterande eftersom AI:n kan länka felaktigt, så jag måste söka i Google Scholar eller SCI Hub, och om det inte kommer upp måste jag hänvisa till referensen om det finns en riktig referens, kontrollera uppsatsens IF och tänka på vilken typ av identitet jag kan ha om den överlappar för mycket, eller ändra mitt ämne ;;;; Om du söker? Det var en bluff som inte hade allt!!! Vid sådana här tillfällen känner jag att @Mira_Network:s teknik för att minska AI-hallucinationer verkligen är nödvändig När det gäller Mira Network är det ett projekt som använder konsensusbaserad verifiering med flera modeller för att minska hallucinationsfrekvensen och säkerställer tillförlitlighet och transparens med ett blockkedjebaserat verifieringslager På samma sätt utvecklar @AlloraNetwork ett zkML-baserat distribuerat maskinintelligensnätverk för att minska detta "falska förtroende" för AI. Systemet har en kontextmedveten + prediktiv förlustfunktionsbaserad utvärderingsstruktur, som har en struktur där AI utvärderar varandra och förbättrar sig själva Vi har en gemensam nämnare att AI försöker minimera desinformation eller fiktiva svar (hallucinationer) genom en struktur som verifierar AI, och jag tror att denna riktning är vägen till att lösa de verkliga problemen med AI som vi står inför nu Den här artikeln skrevs efter att ha genomfört forskning via kryptoforskningsplattformen @Surf_Copilot Den här videon producerades av @Everlyn_ai @auz2or @subijjjang @iinging747