Vandaag heb ik eigenlijk een beetje gewerkt, maar het lezen van artikelen was vervelend, dus heb ik GPT gevraagd om < zoek een artikel over dit onderwerp voor me~ > Maar als het er niet is, kan je toch gewoon duidelijk zeggen dat het er niet is? Toch blijft het steeds titels verzinnen die er niet zijn, haha. En precies in de stijl die ik wil!! Het moet er geloofwaardig uitzien!!!!! Het is echt frustrerend, omdat het kan zijn dat de AI de links verkeerd verbindt, dus moet ik ook op Google Scholar of Sci Hub zoeken, en als het er niet is, moet ik echt naar referenties kijken als die er zijn of de IF van het artikel controleren en nadenken over welke identiteit het kan hebben als het te veel overlapt, of ik moet mijn onderwerp veranderen ;;;; Als ik zoek? Het blijkt dat alles wat ik vond niet bestaat en dat het een oplichterij was!!!!! In zulke gevallen voel ik echt de noodzaak van de AI hallucination reduction technologie van @Mira_Network. In het geval van Mira Network wordt een consensus-gebaseerde multi-model validatie toegepast om de hallucinatieratio te verlagen en wordt betrouwbaarheid en transparantie verzekerd door een blockchain-gebaseerde validatielaag. Op een vergelijkbare manier ontwikkelt @AlloraNetwork een gedistribueerd machine intelligence netwerk op basis van zkML om de 'valse zekerheid' van deze AI te verminderen. Dit systeem heeft een structuur die contextuele waarneming + evaluatie op basis van verliesfunctie voorspelling omvat, en met deze technologie kunnen AI's elkaar evalueren en zichzelf verbeteren (self-improving). Door een structuur waarin AI AI valideert, hebben ze een gemeenschappelijk doel om verkeerde informatie of fictieve antwoorden (hallucinaties) tot een minimum te beperken, en ik denk dat deze richting de weg is om de echte problemen van AI waar we nu mee te maken hebben op te lossen. Dit artikel is geschreven na onderzoek via het crypto onderzoeksplatform @Surf_Copilot. Deze video is gemaakt via @Everlyn_ai. @auz2or @subijjjang @iinging747