Aujourd'hui, j'ai en fait un peu travaillé, mais lire des articles m'ennuie, alors j'ai demandé à GPT de < chercher des articles sur ce sujet~ >. Mais s'il n'y en a pas, il devrait simplement le dire clairement, non ? Pourtant, il continue à inventer des titres qui n'existent pas, haha ! Juste ce que je voulais !! D'une manière convaincante !!!! Comme si ça pouvait exister !!!!! C'est vraiment frustrant, car cela pourrait être dû à une mauvaise connexion de l'IA, donc je dois aussi chercher sur Google Scholar ou Sci-Hub, et si je ne trouve rien, s'il s'agit d'une vraie référence, je dois m'y référer ou vérifier le IF de l'article, et si ça se chevauche trop, je dois réfléchir à quelle identité cela pourrait avoir ou changer mon sujet ;;; En cherchant, je découvre ? Que tout était un mensonge !!!! C'est dans ces moments-là que je ressens vraiment le besoin de la technologie de réduction des hallucinations de @Mira_Network. Dans le cas de Mira Network, ils adoptent une validation multi-modèle basée sur le consensus pour réduire le taux d'hallucination et assurer la fiabilité et la transparence grâce à une couche de validation basée sur la blockchain. De manière similaire, @AlloraNetwork développe un réseau d'intelligence machine distribuée basé sur zkML pour réduire cette 'fausse certitude' de l'IA. Ce système a une structure d'évaluation basée sur la perte de prédiction + la perception du contexte. Grâce à cette technologie, les IA s'évaluent mutuellement et ont une structure d'auto-amélioration. En ayant une structure où l'IA valide l'IA, ils partagent un objectif commun de minimiser les informations erronées ou les réponses fictives (hallucinations), et je pense que cette direction est le chemin pour résoudre le véritable problème de l'IA auquel nous sommes confrontés actuellement. Cet article a été rédigé après des recherches menées via la plateforme de recherche crypto @Surf_Copilot. Cette vidéo a été produite grâce à @Everlyn_ai. @auz2or @subijjjang @iinging747