Dzisiaj trochę pracowałem, ale czytanie artykułów było dla mnie męczące, więc kazałem GPT znaleźć artykuły na ten temat~ Ale jeśli nie ma, to powinno się po prostu powiedzieć, że nie ma, prawda? Jednak ciągle tworzy tytuły, które nie istnieją, haha! Dokładnie takie, jakie chciałem!! Wiarygodnie!!!! Jakby mogły istnieć!!!!! To naprawdę denerwujące, ponieważ może to być spowodowane tym, że AI źle łączy linki, więc muszę również przeszukać Google Scholar lub Sci-Hub, a jeśli nic nie znajdę, to jeśli istnieje rzeczywista referencja, muszę się do niej odwołać lub sprawdzić IF artykułu, a jeśli jest zbyt podobna, muszę się zastanowić, jaką tożsamość może mieć, lub zmienić mój temat ;;;; Jak przeszukam? Wszystko, co znalazłem, okazało się oszustwem!!!!! W takich momentach naprawdę czuję, jak bardzo potrzebna jest technologia redukcji halucynacji AI od @Mira_Network. Mira Network przyjęła model weryfikacji oparty na konsensusie, aby zmniejszyć wskaźnik halucynacji i zapewnić wiarygodność oraz przejrzystość dzięki warstwie weryfikacji opartej na blockchainie. Podobnie @AlloraNetwork rozwija rozproszoną sieć inteligencji maszynowej opartą na zkML, aby zmniejszyć 'fałszywe przekonania' AI. Ten system ma strukturę oceny opartą na kontekście + funkcji straty przewidywania. Dzięki tej technologii AI oceniają się nawzajem i mają strukturę samodoskonalenia (self-improving). Poprzez strukturę, w której AI weryfikuje AI, mają wspólny cel minimalizacji błędnych informacji lub fikcyjnych odpowiedzi (halucynacji), a ta kierunkowość to moim zdaniem droga do rozwiązania prawdziwego problemu AI, z którym się teraz zmagamy. Ten tekst został napisany po przeprowadzeniu badań na platformie badawczej kryptowalut @Surf_Copilot. Ten film został stworzony przez @Everlyn_ai. @auz2or @subijjjang @iinging747