Сегодня я немного поработал, но чтение статей мне не понравилось, поэтому я сказал GPT: < найди мне статьи на такую тему~ > Но если ничего нет, он мог бы просто сказать, что ничего нет, верно? Но он продолжает придумывать несуществующие названия ㅋㅋㅋㅋ И именно такие, какие мне нужны!! Убедительно!!!! Как будто они существуют!!!!! Это действительно очень раздражает, потому что, возможно, AI неправильно связывает ссылки, поэтому мне нужно искать в Google Scholar или Sci Hub, и если ничего не выходит, то если есть настоящая ссылка, я должен на нее сослаться или проверить IF статьи, и если слишком много совпадений, я должен подумать, какую идентичность это может иметь, или изменить свою тему ;;;; Если поискать? Все это было обманом!!!!! В такие моменты я действительно чувствую необходимость в технологии снижения галлюцинаций AI от @Mira_Network. В случае Mira Network проект использует основанную на консенсусе многомодельную верификацию, чтобы снизить уровень галлюцинаций и обеспечить надежность и прозрачность с помощью блокчейн-верификационного слоя. Аналогично, @AlloraNetwork разрабатывает распределенную сеть машинного интеллекта на основе zkML, чтобы уменьшить 'ложную уверенность' AI. Эта система имеет структуру оценки на основе потерь предсказания + осознания контекста. С помощью этой технологии AI оценивают друг друга и имеют структуру самоулучшения (self-improving). У них есть общая цель минимизировать неправильную информацию или вымышленные ответы (галлюцинации) через структуру, где AI проверяет AI, и я считаю, что это направление действительно решает настоящие проблемы AI, с которыми мы сталкиваемся сейчас. Эта статья была написана после исследования на крипто-исследовательской платформе @Surf_Copilot. Это видео было создано с помощью @Everlyn_ai. @auz2or @subijjjang @iinging747