Sora2 от OpenAI для генерации видео практически неотличимо от реальности, даже "создаёт из ничего". Теперь AI нуждается в помощи Crypto для проверки подлинности. В противном случае никто не сможет отличить правду от лжи. В отличие от предыдущей простой проверки подлинности видео, здесь необходимо проверить подлинность содержания видео, уровень подделки поднимается на новую ступень, простых хешей и водяных знаков уже недостаточно. Чтобы противостоять deepfake, во-первых, необходим стандарт удостоверения содержания (например, C2PA и т.д.), на основе которого криптографическая подпись будет встроена в метаданные видео, фиксируя не только хеш, но и инструменты создания, временные метки, местоположение, а также метаданные о создателе. Если видео было создано реальным устройством (например, камерой смартфона), стандарт удостоверения содержания может подтвердить его подлинность, а не AI-синтез. Если это AI-генерация, такая как Sora2, это будет зафиксировано как "AI-генерация". Роль криптографии заключается в том, что эти удостоверения могут храниться в блокчейне, подобно "цифровому паспорту". Кроме того, необходимы собственные инструменты обнаружения AI, которые анализируют само содержание, а не только метаданные, например, с помощью моделей для анализа пиксельных аномалий, физических несоответствий (выражения лиц, ошибки света и тени) или синхронизации аудио, чтобы определить, является ли это синтетическим. Кроме того, если злоумышленник обходит невидимые водяные знаки (это сложно, но не невозможно), или создает "смешанное видео" (частично реальное, частично AI-сгенерированное), необходимо постоянно обновлять алгоритмы обнаружения и фиксировать всю историю изменений с помощью криптографических технологий. С точки зрения создателей контента, также можно использовать NFT на Ethereum для маркировки оригинальных видео, связывая идентичность создателя, подтверждая право собственности, увеличивая доверие и предотвращая замену AI на deepfake.