A geração de vídeo Sora2 da OpenAI é basicamente falsa e até "criada do nada". A IA agora precisa da ajuda da Crypto para verificar a autenticidade. Caso contrário, nem todos serão capazes de distinguir a verdade da falsa. Ao contrário da verificação simples anterior da autenticidade do vídeo, isso envolve a necessidade de verificar a autenticidade do conteúdo do vídeo, e o nível de falsificação subiu para outro nível, e o simples valor de hash e a marca d'água não são mais suficientes. Para lidar com deepfakes, primeiro são necessários padrões de credenciais de conteúdo (como C2PA, etc.) e, com base nisso, as assinaturas criptográficas são incorporadas aos metadados do vídeo, não apenas gravando o hash, mas também registrando metadados como a ferramenta de criação, carimbo de data/hora, localização e até mesmo o criador. Se o vídeo for gerado por um dispositivo real (como uma câmera de telefone), o padrão de credencial de conteúdo pode ser comprovado como autêntico em vez de sintetizado por IA. Se for gerado por IA, como Sora2, será registrado como "gerado por IA". O papel da criptografia é que essas credenciais podem ser armazenadas no blockchain, semelhante a um "passaporte digital". Além disso, as próprias ferramentas de detecção da IA também são necessárias, e o conteúdo da análise em si não é simplesmente metadados, como a análise de anomalias no nível do pixel do vídeo, inconsistências físicas (expressões faciais, erros de luz e sombra) ou problemas de sincronização de áudio para determinar se é sintético. Além disso, se um invasor ignorar a marca d'água invisível (difícil, mas não completamente impossível) ou criar um "vídeo híbrido" (parcialmente real, parcialmente gerado por IA), é necessário iterar continuamente o algoritmo de detecção e registrar o histórico de todas as modificações por meio de criptografia. Do ponto de vista dos criadores de conteúdo, os NFTs Ethereum também podem ser usados para marcar vídeos originais, vincular identidades de criadores, provar propriedade, aumentar a credibilidade e impedir que a IA seja substituída por deepfakes.