La generazione di video Sora2 di OpenAI è praticamente indistinguibile dalla realtà, arrivando persino a "creare dal nulla". Ora l'AI ha bisogno dell'aiuto della Crypto per la verifica dell'autenticità. Altrimenti, nessuno sarà in grado di distinguere il vero dal falso. A differenza della semplice verifica della veridicità dei video di prima, qui si tratta di dover verificare la verità del contenuto video, il livello di falsificazione è aumentato, e semplici hash e filigrane non sono più sufficienti. Per affrontare i deepfake, è necessario innanzitutto uno standard di certificazione dei contenuti (come C2PA, ecc.), su questa base, inserire la firma Crypto nei metadati del video, registrando non solo l'hash, ma anche lo strumento di creazione, il timestamp, la posizione e persino i metadati del creatore. Se il video è prodotto da un dispositivo reale (come la fotocamera di uno smartphone), lo standard di certificazione dei contenuti può dimostrare che è autentico, e non generato dall'AI. Se è generato da AI come Sora2, verrà registrato come "generato da AI". La funzione della crittografia è quella di poter memorizzare queste certificazioni sulla blockchain, simile a un "passaporto digitale". Inoltre, sono necessari strumenti di rilevamento dell'AI stessa, per analizzare il contenuto non solo in base ai metadati, ma ad esempio analizzando anomalie a livello di pixel, incoerenze fisiche (espressioni facciali, errori di luce e ombra) o problemi di sincronizzazione audio, per determinare se è un contenuto sintetico. Inoltre, se un attaccante riesce a eludere le filigrane invisibili (difficile, ma non impossibile), o crea "video ibridi" (parte reale, parte generata da AI), sarà necessario iterare continuamente gli algoritmi di rilevamento e registrare tutte le modifiche storiche tramite tecnologie crittografiche. Dal punto di vista dei creatori di contenuti, è possibile utilizzare NFT su Ethereum per contrassegnare video originali, legare l'identità del creatore, dimostrare la proprietà, aumentare la credibilità e prevenire che vengano sostituiti da deepfake.