OpenAIs Sora2-videogenerering er i utgangspunktet falsk, og til og med "skapt ut av ingenting". AI trenger nå Crypto-hjelp for å verifisere autentisitet. Ellers vil ikke alle være i stand til å skille sannheten fra det falske. I motsetning til den forrige enkle verifiseringen av videoautentisitet, innebærer dette behovet for å verifisere ektheten til videoinnhold, og nivået av forfalskning har steget til et annet nivå, og enkel hash-verdi og vannmerke er ikke lenger nok. For å håndtere deepfakes er det først nødvendig med standarder for innholdslegitimasjon (som C2PA, etc.), og på dette grunnlaget er kryptosignaturer innebygd i videometadataene, ikke bare opptak av hashen, men også opptak av metadata som opprettelsesverktøyet, tidsstempel, plassering og til og med skaperen. Hvis videoen genereres av en ekte enhet (for eksempel et telefonkamera), kan standarden for innholdslegitimasjon bevises å være autentisk i stedet for AI-syntetisert. Hvis det er AI-generert som Sora2, vil det bli registrert som "AI-generert". Krypteringens rolle er at disse legitimasjonene kan lagres på blokkjeden, på samme måte som et "digitalt pass". I tillegg trengs også AIs egne deteksjonsverktøy, og selve analyseinnholdet er ikke bare metadata, som å analysere anomalier på videopikselnivå, fysiske inkonsekvenser (ansiktsuttrykk, lys- og skyggefeil) eller lydsynkroniseringsproblemer for å avgjøre om det er syntetisk. I tillegg, hvis en angriper omgår det usynlige vannmerket (vanskelig, men ikke helt umulig), eller lager en "hybridvideo" (delvis ekte, delvis AI-generert), er det nødvendig å kontinuerlig iterere deteksjonsalgoritmen og registrere historien til alle modifikasjoner gjennom kryptering. Fra innholdsskapernes perspektiv kan Ethereum NFT-er også brukes til å merke originale videoer, binde skaperidentiteter, bevise eierskap, øke troverdigheten og forhindre at AI blir erstattet av deepfakes.