OpenAI:s Sora2-videogenerering är i princip falsk och till och med "skapad ur ingenting". AI behöver nu Crypto-hjälp för att verifiera äktheten. Annars kommer alla inte att kunna skilja sanning från falskt. Till skillnad från den tidigare enkla verifieringen av videoäkthet innebär detta ett behov av att verifiera äktheten hos videoinnehåll, och förfalskningsnivån har stigit till en annan nivå, och det räcker inte längre med ett enkelt hashvärde och vattenstämpel. För att hantera deepfakes behövs först standarder för innehållsuppgifter (t.ex. C2PA osv.), och på grundval av detta bäddas kryptosignaturer in i videometadata, inte bara för att registrera hashen utan även för att registrera metadata som verktyget för att skapa, tidsstämpeln, platsen och till och med skaparen. Om videon genereras av en verklig enhet (till exempel en telefonkamera) kan standarden för innehållsautentiseringsuppgifter bevisas vara autentisk i stället för AI-syntetiserad. Om den är AI-genererad, till exempel Sora2, kommer den att registreras som "AI-genererad". Krypteringens roll är att dessa referenser kan lagras på blockkedjan, liknande ett "digitalt pass". Dessutom behövs AI:s egna detekteringsverktyg, och själva analysinnehållet är inte bara metadata, som att analysera anomalier på videopixelnivå, fysiska inkonsekvenser (ansiktsuttryck, ljus- och skuggfel) eller ljudsynkroniseringsproblem för att avgöra om det är syntetiskt. Dessutom, om en angripare kringgår den osynliga vattenstämpeln (svårt, men inte helt omöjligt) eller skapar en "hybridvideo" (delvis verklig, delvis AI-genererad), är det nödvändigt att kontinuerligt iterera detekteringsalgoritmen och registrera historiken för alla ändringar genom kryptering. Ur innehållsskapares perspektiv kan Ethereum NFT:er också användas för att markera originalvideor, binda skaparidentiteter, bevisa ägande, öka trovärdigheten och förhindra att AI ersätts av deepfakes.