OpenAIs Sora2 Videoerzeugung ist im Grunde genommen täuschend echt, sogar "aus dem Nichts". AI benötigt jetzt Crypto, um die Echtheit zu überprüfen. Andernfalls können die Leute nicht zwischen wahr und falsch unterscheiden. Im Gegensatz zur früheren einfachen Überprüfung der Echtheit von Videos geht es hier darum, die Echtheit des Videoinhalts zu überprüfen, was die Fälschungsebene auf ein neues Niveau hebt; einfache Hash-Werte und Wasserzeichen reichen nicht mehr aus. Um gegen Deepfakes vorzugehen, ist es notwendig, Standards für Inhaltszertifikate (wie C2PA usw.) zu schaffen. Auf dieser Grundlage sollten Crypto-Signaturen in die Metadaten des Videos eingebettet werden, die nicht nur den Hash, sondern auch das Erstellungswerkzeug, Zeitstempel, Standort und sogar Metadaten des Erstellers aufzeichnen. Wenn das Video von einem echten Gerät (z. B. einer Smartphone-Kamera) erzeugt wurde, kann der Inhaltszertifikatsstandard die Echtheit nachweisen und nicht, dass es AI-generiert ist. Wenn es sich um AI-generierte Inhalte wie Sora2 handelt, wird dies als "AI-generiert" aufgezeichnet. Die Rolle der Verschlüsselung besteht darin, diese Zertifikate auf der Blockchain zu speichern, ähnlich wie ein "digitaler Reisepass". Darüber hinaus sind auch eigene Erkennungstools der AI erforderlich, um den Inhalt selbst zu analysieren und nicht nur die Metadaten, zum Beispiel durch die Analyse von pixelgenauen Anomalien, physikalischen Inkonsistenzen (Gesichtsausdrücke, Licht- und Schattenfehler) oder Audio-Synchronisationsproblemen, um zu beurteilen, ob es sich um ein synthetisches Video handelt. Darüber hinaus, wenn Angreifer unsichtbare Wasserzeichen umgehen (was schwierig, aber nicht unmöglich ist) oder "mischbare Videos" (teilweise echt, teilweise AI-generiert) erstellen, müssen die Erkennungsalgorithmen kontinuierlich weiterentwickelt werden, und alle Änderungen müssen durch Verschlüsselungstechnologie dokumentiert werden. Aus der Perspektive der Inhaltsanbieter können auch Ethereum-NFTs verwendet werden, um originale Videos zu kennzeichnen, die Identität des Erstellers zu verknüpfen, das Eigentum nachzuweisen, die Glaubwürdigkeit zu erhöhen und zu verhindern, dass sie durch AI in Deepfakes ersetzt werden.