Page 50 - Protect-it_Ausgabe_59_2021
P. 50
DEEPFAKES
RUBRIK
ist. Je akkurater der Ausleseprozess war beziehungsweise je dahin untersuchen Experten das Material auf kleinste Un-
mehr Inhalte die Künstliche Intelligenz als Trainingsmaterial gereimtheiten: Treten Artefakte im Bild auf? Stimmen Licht
zur Verfügung gestellt bekommen hat, umso realistischer ist und Schatten? Sind die Winkel und Unschärfen der Gesichts-
das Endprodukt der Manipulation. Sehr erfolgreiche Deepfa- züge korrekt? Passen Kleidung und Haare? Ist der Hautton
kes erzeugt dabei die GANS-Methode (generative adversarial natürlich? Blinzeln die dargestellten Personen wie ein echter
networks). Zwei Künstliche Intelligenzen stehen dabei quasi Mensch? Auch die Analyse der Tonspur ist eine Möglichkeit
im Wettkampf miteinander. Eine Künstliche Intelligenz er- für IT-Forensiker, ein Deepfake-Video als solches zu enttar-
zeugt dabei den Deepfake, die zweite überprüft das Resultat nen, sollten beispielsweise die im Tonsignal versteckten Zeit-
der ersten auf Plausibilität. Dabei lernt die eine Künstliche stempel nicht konsistent sein. Hoffnung setzen Experten in
Intelligenz von der anderen. Je mehr Durchgänge dabei gene- Künstliche Intelligenz, die auf das Erkennen von Deepfakes
riert werden, umso realistischer ist dabei das Ergebnis. Die KI trainiert werden soll. Ein bestehendes Beispiel dafür ist die
arbeitet bei jeder Deepfake-Produktion autark, es bedarf kei- Software Face Forensics der TU München, die nur einen
ner Nachjustierung durch den Menschen. Sollten allerdings falsch platzierten Pixel benötigt, um ein Deepfake-Video als
Informationen fehlen, kommt die Künstliche Intelligenz an solches zu enttarnen. Die Erkennungsrate der Software liegt
ihre Grenzen, da diese Daten nicht einfach aus dem Nichts bislang bei 78 Prozent.
erzeugt werden können. Generell halten Wissenschaftler das Einsetzen von digitalen
Wasserzeichen in Filmmaterial zur Verifikation von Filmma-
WIE ERKENNT MAN EINEN DEEPFAKE? terial für eine Möglichkeit, um die Echtheit von Videoinhal-
Es gibt keinen pauschalen Weg, Deepfake-Videos mit blossem ten gewährleisten zu können. Auch die Blockchain-Technolo-
Auge zu erkennen. Wenn die Videos nicht genügend Material gie wird als mögliche Sicherheitsmassnahme genannt.
zur Verfügung gehabt haben, sind manche Animationen nicht
lippensynchron, Bildbereiche unscharf oder aber Bewegungen WAS SIND DIE GEFAHREN VON DEEPFAKES?
abgehakt. Dies ist die einfachste und dankbarste Erkennungs- Wie immer bei Manipulationen können auch Deepfakes auf
möglichkeit der manipulierten Inhalte. Nach Meinung von beunruhigende und schädigende Weise eingesetzt werden.
Experten besteht jedoch die Möglichkeit, dass es nur eine Die Bandbreite reicht von Betrug, beispielsweise in Form von
Frage der Zeit sei, bis weder IT-Forensiker noch Algorithmen Social Engineering, über Propagandavideos hin zu gezielter
gut gemachte Deepfakes als solche enttarnen könnten. Bis Wahlkampfbeeinflussung und somit Gefährdung der Demo-
Hat er das wirklich
gesagt? Niemand kann es
sagen, ausser ihm selbst…
50 | www.protect-it.ch