Page 50 - Protect-it_Ausgabe_59_2021
P. 50

DEEPFAKES
         RUBRIK



























         ist.  Je akkurater der Ausleseprozess war beziehungsweise je   dahin untersuchen Experten das Material auf kleinste Un-
         mehr Inhalte die Künstliche Intelligenz als Trainingsmaterial   gereimtheiten: Treten Artefakte im Bild auf? Stimmen Licht
         zur Verfügung gestellt bekommen hat, umso realistischer ist   und Schatten? Sind die Winkel und Unschärfen der Gesichts-
         das Endprodukt der Manipulation. Sehr erfolgreiche Deepfa-  züge korrekt? Passen Kleidung und Haare? Ist der Hautton
         kes erzeugt dabei die GANS-Methode (generative adversarial   natürlich? Blinzeln die dargestellten Personen wie ein echter
         networks). Zwei Künstliche Intelligenzen stehen dabei quasi   Mensch? Auch die Analyse der Tonspur ist eine Möglichkeit
         im Wettkampf miteinander. Eine Künstliche Intelligenz er-  für IT-Forensiker, ein Deepfake-Video als solches zu enttar-
         zeugt dabei den Deepfake, die zweite überprüft das Resultat   nen, sollten beispielsweise die im Tonsignal versteckten Zeit-
         der ersten auf Plausibilität. Dabei lernt die eine Künstliche   stempel nicht konsistent sein. Hoffnung setzen Experten in
         Intelligenz von der anderen. Je mehr Durchgänge dabei gene-  Künstliche Intelligenz, die auf das Erkennen von Deepfakes
         riert werden, umso realistischer ist dabei das Ergebnis. Die KI   trainiert werden soll. Ein bestehendes Beispiel dafür ist die
         arbeitet bei jeder Deepfake-Produktion autark, es bedarf kei-  Software Face Forensics der  TU München, die nur einen
         ner Nachjustierung durch den Menschen. Sollten allerdings   falsch platzierten Pixel benötigt, um ein Deepfake-Video als
         Informationen fehlen, kommt die Künstliche Intelligenz an   solches zu enttarnen. Die Erkennungsrate der Software liegt
         ihre Grenzen, da diese Daten nicht einfach aus dem Nichts   bislang bei 78 Prozent.
         erzeugt werden können.                               Generell halten Wissenschaftler das Einsetzen von digitalen
                                                              Wasserzeichen in Filmmaterial zur Verifikation von Filmma-
         WIE ERKENNT MAN EINEN DEEPFAKE?                      terial für eine Möglichkeit, um die Echtheit von Videoinhal-
         Es gibt keinen pauschalen Weg, Deepfake-Videos mit blossem   ten gewährleisten zu können. Auch die Blockchain-Technolo-
         Auge zu erkennen. Wenn die Videos nicht genügend Material   gie wird als mögliche Sicherheitsmassnahme genannt.
         zur Verfügung gehabt haben, sind manche Animationen nicht
         lippensynchron, Bildbereiche unscharf oder aber Bewegungen   WAS SIND DIE GEFAHREN VON DEEPFAKES?
         abgehakt. Dies ist die einfachste und dankbarste Erkennungs-  Wie immer bei Manipulationen können auch Deepfakes auf
         möglichkeit der manipulierten Inhalte. Nach Meinung von   beunruhigende und schädigende  Weise eingesetzt werden.
         Experten besteht jedoch die Möglichkeit, dass es nur eine   Die Bandbreite reicht von Betrug, beispielsweise in Form von
         Frage der Zeit sei, bis weder IT-Forensiker noch Algorithmen   Social Engineering, über Propagandavideos hin zu gezielter
         gut gemachte Deepfakes als solche enttarnen könnten. Bis   Wahlkampfbeeinflussung und somit Gefährdung der Demo-




          Hat er das wirklich
          gesagt? Niemand kann es
          sagen, ausser ihm selbst…


















         50 | www.protect-it.ch
   45   46   47   48   49   50   51   52   53   54   55