iStock-monsitj-ai-focus

aiLetter #0.06: Deep Fakes und ihre Folgen

aiLetter #0.06: Deep Fakes und ihre Folgen

Liebe Freunde des aiLetter,

zum Wochenende gibt es jetzt einen aiLetter mit dem aiFocus der Woche. Heute geht es um DeepFakes – ein aktuelles Buzzword. Doch was ist das eigentlich? Dazu findet Ihr nachstehend eine tiefere Betrachtung mit verschiedenen Links zu interessanten Artikeln über die Probleme und möglichen Folgen der ai-Technologie. Viel Spaß beim Lesen – und ich freue mich auf Euer Feedback zu dieser etwas anderen Form des aiLetters!

Viel Spaß beim Lesen wünscht

Anke


aiFocusDeep Fake – nur ein Symptom

  • Deep Fakes bringen Fake News auf ein neues Level und stehen damit symbolisch für die Auswirkungen von AI auf unsere digitale (Medien)-Realität
  • Technologische Lösungen bekämpfen nur die Symptome aber nicht die Ursachen der Deep-Fake-Problematik

Barack Obama nennt Donald Trump einen „Scheißkerl“Mark Zuckerberg erklärt, wie er mit Daten die Menschheit kontrolliert. Statt Jack Nicholson schwingt Jim Carrey die Axt in „The Shining“. Deep Fakes machen es möglich.

Was sind Deep Fakes?

Mithilfe von sogenannten generative adversarial networks (GANs) – einer Form von künstlichen neuronalen Netzwerken – werden Fotos, Video- und Audioaufnahmen verfälscht. Man stülpt einer Person praktisch eine Latex-Maske mit dem Gesicht einer anderen Person über.

Was könnte ein Fake-Obama sagen? Filmemacher Jordan Peele gibt ein paar Ideen.

Alter Fake-Wein in neuen AI-Schläuchen?

Manipulierte Fotos und Videos sind bekanntlich nichts Neues. Mit Fake News schlagen wir uns schon seit Jahren herum. Noch sind viele Deep Fakes schlecht gemacht und leicht zu entlarven. Ist die aktuelle Aufregung also übertrieben?

Manche Apps sind als harmlose Spielerei gestartet, mit der Filmfans lustige Clips entwickeln können. Spätestens bei der Deep Nude-App, mit der sich zu den Gesichtern von Frauen nackte Körper projizieren lassen, lässt sich der ursprüngliche, harmlose Nutzen schwer erkennen.

Apps wie Fake App werden immer besser. Dadurch wird gut gemachte Videomanipulation zum Werkzeug für Jedermann. Je mehr gefälschte Inhalte online auf sensationsgetrimmte Massenmedien und soziale Netzwerke treffen, desto mehr verstärken sie die Makel unserer Gesellschaft. Karen Hao gibt im MIT Technology Review einen klaren Blick auf die negativen Konsequenzen einiger Fälle: diskreditierte Frauen, eingeschüchterte Journalisten und ein manipulierter US-Wahlkampf 2016.

Die Grenzen zwischen Fake und Realität verschwimmen

Auch eine schnell enttarnte Fälschung kann erheblichen Schaden anrichten. Das manipuliertes Video von der angeblich betrunkenen US-Demokratin Nancy Pelosi wurde auch nach der Identifizierung als Fake zum Beispiel weder von Facebook noch von Twitter gelöscht. Der entsprechende Tweet von Präsident Trump erreichte Millionen von Menschen, mit den entsprechenden politischen Effekten.

Zusätzlich diskreditierte Trump bereits „echte“ Videos als Fake. Fox News und Co. ihr Übriges, um die Grenzen zwischen Wahrheit und Fiktion weiter zu vermischen – oftmals ganz ohne AI-Tools. Geteilt wird, was ins Weltbild der eigenen Filterblase passt. Ein hochwertiger Deep Fake ist für politische Akteure heute nicht mehr teuerGabuns Präsident Ali Bongo soll seine letzte Neujahrsansprache gefaked haben, um Krankheitsgerüchte zu zerstreuen.

Die Folgen: wachsender Populismus, Zynismus, Misstrauen und vielleicht Schlimmeres, wie Sicherheitsexperte Aviv Ovadya fürchtet: „Wenn ein Land unter Hochspannung steht, dann kann die Manipulation der Wahrnehmung von dem, was gerade geschieht, sehr ernste Folgen haben. Ja, es kann sogar zu Krieg führen.“

Zukünftig könnten mit Deep Fake auch noch falsche Identitäten kreiert werden. Diese sogenannte Fake Face Generation soll bereits von Spionen eingesetzt werden, um ihre wirklichen Identitäten zu verschleiern.

Herumdoktern an Symptomen

Was also tun gegen Deep Fakes? Jegliche Bemühungen, dem Problem durch „Aufklärungs-Software“ technisch entgegenzuwirken gleichen einem Katz-und-Mausspiel. Die Fake-Entwickler sind ihren Verfolgern immer einen Schritt voraus.

Australien bestraft den Missbrauch von Gesichtern für Porno-Deep-Fakes zwar mittlerweile. Doch scheinen nationale Regulierungen wie in anderen Fällen kaum der richtige Weg zu sein, um Internetkriminalität zu bekämpfen.

Technologie-Ethiker Matt Beard kritisiert die Idee hinter technologischen Abwehrmechanismen von Deep Fakes grundlegend:
„The furore over deepfakes is a microcosm for the larger social discussion about the ethics of technology. It’s pretty clear the software shouldn’t have been developed and has led – and will continue to lead – to disproportionately more harm than good.“

Missbrauchte Technologie mit anderer Technologie zu bekämpfen, sei das Grundproblem unseres Technologie-Paradigmas:
„… in asking for a technological fix to deepfakes, we’re fuelling the same logic that brought us here. Want to solve Silicon Valley? There’s an app for that! Eventually, maybe, that app will work. But we’re still treating the symptoms, not the cause.“

Beard wirft uns allen vor, dass wir das Problem nicht bei der Wurzel packen:
„At the moment we’re dancing around the edges of the issue, playing whack-a-mole as new technologies arise. We treat tech design and development like it’s inevitable. As a result, we aim to minimise risks rather than look more deeply at the values, goals and moral commitments built into the technology. As well as asking how we stop deepfakes, we need to ask why someone thought they’d be a good idea to begin with.“

Beard arbeitet an Ethik für Technologien in seinem Ethics Centre. Was wir selbst tun können? Ich denke vor allem, sich der Gefahren durch manipulierte Medien bewusst werden, Anzeichen erkennen, diese mit anderen diskutieren. Insgesamt also die eigene Mündigkeit im digitalen Zeitalter festigen, zum Beispiel mit einem regelmäßigen Blick über den Tellerrand der eigenen Filterblase. Und fürs Erste: Deep Fakes erkennen. Hier ein paar einfache Schritte:

how-to-stop-deep-fake

 

ai DeepDive fürs Wochenende

Wer sich genauer zu Deep Fakes und den Auswirkungen informieren möchte, dem empfehle ich die folgenden Artikel:

  • Die Diskussion, inwiefern Deep Fakes mehr Schaden anrichten können als andere Manipulationen und die generelle Fake-News-Welle durch Trump, Fox News und Co. auf sueddeutsche.de
  • Eine kritische Betrachtung von Deep Fake und den Folgen durch den US-Korrespondenten des ZDF, Elmar Theveßen auf zdf.de
  • Wie Deep Fakes die politische Landschaft beeinflussen auf theguardian.com
  • Matt Beards ausführliche Auseinandersetzung mit den Fragen nach Technologie-Ethik am Beispiel der Deep Fakes auf theguardian.com


Dies ist eine der ersten Ausgaben des aiLetters. Wir freuen uns deshalb besonders über Feedback: feedback@ailetter.de
– Wie interesssant findest Du das Thema für einen eigenen Newsletter in dieser Form?
– Wie informativ ist für Dich insofern der Inhalt des hier vorliegenden Entwurfs?
– Wie bewertest du das Layout und den Aufbau des aiLetters?
– Was würdest du anders machen?
– Würdest du den aiLetter abonnieren? Würdest du ihn weiterempfehlen? Wenn ja, wem?


Bleibe immer auf dem neuesten Stand

Abonniere den aiLetter und erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.