aiLetter #1.11: Manipuliert – AI zwischen Betrug und Aufklärung

Liebe Freunde des aiLetter,

im heutigen aiFocus dreht sich alles um Betrug beziehungsweise Manipulationen – und die entsprechende Rolle von Artificial Intelligence und Machine Learning, einer eigentlich neutralen Technologie. Wo und wie sie eingesetzt wird und ob dieser Einsatz unserer Gesellschaft insgesamt oder einzelnen Menschen nützt, hängt besonders von ihren Entwicklern und Nutzern ab. Deshalb schauen wir uns anhand einiger Beispiele an, wie AI mit Fake News und DeepFakes die Integrität digitaler Medien beeinflusst oder wie sich Facial Recognition manipulieren lässt. Und Fintech-Experte Tobias Eiss erklärt im Kurzinterview, wie AI-gestützte Systeme Banken im sogenannten KYC-Prozess helfen, potenzielle Geldwäscher zu enttarnen.

Viel Spaß beim Lesen wünscht

Anke


aiFocus: Die Rolle von AI bei Betrug und Manipulationen

  • Artificial Intelligence befeuert eine Spirale aus manipulierten digitalen Medien und Tools, die diese aufspüren können.
  • Der Einsatz automatisierter Gesichtserkennung soll helfen, Personen zweifelsfrei und schnell zu identifizieren. Doch wie sicher sind diese Systeme wirklich?
  • Geldwäsche richtet jährlich Milliardenschäden an. AI-gestützte Systeme unterstützen Banken, potenzielle Betrüger aufzuspüren.

Wie Atomkraft und andere Technologien lässt sich Artificial Intelligence mit sehr divergierenden Wirkungen einsetzen. Drei Bereiche zeigen exemplarisch auf, wie das aussehen kann:

1. Mach dir die Welt, wie sie dir gefällt – mit AI

Manipuliert wurde online auch schon vor Machine Learning und Co. Aber AI macht Betrügereien wie Fake News oder Fake-Videos skalierbar. Dieses Ausmaß macht die Technologie gefährlich. Gleichzeitig helfen AI-Anwendungen aber auch beim Aufspüren von manipulierten Inhalten. Die Debatte um die Integrität von digitalen Medien ist im vollen Gange. Hier ein paar Beispiele:

Fake News: AI hilft, Autoren und Texte zu faken

Immer mehr Online-Inhalte werden mit AI-Tools generiert. Von Sport-Nachrichten über Wettervorhersagen bis hin zu komplexeren Themen. Das Beispiel des Stuttgarter Unternehmens AX Semantics zeigt, wie weit diese Technologie, die Natural Language Generation, bereits fortgeschritten ist. Das Unternehmen generiert mithilfe von AI Texte in 110 Sprachen und unterstützt damit seine Kunden beim Bespielen von Webseiten mit immer neuen Inhalten.

Ein wachsendes Problem bei Online-Inhalten sind jedoch Fake-Inhalte. Marketing-Expertin Kristin Tynski demonstriert mit der Website ThisMarketingBlogDoesNotExist.com, wie AI-Tools diesen Missbrauch massiv beschleunigen und skalieren können. Innerhalb kürzester Zeit konnte sie mit öffentlich verfügbaren AI-Tools, wie dem Textgenerator Grover (den wir hier im aiLetter schon vorgestellt haben), falsche Blogartikel und sogar einen Fake-Autor mit Foto erzeugen. Wie Google und andere Suchmaschinen damit umgehen und was es für unsere tägliche Arbeit bedeutet, wenn nicht nur politische News, sondern auch Fachinhalte sich so faken lassen, werden wir wohl zukünftig genau beobachten können.

Alles Fake: Dieser Blogartikel und sein Autor sind frei erfunden – von AI-Tools. (Bild: ThisMarketingBlogDoesNotExist.com).

Fun Fact: Grover wurde ursprünglich entwickelt, um Fake News aufzuspüren, wie Jason Torchinsky in seinem Selbstversuch schreibt.

Ebenfalls problematisch: Was sind Fake News, was ist Satire? Letztere ist zumindest in Demokratien durch die Meinungsfreiheit geschützt. Wissenschaftler von Amazon, der George Washington University und dem Start-up AdVerifai haben eine AI-Lösung entwickelt, die den Unterschied erkennt.

Wie kann man der Spirale von AI befeuerten Fake-Inhalten noch einen Riegel vorschieben? Vielleicht so: Im Kontext von AI-generierten Online-Inhalten, wie denen von AX Semantics, weist Branchenexperte Thomas Petersen darauf hin, dass die Blockchain helfen könne, Inhalte praktisch notariell zu beglaubigen und so ihre Quelle und Glaubwürdigkeit zu bestätigen.

DeepFakes: Katz- und Maus-Spiel um die Realität

Auch mit Artificial Intelligence manipulierte Videos und Audios, sogenannte DeepFakes, haben uns in den vergangenen Monaten hier im aiLetter schon beschäftigt. Auch diese Manipulationen sind mit Photoshop und anderen Programmen schon lange möglich. Doch Apps wie Zao machen die Bild- und Videomanipulation für jedermann zugänglich.

Facebook und andere große Tech-Unternehmen arbeiten fieberhaft daran, die immer besser gemachten Fake-Inhalte zu erkennen. Aktuell läuft die DeepFake Detection Challenge, bei der Entwickler neue Open Source-Systeme zur Erkennung von DeepFakes entwickeln sollen. Facebook investiert zehn Millionen US-Dollar in das Projekt, um im Katz-und-Maus-Spiel mit Manipulierern einen Vorsprung zu bekommen.

Mithilfe dieser, mit dem Videoinput von Schauspielern entwickelten, Datenbank sollen die Teilnehmer in der DeepFake Detection Challenge Systeme zur Erkennung von manipulierten Videos entwickeln.

Regierungen stellen das Produzieren und Verbreiten von DeepFakes ohne entsprechende Kennzeichnung derweil unter Strafe, vergangene Woche zum Beispiel China. Fraglich ist, wie dies im World Wide Web durchgesetzt werden kann …

2. Facial Recognition manipuliert

Theoretisch hilft die auf AI-Technologie gestützte automatisierte Gesichtserkennung (Facial
Recognition) dabei, Personen einwandfrei zu identifizieren und so Identitätsbetrug vorzubeugen. Von Kontroversen um die rechtmäßige Nutzung einmal abgesehen, lässt sich die Technologie jedoch auch manipulieren:

Beim sogenannten „De-Identification“-System, entwickelt von Facebook-Wissenschaftlern, werden die Gesichtszüge von Personen in (Live)-Videos mithilfe von Machine Learning so verändert, dass die Gesichtserkennungssoftware „verwirrt“ ist. Das kalifornische AI-Unternehmen Kneron hat mit einer gedruckten Maske die Gesichtserkennungssoftware von Paymentsystemen wie Alipay und WeChat, chinesische Grenzkontrollen sowie die Passkontrollen am Amsterdamer Flughafen überlistet. Andere Systeme wie Apples FaceID oder ein entsprechendes System von Huawei ließen sich mit dieser Methode jedoch nicht hinters Licht führen.

Einfach zu manipulieren? Mit dieser Maske haben die Mitarbeiter von Kneron verschiedene Gesichtserkennungsprogramme reingelegt (Foto: Kneron).

3. aiExpert: Auf Augenhöhe mit AlphaGo

Wenn Banken oder Leasingunternehmen neue Geschäftskunden aufnehmen, müssen sie zunächst prüfen, ob diese eventuell in Geldwäsche oder andere illegale Aktivitäten involviert sind. Bei dieser aufwendigen Überprüfung unterstützt sie das Fintech fino mit der Plattform KYCnow, einem Joint Venture mit der Schufa. Entwickler und Mitgründer Tobias Eiss erklärt, wie das funktioniert und was AI damit zu tun hat.

tobias-eiss-fino
Tobias Eiss hat die KYCnow Plattform mitgegründet und erarbeitet mit seinem Team Lösungen für regulatorische Fragen im Kampf gegen Geldwäsche und Terrorismusfinanzierung (Foto: fino).

aiLetter: Was steckt hinter dem sogenannten „Know your customer”-Prozess?

Tobias Eiss: Beim KYC-Prinzip (“Know your Customer”)- geht es darum, alle Informationen über einen Kunden vor Geschäftsabschluss zu überprüfen, um sie unter bestimmten Risikoaspekten bewerten zu können. Nach dem Geldwäschegesetz werden etwa Informationen von Firmenkunden oder auch Privatkunden gesammelt, um eine Risikobewertung nach Geldwäschegesichtspunkten vorzunehmen. Dazu gehören neben der Überprüfung von Stammdaten auch die Identifizierung natürlicher Personen, die hinter einer Firma stehen. Darüber hinaus werden das Unternehmen selbst und die Personen dahinter auf Terror-, Embargo- und Sanktionslisten geprüft. Des Weiteren wird ein Media-Screening durchgeführt, um Auffälligkeiten im Netz zu finden, Firmengeflechte aufzuzeigen oder auch politisch exponierte Personen in diesem Geflecht zu finden.

aiLetter: Wie kommt ihr bei diesem Prozess ins Spiel?

Eiss: Wir unterstützen Verpflichtete wie zum Beispiel Banken, Leasingunternehmen, Factoring-Unternehmen oder Immobilienmakler dabei, den KYC-Prozess gesetzeskonform einzuhalten. Sie können mit unserer KYCnow-Plattform ihren kompletten KYC-Prozess automatisieren, ihn entscheidend beschleunigen und dadurch immense Kosten einsparen. Abschließend führt der Verpflichtete lediglich anhand der erfassten Daten eine Bewertung durch, um Risiken der Geldwäsche und Terrorismusfinanzierung zu identifizieren.

aiLetter: Wie wird Artificial Intelligence beziehungsweise Machine Learning in diesen Prozessen eingesetzt?

Eiss: In Summe geht es bei der Risikobewertung darum, herauszufinden, mit welchen Mitteln ein Unternehmen Geldwäsche betreiben kann. Findet man diese Risikofaktoren heraus, gilt es dort unter Berücksichtigung der Sorgfaltspflichten genauer hinzusehen und das Unternehmen und die handelnden Personen dahinter näher zu beleuchten.
 Neben den harten Fakten, die regelbasiert überprüft werden können, braucht es Erfahrung und das „gewisse Auge” dafür. 
Wir versuchen eine Maschine mit dieser Erfahrung zu füttern, um ihr dieses „gewisse Auge” anzutrainieren. Ziel ist es, dass die Maschine schneller und effizienter arbeitet, um ergänzende Risikofaktoren zu entdecken. Zum Vergleich: Googles künstliche Intelligenz „AlphaGo“ schlägt den Weltmeister im Spiel Go, das nahezu aus unendlich vielen Spielzügen besteht. Wann erwischt die Maschine den Menschen also bei der Straftat?

aiLetter: Wie werden AI-gestützte Systeme die Betrugsbekämpfung im Finance-Bereich in den kommenden Jahren beeinflussen?

Eiss: Es gibt heute schon erste Ansätze, mit denen versucht wird, Betrugsmuster auf Basis vorliegender Datenpunkte aufzudecken. Dabei werden nicht nur Hardfacts wie Personen-, Finanz- und Bezahlinformationen verwendet, sondern auch das Verhalten auf Online-Plattformen, sowie die Messung am tatsächlichen Endgerät.
 Um sich im ewigen „Katz’-Maus-Spiel” der Betrugsbekämpfung einen Vorteil zu verschaffen und schneller und effizienter agieren zu können, müssen die Systeme Möglichkeiten für eine kreativere Mustererkennung erhalten. Dafür bleibt eine Zusammenarbeit mit der Strafverfolgung, der Financial Intelligence Unit, unerlässlich. Die Ergebnisse bereits überprüfter Meldefälle müssen an ein zuverlässiges, integres System weitergeleitet werden, um es mit der benötigten Erfahrung zu füttern. Heute ist dies noch nicht vorgesehen, ein Umdenken hilft uns aber weiter.


aiDeepDive: Vertiefung zum Wochenende

1. Nicht das Gesicht verlieren

Fortune-Autor Robert Hackett diskutiert in seinem Kommentar, warum er beim Betreten seines Bürogebäudes nicht die neue bequeme Variante des Gesichtsscans gewählt hat: Geht seine ID-Karte verloren, besorgt er sich eine neue. Geht sein Gesicht in Form der Daten verloren, wird das deutlich schwieriger …

2. Von DeepFakes und CheapFakes

Wie beeinflussen DeepFakes unsere Gesellschaft und wo liegen Unterschiede zu anderen Manipulationsformen, den sogenannten CheapFakes? Britt Paris und Joan Donovan von der Data Society widmen sich dieser Frage in ihrem Paper.

Ist hier schon Machine Learning am Werk oder noch das gute alte Photoshop? Im Schaubild zeigen Britt Paris und Joan Donovan, wo AI manipuliert und wo nicht.

3. Wie wird Artificial Intelligence sicher?

Trotz problematischer Manipulationen: selbstlernende Systeme können unseren Alltag in vielerlei Hinsicht bereichern. Wenn sie entsprechend implementiert werden. Was muss zum Beispiel getan werden, um ein autonomes Fahrzeug mit seinen selbstlernenden Systemen „sicher“ zu machen? Das erläutert Mario Trapp, Leiter des neuen Instituts für Kognitive Systeme (IKS) in München, in der aktuellen Folge des F.A.Z. Digitec-Podcasts.


Wir freuen uns immer über Feedback zum Newsletter: feedback@ailetter.de


Beziehe den aiLetter regelmäßig!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.