iStock-monsitj-ai-focus

aiLetter #1.11: Manipuliert – AI zwischen Betrug und Aufklärung

aiLetter #1.11: Manipuliert – AI zwischen Betrug und Aufklärung

Liebe Freunde des aiLetter,

im heutigen aiFocus dreht sich alles um Betrug beziehungsweise Manipulationen – und die entsprechende Rolle von Artificial Intelligence und Machine Learning, einer eigentlich neutralen Technologie. Wo und wie sie eingesetzt wird und ob dieser Einsatz unserer Gesellschaft insgesamt oder einzelnen Menschen nützt, hängt besonders von ihren Entwicklern und Nutzern ab. Deshalb schauen wir uns anhand einiger Beispiele an, wie AI mit Fake News und DeepFakes die Integrität digitaler Medien beeinflusst oder wie sich Facial Recognition manipulieren lässt. Und Fintech-Experte Tobias Eiss erklärt im Kurzinterview, wie AI-gestützte Systeme Banken im sogenannten KYC-Prozess helfen, potenzielle Geldwäscher zu enttarnen.

Viel Spaß beim Lesen wünscht

Anke


aiFocus: Die Rolle von AI bei Betrug und Manipulationen

  • Artificial Intelligence befeuert eine Spirale aus manipulierten digitalen Medien und Tools, die diese aufspüren können.
  • Der Einsatz automatisierter Gesichtserkennung soll helfen, Personen zweifelsfrei und schnell zu identifizieren. Doch wie sicher sind diese Systeme wirklich?
  • Geldwäsche richtet jährlich Milliardenschäden an. AI-gestützte Systeme unterstützen Banken, potenzielle Betrüger aufzuspüren.

Wie Atomkraft und andere Technologien lässt sich Artificial Intelligence mit sehr divergierenden Wirkungen einsetzen. Drei Bereiche zeigen exemplarisch auf, wie das aussehen kann:

1. Mach dir die Welt, wie sie dir gefällt – mit AI

Manipuliert wurde online auch schon vor Machine Learning und Co. Aber AI macht Betrügereien wie Fake News oder Fake-Videos skalierbar. Dieses Ausmaß macht die Technologie gefährlich. Gleichzeitig helfen AI-Anwendungen aber auch beim Aufspüren von manipulierten Inhalten. Die Debatte um die Integrität von digitalen Medien ist im vollen Gange. Hier ein paar Beispiele:

Fake News: AI hilft, Autoren und Texte zu faken

Immer mehr Online-Inhalte werden mit AI-Tools generiert. Von Sport-Nachrichten über Wettervorhersagen bis hin zu komplexeren Themen. Das Beispiel des Stuttgarter Unternehmens AX Semantics zeigt, wie weit diese Technologie, die Natural Language Generation, bereits fortgeschritten ist. Das Unternehmen generiert mithilfe von AI Texte in 110 Sprachen und unterstützt damit seine Kunden beim Bespielen von Webseiten mit immer neuen Inhalten.

Ein wachsendes Problem bei Online-Inhalten sind jedoch Fake-Inhalte. Marketing-Expertin Kristin Tynski demonstriert mit der Website ThisMarketingBlogDoesNotExist.com, wie AI-Tools diesen Missbrauch massiv beschleunigen und skalieren können. Innerhalb kürzester Zeit konnte sie mit öffentlich verfügbaren AI-Tools, wie dem Textgenerator Grover (den wir hier im aiLetter schon vorgestellt haben), falsche Blogartikel und sogar einen Fake-Autor mit Foto erzeugen. Wie Google und andere Suchmaschinen damit umgehen und was es für unsere tägliche Arbeit bedeutet, wenn nicht nur politische News, sondern auch Fachinhalte sich so faken lassen, werden wir wohl zukünftig genau beobachten können.

Alles Fake: Dieser Blogartikel und sein Autor sind frei erfunden – von AI-Tools. (Bild: ThisMarketingBlogDoesNotExist.com).

Fun Fact: Grover wurde ursprünglich entwickelt, um Fake News aufzuspüren, wie Jason Torchinsky in seinem Selbstversuch schreibt.

Ebenfalls problematisch: Was sind Fake News, was ist Satire? Letztere ist zumindest in Demokratien durch die Meinungsfreiheit geschützt. Wissenschaftler von Amazon, der George Washington University und dem Start-up AdVerifai haben eine AI-Lösung entwickelt, die den Unterschied erkennt.

Wie kann man der Spirale von AI befeuerten Fake-Inhalten noch einen Riegel vorschieben? Vielleicht so: Im Kontext von AI-generierten Online-Inhalten, wie denen von AX Semantics, weist Branchenexperte Thomas Petersen darauf hin, dass die Blockchain helfen könne, Inhalte praktisch notariell zu beglaubigen und so ihre Quelle und Glaubwürdigkeit zu bestätigen.

DeepFakes: Katz- und Maus-Spiel um die Realität

Auch mit Artificial Intelligence manipulierte Videos und Audios, sogenannte DeepFakes, haben uns in den vergangenen Monaten hier im aiLetter schon beschäftigt. Auch diese Manipulationen sind mit Photoshop und anderen Programmen schon lange möglich. Doch Apps wie Zao machen die Bild- und Videomanipulation für jedermann zugänglich.

Facebook und andere große Tech-Unternehmen arbeiten fieberhaft daran, die immer besser gemachten Fake-Inhalte zu erkennen. Aktuell läuft die DeepFake Detection Challenge, bei der Entwickler neue Open Source-Systeme zur Erkennung von DeepFakes entwickeln sollen. Facebook investiert zehn Millionen US-Dollar in das Projekt, um im Katz-und-Maus-Spiel mit Manipulierern einen Vorsprung zu bekommen.

Mithilfe dieser, mit dem Videoinput von Schauspielern entwickelten, Datenbank sollen die Teilnehmer in der DeepFake Detection Challenge Systeme zur Erkennung von manipulierten Videos entwickeln.

Regierungen stellen das Produzieren und Verbreiten von DeepFakes ohne entsprechende Kennzeichnung derweil unter Strafe, vergangene Woche zum Beispiel China. Fraglich ist, wie dies im World Wide Web durchgesetzt werden kann …

2. Facial Recognition manipuliert

Theoretisch hilft die auf AI-Technologie gestützte automatisierte Gesichtserkennung (Facial
Recognition) dabei, Personen einwandfrei zu identifizieren und so Identitätsbetrug vorzubeugen. Von Kontroversen um die rechtmäßige Nutzung einmal abgesehen, lässt sich die Technologie jedoch auch manipulieren:

Beim sogenannten „De-Identification“-System, entwickelt von Facebook-Wissenschaftlern, werden die Gesichtszüge von Personen in (Live)-Videos mithilfe von Machine Learning so verändert, dass die Gesichtserkennungssoftware „verwirrt“ ist. Das kalifornische AI-Unternehmen Kneron hat mit einer gedruckten Maske die Gesichtserkennungssoftware von Paymentsystemen wie Alipay und WeChat, chinesische Grenzkontrollen sowie die Passkontrollen am Amsterdamer Flughafen überlistet. Andere Systeme wie Apples FaceID oder ein entsprechendes System von Huawei ließen sich mit dieser Methode jedoch nicht hinters Licht führen.

Einfach zu manipulieren? Mit dieser Maske haben die Mitarbeiter von Kneron verschiedene Gesichtserkennungsprogramme reingelegt (Foto: Kneron).

3. aiExpert: Auf Augenhöhe mit AlphaGo

Wenn Banken oder Leasingunternehmen neue Geschäftskunden aufnehmen, müssen sie zunächst prüfen, ob diese eventuell in Geldwäsche oder andere illegale Aktivitäten involviert sind. Bei dieser aufwendigen Überprüfung unterstützt sie das Fintech fino mit der Plattform KYCnow, einem Joint Venture mit der Schufa. Entwickler und Mitgründer Tobias Eiss erklärt, wie das funktioniert und was AI damit zu tun hat.

tobias-eiss-fino
Tobias Eiss hat die KYCnow Plattform mitgegründet und erarbeitet mit seinem Team Lösungen für regulatorische Fragen im Kampf gegen Geldwäsche und Terrorismusfinanzierung (Foto: fino).

aiLetter: Was steckt hinter dem sogenannten „Know your customer”-Prozess?

Tobias Eiss: Beim KYC-Prinzip (“Know your Customer”)- geht es darum, alle Informationen über einen Kunden vor Geschäftsabschluss zu überprüfen, um sie unter bestimmten Risikoaspekten bewerten zu können. Nach dem Geldwäschegesetz werden etwa Informationen von Firmenkunden oder auch Privatkunden gesammelt, um eine Risikobewertung nach Geldwäschegesichtspunkten vorzunehmen. Dazu gehören neben der Überprüfung von Stammdaten auch die Identifizierung natürlicher Personen, die hinter einer Firma stehen. Darüber hinaus werden das Unternehmen selbst und die Personen dahinter auf Terror-, Embargo- und Sanktionslisten geprüft. Des Weiteren wird ein Media-Screening durchgeführt, um Auffälligkeiten im Netz zu finden, Firmengeflechte aufzuzeigen oder auch politisch exponierte Personen in diesem Geflecht zu finden.

aiLetter: Wie kommt ihr bei diesem Prozess ins Spiel?

Eiss: Wir unterstützen Verpflichtete wie zum Beispiel Banken, Leasingunternehmen, Factoring-Unternehmen oder Immobilienmakler dabei, den KYC-Prozess gesetzeskonform einzuhalten. Sie können mit unserer KYCnow-Plattform ihren kompletten KYC-Prozess automatisieren, ihn entscheidend beschleunigen und dadurch immense Kosten einsparen. Abschließend führt der Verpflichtete lediglich anhand der erfassten Daten eine Bewertung durch, um Risiken der Geldwäsche und Terrorismusfinanzierung zu identifizieren.

aiLetter: Wie wird Artificial Intelligence beziehungsweise Machine Learning in diesen Prozessen eingesetzt?

Eiss: In Summe geht es bei der Risikobewertung darum, herauszufinden, mit welchen Mitteln ein Unternehmen Geldwäsche betreiben kann. Findet man diese Risikofaktoren heraus, gilt es dort unter Berücksichtigung der Sorgfaltspflichten genauer hinzusehen und das Unternehmen und die handelnden Personen dahinter näher zu beleuchten.
 Neben den harten Fakten, die regelbasiert überprüft werden können, braucht es Erfahrung und das „gewisse Auge” dafür. 
Wir versuchen eine Maschine mit dieser Erfahrung zu füttern, um ihr dieses „gewisse Auge” anzutrainieren. Ziel ist es, dass die Maschine schneller und effizienter arbeitet, um ergänzende Risikofaktoren zu entdecken. Zum Vergleich: Googles künstliche Intelligenz „AlphaGo“ schlägt den Weltmeister im Spiel Go, das nahezu aus unendlich vielen Spielzügen besteht. Wann erwischt die Maschine den Menschen also bei der Straftat?

aiLetter: Wie werden AI-gestützte Systeme die Betrugsbekämpfung im Finance-Bereich in den kommenden Jahren beeinflussen?

Eiss: Es gibt heute schon erste Ansätze, mit denen versucht wird, Betrugsmuster auf Basis vorliegender Datenpunkte aufzudecken. Dabei werden nicht nur Hardfacts wie Personen-, Finanz- und Bezahlinformationen verwendet, sondern auch das Verhalten auf Online-Plattformen, sowie die Messung am tatsächlichen Endgerät.
 Um sich im ewigen „Katz’-Maus-Spiel” der Betrugsbekämpfung einen Vorteil zu verschaffen und schneller und effizienter agieren zu können, müssen die Systeme Möglichkeiten für eine kreativere Mustererkennung erhalten. Dafür bleibt eine Zusammenarbeit mit der Strafverfolgung, der Financial Intelligence Unit, unerlässlich. Die Ergebnisse bereits überprüfter Meldefälle müssen an ein zuverlässiges, integres System weitergeleitet werden, um es mit der benötigten Erfahrung zu füttern. Heute ist dies noch nicht vorgesehen, ein Umdenken hilft uns aber weiter.


aiDeepDive: Vertiefung zum Wochenende

1. Nicht das Gesicht verlieren

Fortune-Autor Robert Hackett diskutiert in seinem Kommentar, warum er beim Betreten seines Bürogebäudes nicht die neue bequeme Variante des Gesichtsscans gewählt hat: Geht seine ID-Karte verloren, besorgt er sich eine neue. Geht sein Gesicht in Form der Daten verloren, wird das deutlich schwieriger …

2. Von DeepFakes und CheapFakes

Wie beeinflussen DeepFakes unsere Gesellschaft und wo liegen Unterschiede zu anderen Manipulationsformen, den sogenannten CheapFakes? Britt Paris und Joan Donovan von der Data Society widmen sich dieser Frage in ihrem Paper.

3. Wie wird Artificial Intelligence sicher?

Trotz problematischer Manipulationen: selbstlernende Systeme können unseren Alltag in vielerlei Hinsicht bereichern. Wenn sie entsprechend implementiert werden. Was muss zum Beispiel getan werden, um ein autonomes Fahrzeug mit seinen selbstlernenden Systemen „sicher“ zu machen? Das erläutert Mario Trapp, Leiter des neuen Instituts für Kognitive Systeme (IKS) in München, in der aktuellen Folge des F.A.Z. Digitec-Podcasts.


Wir freuen uns immer über Feedback zum Newsletter: feedback@ailetter.de


Beziehe den aiLetter regelmäßig!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.


iStock-monsitj-ai-news

aiLetter #0.10: AI-Stadtplanung, DeepMind-Verluste, AI im Hafen und ein Fake News-Generator

aiLetter #0.10: AI-Stadtplanung, DeepMind-Verluste, AI im Hafen und ein Fake News-Generator

Liebe Freunde des aiLetter,

hier kommen eure AI-News der Woche: AI in der Stadtplanung und Hafenlogistik. Was die Verluste von DeepMind über AI-Investitionen aussagen. Und AI zum Ausprobieren: Fake News selbst gemacht – mit Grover.

Auch in dieser Woche gibt es nur einen, etwas knapperen Newsletter. Denn wir arbeiten aktuell an unserer Website und freuen uns, euch diese bald zu präsentieren.

Viel Spaß beim Lesen wünscht

Anke


ai@Work: Lösungen im Einsatz

„Kompromissmaschine” in der Stadtplanung

Bei der Planung neuer Stadtviertel können intelligente Algorithmen helfen und Prozesse beschleunigen. Prof. Reinhard König von der Bauhaus-Universität Weimar erklärt im Interview, wie man mit einem sogenannten „digitalen Zwilling” verschiedene Szenarien testen kann und Stadtplanung für die (zukünftigen) Bewohner transparent macht.


aiInvest: Wer investiert wo?

Was die DeepMind-Verluste über AI-Investments aussagen

In 2018 machte Alphabet-Tochter DeepMind Verluste in Höhe von 572 Millionen US-Dollar. Das war nicht das erste Verlustjahr. DeepMind beschäftigt sich mit der Erforschung von sogenanntem Deep Reinforcement Learning (mehr zu Reinforcement Learning siehe heutiges aiKeyword). Vor allem werden AI-Systeme entwickelt, die in Spielszenarien wie im Schach oder dem asiatischen Go erfolgreich sind. Ein zu enger Fokus fernab von monetarisierbaren Anwendungsfällen? Das diskutiert AI-Unternehmer und Psychologieprofessor Gary Marcus in einem lesenswerten Gastartikel für wired.com.

Marcus wirft die Frage auf, wie viele Ressourcen in solche Projekte investiert werden sollten, bevor man beschließt, die Mittel in andere Felder zu lenken. DeepMind stehe symptomatisch für diverse Investments in AI.


aiLab: ein Blick in Forschung & Entwicklung

AI-Anwendungen im Hamburger Hafen testen

Logistische Prozesse werden immer stärker mit AI automatisiert – auch im Hafen. Carlos Jahn vom Institut für Maritime Logistik an der Technischen Universität Hamburg erklärt, welche Anwendungsfälle erforscht werden und warum menschliche Entscheider mittelfristig unverzichtbar bleiben.


aiPolicy: Politik & Rahmenbedingungen

AI-Gesundheitsforschung im Norden

Die Universitäten Bremen, Hamburg, Kiel und Lübeck bewerben sich um Fördergelder von rund zehn Millionen Euro. Damit soll ein Kompetenzzentrum für AI in der Medizin etabliert werden. Unterstützt werden die Antragsteller von den Landesregierungen. Das Geld soll über drei Jahre vom Bundesministerium für Wirtschaft und Energie fließen. Erprobt werden sollen unter anderem intelligente Roboter und virtuelle Agenten in der Rehabilitation.


aiKeyword: Grundbegriffe erklärt

Reinforcement Learning: AI spielt Fußball

Viele AI-Entwickler testen ihre Systeme zuerst an Spielen, etwa Schach, dem asiatischen Go oder verschiedenen Computerspielen. Warum? In einem Spiel muss die AI komplexe, aber planbare Aufgaben lösen. Die Trainingsmethode ist hier oft das sogenannte Reinforcement Learning, also bestärkendes Lernen. Bei dieser Form des Unsupervised Learning wird ein AI-System belohnt, wenn es zielführende Spielzüge macht und bestraft, wenn es schlechte Spielzüge macht. So lernt es nach der Methode „Trial and Error”, was eine sinnvolle Spielstrategie ist. Später lassen sich die Erkenntnisse dann in Bereichen wie dem autonomen Fahren nutzen. Die Methode entstammt der Verhaltenspsychologie und zählt somit zum Bereich bio-inspired Computing, wie Margaret Rouse in ihrer Erläuterung auf techtarget.com erklärt.

Apropos Spiele: Das Google Brain-Team hat kürzlich eine virtuelle Fußballumgebung geschaffen, in der nun AI-Spieler trainiert werden können.


aiTaillight: Ein Fun Fact zum Schluss

Grover schreibt Fake News

Eigentlich wurde das AI-System Grover entwickelt, um Fake News zu erkennen. Doch Grover, kreiert vom Allen Institute for Artificial Intelligence und der University of Washington, schreibt auch selbst gute Fake News. Angeblich sind falsche Artikel von Grover sogar glaubwürdiger als von Menschen generierte Fake News. Alles was es braucht, ist eine Headline. Ich habe es ausprobiert und herausgekommen ist ein wirrer Text. Warum die Erde flach ist, beantwortet er eher nicht. Aber das Tool bietet weitere Beispiele – versucht es selbst…

fake-news-article-grover


Dies ist eine der ersten Ausgaben des aiLetters. Wir freuen uns deshalb besonders über Feedback: feedback@ailetter.de
– Wie interesssant findest Du das Thema für einen eigenen Newsletter in dieser Form?
– Wie informativ ist für Dich insofern der Inhalt des hier vorliegenden Entwurfs?
– Wie bewertest du das Layout und den Aufbau des aiLetters?
– Was würdest du anders machen?
– Würdest du den aiLetter abonnieren? Würdest du ihn weiterempfehlen? Wenn ja, wem?


Beziehe den aiLetter regelmäßig!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.