aiLetter #1.5: Datenethik und Artificial Intelligence – wie geht das zusammen?

Liebe Freunde des aiLetter,

in dieser Woche dreht sich im aiFocus alles um das Thema Ethik im Zusammenhang mit Artificial Intelligence. Was dürfen die intelligenten Algorithmen? Und was nicht? Wer beschäftigt sich mit diesem Thema und wer darf hier Entscheidungen treffen? Eine schwierige Materie, in die wir mit Beispielen aus der Praxis und ein wenig theoretischem Background etwas Licht bringen wollen. Ist uns das gelungen? Gebt uns gerne Feedback. Im aiDeepDive haben wir heute auch noch einen TV-Tipp und eine kleine Filmkritik im Gepäck.

Und wie immer gilt: Wenn euch der aiLetter gefällt, leitet ihn gerne an Menschen weiter, die sich auch für AI und Machine Learning interessieren (oder dies aus eurer Sicht tun sollten … ) 😉

Viel Spaß beim Lesen wünscht

Anke


aiFocus: Wie kommt die Ethik in Artificial Intelligence?

  • Breitere Nutzung von AI-basierten Systemen erzeugt – gewollt oder ungewollt – auch immer mehr ethische Herausforderungen.
  • Mit Regulierungsvorschlägen für ethisch geprägte Algorithmen und AI sorgte die Datenethikkommission der Bundesregierung in der letzten Woche für Diskussionen.
  • Welchen Kriterien müssen Lösungsansätze genügen und ist es möglich, hier alle Betroffenen zu integrieren?

Das Hamburger Unternehmen Kreditech vergibt Kredite an Menschen, die nach herkömmlichen Kriterien nicht kreditwürdig wären, zum Beispiel Freiberufler oder Studierende. Die Entscheidung trifft dabei ein AI-gestütztes System, das die Kreditwürdigkeit der Menschen anhand von ganz neuen Parametern wie der Eingabegeschwindigkeit im Online-Formular bewertet. Dies öffnet neuen Gruppen zwar die Tür zu Krediten, verlangt von ihnen jedoch, eine neue Fülle an Daten preiszugeben. Ein Dilemma, wie Carla Hustedt und Dr. Jörg Dräger von der Bertelsmann-Stiftung beschreiben.

Das Beispiel zeigt, wie Algorithmen und Artificial Intelligence in immer mehr Lebensbereichen Entscheidungen treffen oder zumindest Menschen bei ihren Entscheidungen unterstützen sollen. Zwei weitere Beispiele:

  1. Algorithmen kategorisieren österreichische Arbeitslose: Wie hoch die Vermittlungschancen eines Arbeitslosen sind, errechnet beim österreichischen Arbeitsmarktservice seit diesem Jahr ein Algorithmus. Ab dem kommenden Jahr soll auf dieser Basis die Betreuung durch die Arbeitsvermittler angepasst werden. Kritiker wie Matthias Spielkamp von Algorithmwatch sehen hierin eine ungewollte Benachteiligung für bestimmte Gruppen von Arbeitslosen, zum Beispiel Frauen mit langen Betreuungszeiten.
  2. Privilegierter Zugang zur Gesundheitsversorgung: Ein Algorithmus, den Gesundheitsanbieter in den USA nutzten, um zu bestimmen, welcher Patient zusätzliche medizinische Betreuung benötigt, bevorzugte weiße Patienten. Dieses und ähnliche Programme regulieren aber bereits heute die Gesundheitsversorgung für circa 200 Millionen Menschen in den USA!
    Woher kam dieser „Fehler“, der sogenannte Bias, im System? Auch wenn die ethnische Herkunft der Patienten kein Kriterium war, spielte doch die medizinische Historie der Patienten, zum Beispiel die Behandlungskosten, eine Rolle. Da Gesundheitskosten von sozioökonomischen Faktoren abhängen und diese wiederum mit der ethnischen Herkunft der Patienten verbunden sind, wurden schwarze Menschen systematisch benachteiligt. Fälle wie dieser zeigen, wie schwierig es ist, Ressourcen anhand von algorithmischen Entscheidungen zu verteilen. Zu den Details geht es hier.
woman-taking-blood-pressure-hush-naidoo-unsplash
Wer bevorzugt Zugang zu bestimmten Behandlungen bekommt, entscheidet in den USA schon häufig ein Algorithmus (Foto: Hush Naidoo/Unsplash).

Welche Auswirkungen haben Algorithmen-basierte Entscheidungen auf die Gesellschaft als Ganzes und jeden Einzelnen von uns? Die Bertelsmann-Stiftung betrachtet diese Themen im Projekt Ethik der Algorithmen: „Wir möchten einen Beitrag zur Gestaltung algorithmischer Systeme leisten, die zu mehr Teilhabe für alle führen. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.“

Ein aktueller Bericht des Institute for Human-Centered Artificial Intelligence an der Stanford University kommt zum Schluss, dass AI ökonomisch dauerhaft nur dann von breitem Nutzen ist, wenn sie verantwortungsbewusst genutzt und die Gewinne gerechter verteilt werden. Andernfalls werde AI vor allem einer reichen und mächtigen Elite dienen und die große Mehrheit der Menschen immer mehr ins wirtschaftliche Abseits gedrängt.

AI schaffen, der wir vertrauen – aber wie?

Neben Initiativen wie dem Projekt der Bertelsmann-Stiftung versucht auch die Politik, Lösungen zu finden. Zum Beispiel mit der Datenethikkommission. Von „Regulierungswut“ bis „Steilvorlage für die Zivilgesellschaft“ – der Abschlussbericht der Kommission rief vergangene Woche völlig unterschiedliche Reaktionen hervor. Stimmen relevanter Akteure fassen unter anderem netzpolitik.org, das Handelsblatt und fortune.com zusammen.

Gemeinsam beauftragt von Innenministerium und Justizministerium sollte die Kommission Antworten auf komplexe Fragen rund um Datennutzung, Algorithmen und damit auch AI finden. Wertebasiert, menschenzentriert und gemeinwohlorientiert – so stellt sich Bundesjustizministerin Christine Lambrecht die digitale Zukunft vor. Neue Technologien wie AI sollen niemanden zurücklassen und die Menschen sollen ihnen vertrauen können.

Die Kommission schlägt dafür vor:

  • Algorithmische Systeme bzw. AI nach ihrem Schädigungspotenzial für Verbraucher kategorisieren; je nach Risikoklasse müssen die AI-Betreiber bestimmte Auflagen erfüllen
  • Ein Gütesiegel für Algorithmen soll Verbrauchern Klarheit geben
  • Unternehmen sollen einen Algorithmen-Beauftragten bekommen, ähnlich wie ein Datenschutzbeauftragter
gutachten-datenethikkommission
Wer ganz genau nachlesen möchte findet das Gutachten der Datenethikkommission hier. Einfach auf das Bild klicken.

Auch der Giga Gipfel in dieser Woche, ein Treffen der Digitalbranche, unter anderem organisiert von Handelsblatt und Tagesspiegel, stand unter dem Motto „Tech for Good“. Die Teilnehmer erarbeiteten folgende Kernbotschaften (siehe im Newsletter Artikel „Technologie darf kein Selbstzweck sein“ von Miriam Schröder):

1. Wir müssen Technologie stets so entwickeln, dass sie den Menschen ermächtigt und in der Verantwortung hält.
2. Technologie darf kein Selbstzweck sein: Sie darf nicht Probleme kreieren, die sie dann zu lösen versucht.
3. Technologie muss nachhaltige Entwicklungen fördern und für so viele Menschen wie möglich problemlos nutzbar sein.
4. Wir brauchen Technologien, um Ressourcen weltweit fairer und nachhaltiger einsetzen zu können.
5. Die für KI verwendeten Daten müssen transparent sein, aus vertrauenswürdigen Quellen stammen, diskriminierungsfrei verwendet und datenschutzkonform erhoben werden.
6. Wir müssen besser erklären, wie Technologie funktioniert und welche Chancen sich daraus für die Gesellschaft ergeben.

Auf der Suche nach Lösungen

Wie kann maschinelle Ethik aussehen? Im Grunde wie unsere menschliche Ethik, erklärt der Philosoph Peter Asaro. Denn Maschinen können höchstens mit Hilfe unserer menschlichen Programmierung lernen, unsere Ethik nachzuahmen. Wenn Algorithmen Entscheidungen treffen, müssten die Entwickler also die Verantwortung dafür übernehmen. Doch gerade daran scheitert es vielfach, wie die Ethikprofessorin Judith Simon kritisiert. Junge Programmierer, wie die Gruppe ConsciousCoder, sind sich hingegen bereits heute dieser Verantwortung bewusst.

Ethisch orientierte Kriterien für Artificial Intelligence gibt es zwar bereits. Deren mangelnden Effekt diskutiert Geoff Mulgan, CEO der britischen Innovations-Stiftung Nesta, in fünf Thesen. So fordert er zum Beispiel die Entwicklung ethischer Richtlinien aus Anwendungssituationen von Algorithmen heraus und macht klar, dass ethische Entscheidungen auch immer als politische Entscheidungen zu betrachten sind. Mulgan schließt:

„Ethics is more a habit or muscle, than a code (in either sense). It’s a way of thinking and reasoning, not a rigid framework. It’s nurtured in real life contexts and built up more like case law than a constitution. We need – all of us – to become much more fluent in this.“

Übersetzt mit DeepL und ein wenig eigenem Sprachgefühl:
„Ethik ist eher eine Gewohnheit oder ein Muskel, als ein Code (im doppelten Sinn). Sie ist eine Denkweise und Argumentation, kein starrer Rahmen. Sie wird in realen Kontexten gepflegt und eher wie eine Rechtsprechung als wie eine Verfassung aufgebaut. Wir müssen – alle – viel flüssiger in dieser Denkweise werden.”

aiDeepDive: Vertiefung zum Wochenende

Ein Schlüssel zu menschengerechter Artificial Intelligence?

Stuart Russell, Professor am Center for Human-Compatible AI an der University of California, Berkely, erklärt in einem VOX-Interview, warum AI-Systeme unseren ethischen Ansprüchen oft nicht genügen. Sie sind darauf getrimmt, genau ein Ziel zu erreichen: ein Spiel zu gewinnen oder ein Fahrzeug von A nach B zu fahren. Da wir Menschen jedoch über diese eindimensionalen Ziele hinaus viele weitere Ziele haben, unter anderem, dass das selbstfahrende Auto weder seine Insassen noch andere Verkehrsteilnehmer verletzt, kann ein eindimensionales AI-System nicht funktionieren.
Russels Lösung: In AI-Systeme soll eine Grundeinstellung integriert werden, die den Nutzen für die Menschen fest einprogrammiert. Wie das genau aussehen soll, erklärt der Experte im Interview und in seinem Buch Human Compatible.

AI TV- & Filmtipps zum Wochenende:

„Helena“ erwacht in Deinem Wohnzimmer

Wie könnte es sich anfühlen, wenn plötzlich eine Artificial Intelligence in Form eines Hologramms im eigenen Wohnzimmer steht? Ein neues Webformat der TV-Sender BR und Arte gibt ein Gefühl dafür. Helena, eine AI-Dame, soll ihrem Erschaffer Sven helfen, die Welt zu retten. Doch zunächst muss sie dafür viel Lernen. Begleitet wird diese fiktive Geschichte von Erläuterungen namhafter AI-Wissenschaftler und Praktiker wie Yann LeCun, Turing-Preisträger und Leiter von Facebook AI. Sehenswert!

Helena, die von Sven erschaffene AI muss noch eine Menge lernen (Zum Video geht es durch einen Klick auf das Bild)

aiDeepDive: Vertiefung zum Wochenende

Der Terminator passt nicht ins Bild

Stimmen aus der AI-Community wie Yoshua Bengio vom Forschungsunternehmen Element AI und Facebook-Wissenschaftler Edward Grefenstette kritisieren die Darstellung von Artificial Intelligence im neuen Terminator-Film von Arnold Schwarzenegger. Der Film zeige eine unrealistische Superintelligenz, die mit heutigen und auch zukünftigen AI-Systemen wenig zu tun habe. Das löse Ängste bei den Menschen aus, die völlig unbegründet seien. Mehr Meinungen zu Terminator: Dark Fate lest ihr hier.

Eine weitere Argumentation der Filmkritiker: Wir sollten uns mehr darum sorgen, wie Menschen die Möglichkeiten bereits heute vorhandener AI-Systeme missbrauchen. So überwacht die chinesische Regierung die Minderheit der Uiguren mit automatisierter Gesichtserkennung. Mit Chatbots und DeepFake-Videos lassen sich demokratische Wahlen beeinflussen.


Wir freuen uns immer über Feedback zum Newsletter: feedback@ailetter.de


Beziehe den aiLetter regelmäßig!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.