iStock-monsitj-ai-focus

aiLetter #1.5: Datenethik und Artificial Intelligence – wie geht das zusammen?

aiLetter #1.5: Datenethik und Artificial Intelligence – wie geht das zusammen?

Liebe Freunde des aiLetter,

in dieser Woche dreht sich im aiFocus alles um das Thema Ethik im Zusammenhang mit Artificial Intelligence. Was dürfen die intelligenten Algorithmen? Und was nicht? Wer beschäftigt sich mit diesem Thema und wer darf hier Entscheidungen treffen? Eine schwierige Materie, in die wir mit Beispielen aus der Praxis und ein wenig theoretischem Background etwas Licht bringen wollen. Ist uns das gelungen? Gebt uns gerne Feedback. Im aiDeepDive haben wir heute auch noch einen TV-Tipp und eine kleine Filmkritik im Gepäck.

Und wie immer gilt: Wenn euch der aiLetter gefällt, leitet ihn gerne an Menschen weiter, die sich auch für AI und Machine Learning interessieren (oder dies aus eurer Sicht tun sollten … ) 😉

Viel Spaß beim Lesen wünscht

Anke


aiFocus: Wie kommt die Ethik in Artificial Intelligence?

  • Breitere Nutzung von AI-basierten Systemen erzeugt – gewollt oder ungewollt – auch immer mehr ethische Herausforderungen.
  • Mit Regulierungsvorschlägen für ethisch geprägte Algorithmen und AI sorgte die Datenethikkommission der Bundesregierung in der letzten Woche für Diskussionen.
  • Welchen Kriterien müssen Lösungsansätze genügen und ist es möglich, hier alle Betroffenen zu integrieren?

Das Hamburger Unternehmen Kreditech vergibt Kredite an Menschen, die nach herkömmlichen Kriterien nicht kreditwürdig wären, zum Beispiel Freiberufler oder Studierende. Die Entscheidung trifft dabei ein AI-gestütztes System, das die Kreditwürdigkeit der Menschen anhand von ganz neuen Parametern wie der Eingabegeschwindigkeit im Online-Formular bewertet. Dies öffnet neuen Gruppen zwar die Tür zu Krediten, verlangt von ihnen jedoch, eine neue Fülle an Daten preiszugeben. Ein Dilemma, wie Carla Hustedt und Dr. Jörg Dräger von der Bertelsmann-Stiftung beschreiben.

Das Beispiel zeigt, wie Algorithmen und Artificial Intelligence in immer mehr Lebensbereichen Entscheidungen treffen oder zumindest Menschen bei ihren Entscheidungen unterstützen sollen. Zwei weitere Beispiele:

  1. Algorithmen kategorisieren österreichische Arbeitslose: Wie hoch die Vermittlungschancen eines Arbeitslosen sind, errechnet beim österreichischen Arbeitsmarktservice seit diesem Jahr ein Algorithmus. Ab dem kommenden Jahr soll auf dieser Basis die Betreuung durch die Arbeitsvermittler angepasst werden. Kritiker wie Matthias Spielkamp von Algorithmwatch sehen hierin eine ungewollte Benachteiligung für bestimmte Gruppen von Arbeitslosen, zum Beispiel Frauen mit langen Betreuungszeiten.
  2. Privilegierter Zugang zur Gesundheitsversorgung: Ein Algorithmus, den Gesundheitsanbieter in den USA nutzten, um zu bestimmen, welcher Patient zusätzliche medizinische Betreuung benötigt, bevorzugte weiße Patienten. Dieses und ähnliche Programme regulieren aber bereits heute die Gesundheitsversorgung für circa 200 Millionen Menschen in den USA!
    Woher kam dieser „Fehler“, der sogenannte Bias, im System? Auch wenn die ethnische Herkunft der Patienten kein Kriterium war, spielte doch die medizinische Historie der Patienten, zum Beispiel die Behandlungskosten, eine Rolle. Da Gesundheitskosten von sozioökonomischen Faktoren abhängen und diese wiederum mit der ethnischen Herkunft der Patienten verbunden sind, wurden schwarze Menschen systematisch benachteiligt. Fälle wie dieser zeigen, wie schwierig es ist, Ressourcen anhand von algorithmischen Entscheidungen zu verteilen. Zu den Details geht es hier.
woman-taking-blood-pressure-hush-naidoo-unsplash
Wer bevorzugt Zugang zu bestimmten Behandlungen bekommt, entscheidet in den USA schon häufig ein Algorithmus (Foto: Hush Naidoo/Unsplash).

Welche Auswirkungen haben Algorithmen-basierte Entscheidungen auf die Gesellschaft als Ganzes und jeden Einzelnen von uns? Die Bertelsmann-Stiftung betrachtet diese Themen im Projekt Ethik der Algorithmen: „Wir möchten einen Beitrag zur Gestaltung algorithmischer Systeme leisten, die zu mehr Teilhabe für alle führen. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.“

Ein aktueller Bericht des Institute for Human-Centered Artificial Intelligence an der Stanford University kommt zum Schluss, dass AI ökonomisch dauerhaft nur dann von breitem Nutzen ist, wenn sie verantwortungsbewusst genutzt und die Gewinne gerechter verteilt werden. Andernfalls werde AI vor allem einer reichen und mächtigen Elite dienen und die große Mehrheit der Menschen immer mehr ins wirtschaftliche Abseits gedrängt.

AI schaffen, der wir vertrauen – aber wie?

Neben Initiativen wie dem Projekt der Bertelsmann-Stiftung versucht auch die Politik, Lösungen zu finden. Zum Beispiel mit der Datenethikkommission. Von „Regulierungswut“ bis „Steilvorlage für die Zivilgesellschaft“ – der Abschlussbericht der Kommission rief vergangene Woche völlig unterschiedliche Reaktionen hervor. Stimmen relevanter Akteure fassen unter anderem netzpolitik.org, das Handelsblatt und fortune.com zusammen.

Gemeinsam beauftragt von Innenministerium und Justizministerium sollte die Kommission Antworten auf komplexe Fragen rund um Datennutzung, Algorithmen und damit auch AI finden. Wertebasiert, menschenzentriert und gemeinwohlorientiert – so stellt sich Bundesjustizministerin Christine Lambrecht die digitale Zukunft vor. Neue Technologien wie AI sollen niemanden zurücklassen und die Menschen sollen ihnen vertrauen können.

Die Kommission schlägt dafür vor:

  • Algorithmische Systeme bzw. AI nach ihrem Schädigungspotenzial für Verbraucher kategorisieren; je nach Risikoklasse müssen die AI-Betreiber bestimmte Auflagen erfüllen
  • Ein Gütesiegel für Algorithmen soll Verbrauchern Klarheit geben
  • Unternehmen sollen einen Algorithmen-Beauftragten bekommen, ähnlich wie ein Datenschutzbeauftragter
gutachten-datenethikkommission
Wer ganz genau nachlesen möchte findet das Gutachten der Datenethikkommission hier. Einfach auf das Bild klicken.

Auch der Giga Gipfel in dieser Woche, ein Treffen der Digitalbranche, unter anderem organisiert von Handelsblatt und Tagesspiegel, stand unter dem Motto „Tech for Good“. Die Teilnehmer erarbeiteten folgende Kernbotschaften (siehe im Newsletter Artikel „Technologie darf kein Selbstzweck sein“ von Miriam Schröder):

1. Wir müssen Technologie stets so entwickeln, dass sie den Menschen ermächtigt und in der Verantwortung hält.
2. Technologie darf kein Selbstzweck sein: Sie darf nicht Probleme kreieren, die sie dann zu lösen versucht.
3. Technologie muss nachhaltige Entwicklungen fördern und für so viele Menschen wie möglich problemlos nutzbar sein.
4. Wir brauchen Technologien, um Ressourcen weltweit fairer und nachhaltiger einsetzen zu können.
5. Die für KI verwendeten Daten müssen transparent sein, aus vertrauenswürdigen Quellen stammen, diskriminierungsfrei verwendet und datenschutzkonform erhoben werden.
6. Wir müssen besser erklären, wie Technologie funktioniert und welche Chancen sich daraus für die Gesellschaft ergeben.

Auf der Suche nach Lösungen

Wie kann maschinelle Ethik aussehen? Im Grunde wie unsere menschliche Ethik, erklärt der Philosoph Peter Asaro. Denn Maschinen können höchstens mit Hilfe unserer menschlichen Programmierung lernen, unsere Ethik nachzuahmen. Wenn Algorithmen Entscheidungen treffen, müssten die Entwickler also die Verantwortung dafür übernehmen. Doch gerade daran scheitert es vielfach, wie die Ethikprofessorin Judith Simon kritisiert. Junge Programmierer, wie die Gruppe ConsciousCoder, sind sich hingegen bereits heute dieser Verantwortung bewusst.

Ethisch orientierte Kriterien für Artificial Intelligence gibt es zwar bereits. Deren mangelnden Effekt diskutiert Geoff Mulgan, CEO der britischen Innovations-Stiftung Nesta, in fünf Thesen. So fordert er zum Beispiel die Entwicklung ethischer Richtlinien aus Anwendungssituationen von Algorithmen heraus und macht klar, dass ethische Entscheidungen auch immer als politische Entscheidungen zu betrachten sind. Mulgan schließt:

„Ethics is more a habit or muscle, than a code (in either sense). It’s a way of thinking and reasoning, not a rigid framework. It’s nurtured in real life contexts and built up more like case law than a constitution. We need – all of us – to become much more fluent in this.“

Übersetzt mit DeepL und ein wenig eigenem Sprachgefühl:
„Ethik ist eher eine Gewohnheit oder ein Muskel, als ein Code (im doppelten Sinn). Sie ist eine Denkweise und Argumentation, kein starrer Rahmen. Sie wird in realen Kontexten gepflegt und eher wie eine Rechtsprechung als wie eine Verfassung aufgebaut. Wir müssen – alle – viel flüssiger in dieser Denkweise werden.”

aiDeepDive: Vertiefung zum Wochenende

Ein Schlüssel zu menschengerechter Artificial Intelligence?

Stuart Russell, Professor am Center for Human-Compatible AI an der University of California, Berkely, erklärt in einem VOX-Interview, warum AI-Systeme unseren ethischen Ansprüchen oft nicht genügen. Sie sind darauf getrimmt, genau ein Ziel zu erreichen: ein Spiel zu gewinnen oder ein Fahrzeug von A nach B zu fahren. Da wir Menschen jedoch über diese eindimensionalen Ziele hinaus viele weitere Ziele haben, unter anderem, dass das selbstfahrende Auto weder seine Insassen noch andere Verkehrsteilnehmer verletzt, kann ein eindimensionales AI-System nicht funktionieren.
Russels Lösung: In AI-Systeme soll eine Grundeinstellung integriert werden, die den Nutzen für die Menschen fest einprogrammiert. Wie das genau aussehen soll, erklärt der Experte im Interview und in seinem Buch Human Compatible.

AI TV- & Filmtipps zum Wochenende:

„Helena“ erwacht in Deinem Wohnzimmer

Wie könnte es sich anfühlen, wenn plötzlich eine Artificial Intelligence in Form eines Hologramms im eigenen Wohnzimmer steht? Ein neues Webformat der TV-Sender BR und Arte gibt ein Gefühl dafür. Helena, eine AI-Dame, soll ihrem Erschaffer Sven helfen, die Welt zu retten. Doch zunächst muss sie dafür viel Lernen. Begleitet wird diese fiktive Geschichte von Erläuterungen namhafter AI-Wissenschaftler und Praktiker wie Yann LeCun, Turing-Preisträger und Leiter von Facebook AI. Sehenswert!

Helena, die von Sven erschaffene AI muss noch eine Menge lernen (Zum Video geht es durch einen Klick auf das Bild)

aiDeepDive: Vertiefung zum Wochenende

Der Terminator passt nicht ins Bild

Stimmen aus der AI-Community wie Yoshua Bengio vom Forschungsunternehmen Element AI und Facebook-Wissenschaftler Edward Grefenstette kritisieren die Darstellung von Artificial Intelligence im neuen Terminator-Film von Arnold Schwarzenegger. Der Film zeige eine unrealistische Superintelligenz, die mit heutigen und auch zukünftigen AI-Systemen wenig zu tun habe. Das löse Ängste bei den Menschen aus, die völlig unbegründet seien. Mehr Meinungen zu Terminator: Dark Fate lest ihr hier.

Eine weitere Argumentation der Filmkritiker: Wir sollten uns mehr darum sorgen, wie Menschen die Möglichkeiten bereits heute vorhandener AI-Systeme missbrauchen. So überwacht die chinesische Regierung die Minderheit der Uiguren mit automatisierter Gesichtserkennung. Mit Chatbots und DeepFake-Videos lassen sich demokratische Wahlen beeinflussen.


Wir freuen uns immer über Feedback zum Newsletter: feedback@ailetter.de


Abonniere jetzt den aiLetter!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.


iStock-monsitj-ai-news

aiLetter #1.4: AI in deutschen Unternehmen, Gefängnissen und Unikliniken, Dorothee Bärs Lageeinschätzung, Peter Altmaier & Gaia-X

aiLetter #1.4: AI in deutschen Unternehmen, Gefängnissen und Unikliniken, Dorothee Bärs Lageeinschätzung, Peter Altmaier & Gaia-X

Liebe Freunde des aiLetter,

heute kommen die wöchentlichen aiNews am Sonnabend und haben diese Themen: der deutsche AI-Verbandschef Jörg Bienert im Podcast zu einem AI-Masterplan für Deutschland. Ein britisches Startup bietet Lösungen für den Durchblick im Datendschungel. In NRW soll AI zukünftig die Suizidgefahr von Häftlingen überwachen. Peter Altmaier will mit Gaia-X ein europäisches Cloudsystem initiieren und Dorothee Bär stellt ihre Sicht auf die deutsche AI-Landschaft vor. Zur Vertiefung: AI-Diagnostik hält Einzug in deutsche Unikliniken. Last but not least: Ob intelligente Systeme wirklich kreativ schreiben können, darüber scheiden sich die Geister – im aiTaillight.

Wie immer freuen wir uns über euer Feedback zum Newsletter und den ein oder anderen Like auf LinkedIn. Wenn euch der aiLetter gefällt, leitet ihn gerne an Menschen weiter, die sich auch für AI und Machine Learning interessieren (oder dies aus eurer Sicht tun sollten … ).

Viel Spaß beim Lesen wünscht

Anke


ai@Work: Lösungen im Einsatz

Wo steht Deutschland mit Artificial Intelligence – eine Experteneinschätzung

In der aktuellen Folge des „So techt Deutschland”-Podcast ordnet Jörg Bienert, AI-Unternehmer und Vorsitzender des Bundesverbands Künstliche Intelligenz, den aktuellen Stand der AI-Nutzung in Deutschland ein: wo können Unternehmen und Forschung besser kooperieren, wo zwickt die DSGVO und warum müssen gerade Hidden Champions aufpassen, damit sie nicht in Abhängigkeiten von den globalen Tech-Giganten geraten. Und: gibt es überhaupt einen Masterplan für AI in Deutschland?


aiInvest: Wer investiert wo?

25 Millionen US-Dollar für einen besseren Überblick im Internet

Die Informationsflut des Internets sortieren und daraus wertvolle Erkenntnisse generieren? Dieser Aufgabe widmet sich das Londoner Start-up Signal AI. Dafür gab es nun 25 Millionen US-Dollar, unter anderem von einem Venture Fonds, der der Guardian Media Group nahe steht. Neben allgemeinen News-Daten unterstützt Signal AI seine Kunden bei der Strukturierung und Auswertung ihres spezifischen Datenbedarfs. Zusammen mit dem internationalen Consulting-Unternehmen Deloitte werden so etwa Steuerinformationen mit automatisierten Benachrichtigungen an die Kunden ausgesandt.

data-gerd-altmann-pixabay
Den Durchblick behalten: Signal AI liefert intelligente Software zur Datenauswertung (Bild: Gerd Altmann/pixabay).


aiLab: ein Blick in Forschung & Entwicklung

AI soll Suizidgefahr erkennen

Das Justizministerium in NRW startet ein Forschungsprojekt zur Erkennung von Suizidgefahr bei Häftlingen. Eine AI-gestützte Videoerkennung soll helfen, Verhaltensmuster der Gefangenen zu erkennen, die auf ein potentielles Suizidrisiko hinweisen. Entwickelt wird das Programm von einem sächsischen Unternehmen.

Ein anderes mögliches Einsatzgebiet intelligenter Algorithmen in der Justiz wird im heutigen aiDeepDive beleuchtet.


aiPolicy: Politik & Rahmenbedingungen

Gaia-X: Peter Altmaier stellt Pläne für europäische Datencloud vor

Kommende Woche wird Bundeswirtschaftsminister Peter Altmaier ein Projekt vorstellen, das für die Entwicklung der europäischen AI-Landschaft von hoher Bedeutung sein könnte: Gaia-X, ein europäisches Konkurrenzsystem zu US-amerikanischen Cloud-Anbietern wie Amazon Web Services (AWS) oder Microsoft Azure. Diverse Vorarbeiten wurden schon durch mehrere bisher unabhängige Projekte geleistet. Deutsche Großunternehmen wie die Deutsche Bank, die Deutsche Telekom und SAP unterstützen das Projekt. Trotzdem halten Kritiker wie Siemens-Technikchef Roland Busch das Projekt für unrealistisch.
AI-Experte Jörg Bienert gibt seine Einschätzung zu Gaia-X im Podcast-Tipp ab (siehe ai@Work).

Dorothee Bär: So steht es um die deutsche Industrie in Sachen AI

Im Interview mit dem Branchenportal MM Maschinenmarkt beantwortet Digital-Staatsministerin Dorothee Bär, wie sie die Entwicklung von Artificial Intelligence in der deutschen Industrie sieht, was von der Politik bereits getan wird und warum es zum Beispiel bei der Schaffung neuer AI-Professuren in Deutschland langsamer vorangeht als gewünscht.

Stellt sich kritischen Fragen: Dorothee Bär (CSU), Staatsministerin im Bundeskanzleramt und Beauftragte der Bundesregierung für Digitalisierung.

aiDeepDive: Vertiefung zum Wochenende

Faire Algorithmen?

Wie lässt sich juristische Fairness mathematisch quantifizieren? In ihrem Artikel diskutieren Karen Hao und Jonathan Stray am Beispiel juristischer Entscheidungen, welche Auswirkungen es hat, wenn Algorithmen entscheiden, was fair ist und was nicht. Plus: Ihr könnt es in einem Algorithmen-Spiel im Artikel selbst ausprobieren. Also ran an die Tasten!

AI ist wie gemacht für Gesundheitsversorgung

Schneller Überblick: Microsoft AI-Expertin Geralyn Miller zeichnet Szenarien zukünftiger Gesundheitsversorgung mithilfe von AI vor. Einen Fokus legt sie dabei auf die gesellschaftlichen, ethischen und rechtlichen Bedingungen, die notwendig sind, um datenbasierte und AI-gestützte Medizin für alle Menschen bestmöglich nutzbar zu machen.

Und wann kommt AI in deutsche Krankenhäuser?

Sie ist schon da. Zumindest in vielen Unikliniken stehen AI-Systeme zur Krebserkennung oder Altersbestimmung kurz vor dem Praxiseinsatz. Arne Grävemeyer spricht in seinem Artikel mit Ärzten und Forschern und diskutiert über Möglichkeiten, Vorbehalte und nachvollziehbare AI-Diagnosen.

xray-oracast-pixabay
Muster in Röntgenaufnahmen erkennen – ein Beispiel für den Einsatz von AI-Systemen in der Medizin (Bild: oracast/pixabay).


aiTaillight: Ein FunFact zum Schluss

Stil sehr gut, Inhalt mangelhaft – wenn AI Texte schreibt

Gedichte, Kurzgeschichten und sogar neue Kapitel für Harry Potter – die kreative Energie von Artificial Intelligence scheint beim Schreiben keine Grenzen mehr zu kennen. Oder doch? Hier geht’s zur AI-Literaturkritik.


Wir freuen uns immer über Anregungen und Feedback zum aiLetter: feedback@ailetter.de


Abonniere jetzt den aiLetter!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.


iStock-monsitj-ai-news

aiLetter #0.09: VISA, AI in der Serengeti, neue AI-Professuren und -labore in Deutschland

aiLetter #0.09: VISA, AI in der Serengeti, neue AI-Professuren und -labore in Deutschland

Liebe Freunde des aiLetter,

schön, dass ihr den Newsletter wieder geöffnet habt! Diese Woche sind News zu zwei AI-Anwendungsfällen in Afrika dabei. Außerdem gibt es Geld für 30 neue AI-Professuren in Deutschland sowie AI-Labore im Ländle. Plus: US-Sender HBO kontert den Netflix-Algorithmus mit…tadaaa…menschlichen Empfehlungen.
Und in eigener Sache: Aufgrund von Kapazitätsengpässen fällt der aiFocus-Newsletter am kommenden Freitag leider aus. Nächste Woche gibt es dann aber wieder geballte AI-Themen-Power.

Viel Spaß beim Lesen wünscht

Anke


ai@Work: Lösungen im Einsatz

VISA: Mit AI gegen Betrüger

Der Kreditkartenanbieter verhindert jährlich betrügerische Transaktionen in Milliardenhöhe mithilfe von Machine Learning-Algorithmen. Um diese Systeme zu verbessern, öffnet VISA jetzt eine cloudbasierte Plattform und seine Daten. Damit sollen AI-Ingenieure ihre Deep Learning-Algorithmen testen können. So will das Unternehmen noch bessere Lösungen gegen Kreditkartenbetrug finden.

 

AI-App für Bananenplantagen

Mit der Open Source-App Tumaini („Hoffnung” auf Swahili) können Bananenfarmer ihre Stauden besser auf Krankheiten prüfen. Die Bilderkennungssoftware findet Krankheitsbilder auf eingescannten Fotos mit 90-prozentiger Sicherheit. Und sie gibt den Bauern Tipps zur Behandlung. Gleichzeitig werden Daten in einem globalen System gesammelt. Dadurch wird die Ausbreitung von Krankheiten der Bananenpflanzen überwacht. Schäden sollen so zukünftig besser eingedämmt werden.

Für mehr wirtschaftliche Stabilität und Nahrungssicherheit: Mit einer App gegen Krankheiten in Bananenplantagen.

aiInvest: Wer investiert wo?

Die AI-Einhörner sind los

In 2019 haben bereits neun Start-ups den sogenannten Unicorn-Status erreicht, werden als mit mindestens einer Milliarde US-Dollar bewertet. Laut CBInsights gibt es damit mittlerweile 32 solcher AI-Einhörner. Was eint diese Start-ups? Sie alle nutzen in ihrem Angebot Machine Learning, verkaufen AI-Software oder bauen Computerchips, die AI verarbeiten.

 

270 Millionen Euro für AI-Gesundheit

Die britische Regierung eröffnet ein Labor für AI-Forschung im Gesundheitsbereich. Dafür erhält der National Health Service (NHS) umgerechnet 270 Millionen Euro. Das Labor soll technologische Fortschritte bei Krebsfrüherkennung, Demenzbehandlungen und in der Pflege entwickeln.


aiLab: ein Blick in Forschung & Entwicklung

AI im Serengeti Nationalpark

DeepMind entwickelt ein Machine Learning-System, das helfen soll, die Tierbestände im Serengeti Nationalpark in Tansania besser zu überwachen. Das System wurde trainiert, um Tiere auch auf schlecht fokussierten Fotos zu erkennen. Das kann es mittlerweile mindestens genauso gut wie menschliche Freiwillige. Und es braucht drei Monate für Millionen von Fotos, menschliche Helfer bräuchten ein Jahr. Praktischerweise soll das System mit moderater Hardware und schwacher Internetverbindung auskommen. So ist es auch im Park selbst einsetzbar. Die AI soll jetzt Naturschützer unterstützen, schneller auf Einflüsse durch Wilderei oder Klimaveränderungen zu reagieren.

30 neue AI-Professuren für Deutschland

Die Alexander von Humboldt-Stiftung vergibt bis 2024 30 Professuren für Artificial Intelligence. Damit sollen jedes Jahr sechs internationale Forscher nach Deutschland geholt werden, die sowohl an den technischen als auch an den gesellschaftlichen, rechtlichen und ethischen Aspekten der Technologie arbeiten. Gesucht werden Spitzenforscher aus den Bereichen Machine Learning, Robotik, Musteranalyse, Computerlinguistik, Ethik und Philosophie. Finanziert werden die Professuren durch das Bundesministerium für Bildung und Forschung.


aiPolicy: Politik & Rahmenbedingungen

AI-Ethik-Richtlinien für Aufsichtsräte

Das Weltwirtschaftsforum arbeitet an einem AI-Werkzeugkasten für Unternehmen, genauer gesagt für Aufsichtsräte. Mithilfe dieser Richtlinien sollen die Verantwortlichen ein Verständnis für AI erlangen und sich und ihr Unternehmen in die Lage versetzen AI verantwortungsbewusst zu nutzen. Veröffentlicht wird das Paket zur Davos-Konferenz im kommenden Jahr.

AI-Labore für Baden-Württemberg

Das Wirtschaftsministerium im Ländle gibt zwei Millionen Euro für die Eröffnung regionaler AI-Labs. Das Ziel: Mittelständische Unternehmen in Sachen AI-Anwendung unterstützen. Neben der Vermittlung von Fachkenntnissen sollen die Labore auch Raum fürs vernetzte Experimentieren sowie den Austausch zwischen Unternehmen bieten.


aiDeepDive: tiefer eintauchen

Interview: Wie kommt AI ins Unternehmen?

Ausnahmsweise gibt es an dieser Stelle diese Woche keine Keyword-Erklärung aus der Welt der AI. Stattdessen empfehle ich ein Interview mit einer AI-Praktikerin: Tina Klüwer, AI-Unternehmerin, Sachverständige der Enquete Kommission für KI des Bundestages und Vorstandsmitglied des KI-Bundesverbandes.

Was kann ich mit AI machen? Gibt es AI im Baukastensystem? Welche rechtlichen und ethischen Aspekte muss ich beachten? Klüwer erklärt, wo AI in Unternehmen idealerweie zum Einsatz kommt und was es zu bedenken gilt, wenn man über eine solche Einführung von AI nachdenkt.

dr-tina-kluewer-parlamind-gmbh
Dr. Tina Klüwer, Geschäftsführerin des Berliner KI-Startups parlamind wird in Enquete-Kommission des Bundestages für Künstliche Intelligenz berufen: Dr. Tina Klüwer, CEO und Gründerin parlamind, Quelle: parlamind GmbH


aiTaillight: Ein Fun Fact zum Schluss

Filmempfehlungen: Algorithmus vs. Mensch

Wer kennt es nicht: Tausende Filme und Serien stehen zur Auswahl doch der Netflix-Algoritmus schlägt einem irgendwie nicht das Richtige vor? Konkurrent HBO kontert dieses Dilemma: Der US-Sender wirbt jetzt mit Empfehlungen von Menschen. Gespeist wird das System durch Interviews mit Zuschauern sowie aus den Social Media-Kommentaren von Serienfans.

Klar, der Algorithmus macht bestimmt einen immer besseren Job. Aber ist es nicht manchmal auch schön, von anderen Serienjunkies zu hören, womit man den nächsten Marathon verbringen sollte?


Dies ist eine der ersten Ausgaben des aiLetters. Wir freuen uns deshalb besonders über Feedback: feedback@ailetter.de
– Wie interesssant findest Du das Thema für einen eigenen Newsletter in dieser Form?
– Wie informativ ist für Dich insofern der Inhalt des hier vorliegenden Entwurfs?
– Wie bewertest du das Layout und den Aufbau des aiLetters?
– Was würdest du anders machen?
– Würdest du den aiLetter abonnieren? Würdest du ihn weiterempfehlen? Wenn ja, wem?


Abonniere jetzt den aiLetter!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.