aiLetter #1.1: AI-Forschung – wer bezahlt, bestimmt?!

 

Liebe Freunde des aiLetter,

in dieser Woche konzentriert sich der Newsletter wieder einmal auf einen aiFocus zum Thema Forschung. Die im Bereich Artificial Intelligence und Machine Learning wird sehr oft von großen Tech-Unternehmen wie Google oder Facebook finanziert. Das hat Konsequenzen. Bedeutet Privatisierung von Forschung automatisch Gewinnoptimierung statt Gemeinwohl? Werden damit Grundlagenforschung und Produktentwicklung vermischt? Welche Auswirkungen hat das auf weniger entwickelte Industrien oder Volkswirtschaften? Gibt es Lösungsvorschläge? In diesem aiLetter findet ihr Lesenswertes zu diesen Fragen.

Wie ihr an der Nummer dieses aiLetters sehen könnt, sind wir mit der Veröffentlichung unserer Webseite ailetter.de aus den „Nullnummern” herausgewachsen. 
Damit ist dieser aiLetter auch der Startschuss für die nächste Stufe unseres Projektes: Mehr Leser, Experten, Gastautoren und Partner gewinnen. Wir freuen uns deshalb natürlich auch, wenn ihr den Newsletter an interessierte Menschen weiterleitet! Und ebenso freuen wir uns auch weiterhin über euer Feedback zu Newsletter und Website 😊

Viel Spaß beim Lesen wünscht

Anke


aiFocus: Die Privatisierung der AI-Forschung

  • Forschung im Bereich AI kostet Milliarden – insbesondere aufgrund von teurer Rechenkapazität und benötigter Datenmengen.
  • Deshalb wird sie zunehmend von Privatunternehmen, allen voran den großen Tech-Playern wie Google, Amazon, Facebook und Co., finanziert.
  • Diese Privatisierung der AI-Forschung wird zunehmend kritisch bewertet.

 

Facebook hat eine Studie finanziert, bei der Computermodelle die Gedanken von Epilepsiepatienten lesen. Die Erkenntnisse könnten sowohl der Medizin als auch der Gaming-Industrie zugute kommen. Theoretisch eine tolle Sache: Win-Win auf einem Gebiet, in dem die Forschung aufgrund der benötigten Rechenleistung und Daten ein wahnsinnig teures Unterfangen ist.
Gerade Facebook, Google und Co. können Milliarden in AI-Projekte stecken, die öffentlich-finanzierten Organisationen, Universitäten und anderen Unternehmen nicht zur Verfügung stehen. Doch ist das ein typisches Forschungsprojekt?

Akademische vs. Industrielle Forschung

Warum ist es für die Entwicklung von AI so wichtig, dass die Forschung an intelligenten Algorithmen nicht nur in industriellen Labs stattfindet? Technologiejournalist Tony Peng stellt es so dar: Natürlich können privatwirtschaftliche Forschungsunternehmen wie DeepMind medienwirksame Erfolge hervorbringen. Die Grundlagen dafür liegen jedoch oft in jahrelanger akademischer Forschung. Ein Grund dafür:
„Frei von starkem Lieferdruck oder kommerzialisierungsorientierten Forschungsrestriktionen bietet die Wissenschaft ein ideales Umfeld für die Blue-Sky-Forschung, um bedeutende Durchbrüche zu erzielen.“ (übersetzt mit dem DeepL-Übersetzer)

Jedoch schließen sich junge Computerwissenschaftler und auch Professoren vermehrt industriellen Laboren an, da dort sowohl die finanzielle und technische Ausstattung als auch die Gehälter besser sind, als an vielen Universitäten.

Are Commercial Labs Stealing Academia's AI Thunder?
Quelle: syncedreview.com

 

Der AI-Wissenschaftler und Unternehmer Mehdi Merai merkt an: Industriell finanzierte AI-Forschung zielt stärker auf die Entwicklung konkreter, vermarktbarer Produkte ab. Merai kritisiert, dass Wissenschaftler zunehmend als eine bessere Art von AI-Ingenieuren betrachtet werden, die fertige Produkte entwickeln können. Doch das sei nicht die Aufgabe von Wissenschaft – schon gar nicht von Grundlagenforschung.
Forschung funktioniere nicht mit einem Go-to-Market-Timing, auch wenn einige AI-Forschungsunternehmen das suggerieren. Wissenschaftler, so Merai, seien darauf trainiert, die beste Lösung für eine Aufgabenstellung zu finden, und das im Austausch mit ihren Kollegen aus verschiedenen Institutionen. Dieses Selbstverständnis laufe der gewinnorientierten Logik eines Unternehmens zunächst einmal zuwider.

Forschungsgemeinschaft weniger inklusiv

Wer bezahlt, bestimmt, was erforscht wird. Und von wem! Stimmt das so auch im Bereich der AI-Forschung? Zunehmend kritisieren Mitglieder der AI-Community, dass es der Forschungsgemeinschaft an Vielfalt fehlt. So stellte Oren Etzioni, CEO des Allen Institute for Artificial Intelligence (AI2), vor einiger Zeit fest:
„Es gibt ein wichtiges Thema der Inklusivität, bei dem (nicht nur) Menschen aus Schwellenländern, sondern auch Studenten und Akademiker sowie Start-ups zunehmend von der Spitzenposition ausgeschlossen werden können, wenn es darum geht, dass man z.B. eine Milliarde Dollar braucht…. um innovative KI-Forschung durchzuführen.“ (übersetzt mit DeepL-Übersetzer)

Ähnliche Bedenken äußert Karen Hao vom MIT Technology Review.

Was bedeutet das konkret, zum Beispiel für weniger entwickelte Länder? Dave Gershgorn berichtet, dass die Entwicklung einer afrikanischen AI-Forschungs- und Entwicklungsinfrastruktur massiv von der Finanzierung der großen Tech-Konzerne aus den USA und China abhängt. Akteure in weniger entwickelten Volkswirtschaften stehen somit vor der Herausforderung, ihre Forschung nicht „kolonisieren“ zu lassen und trotzdem die Ressourcen für wichtige Fortschritte zu haben.

Warum ist das wichtig?
Natürlich betrifft uns die Problematik afrikanischer AI-Forschung in Europa nicht direkt. Wenn AI aber zu einer Technologie werden soll, die das Leben von Menschen weltweit verbessert, dann müssen in Konsequenz auch Menschen weltweit in der Lage sein, an einer ergebnisoffenen Erforschung dieser Technologie mitzuwirken.

Lösungsvorschläge

Neben seiner kritischen Betrachtung diskutiert Tony Peng in seinem Artikel auch eine mögliche Lösung: In den USA arbeiten Akademiker vermehrt sowohl an Universitäten als auch in industriellen Forschungslaboren und können so die Vorteile beider Welten nutzen.

Hardware und Algorithmen müssen effizienter werden, damit AI-Forschung kosteneffizienter und damit inklusiver werden kann. Das fordert zum Beispiel Emma Strubell, Doktorandin und AI-Wissenschaftlerin an der University of Massachusetts. Dann könnten auch Studierende oder Start-ups besser zur Erforschung neuer AI-Lösungen beitragen.

Amy Webb – Leiterin des Future Today Institute – fordert, dass wir AI, ähnlich wie Luft oder Wasser als öffentliches Gut betrachten, welches wir entsprechend im Sinne der Allgemeinheit regulieren und nutzen. Eine internationale, unabhängige Organisation solle dies kontrollieren, ähnlich der IAEA, die die Nutzung von Kernenergie überwacht, wie sie im Video erklärt.

Amy Webb, Gründerin des Future Today Institute und Professorin an der New York University spricht über den aktuellen Stand der AI-(Forschungs)-Landschaft.

aiDeepDive: Vertiefung zum Wochenende

Amy Webb beschreibt in ihrem aktuellen Buch „The Big Nine: How How The Tech Titans and Their Thinking Machines Could Warp Humanity”, wie die großen Tech-Unternehmen die AI-Landschaft beherrschen und wie ein Wandel im Verständnis von AI von einem Produkt hin zu einem öffentlichen Gut aussehen könnte.


Wir freuen uns immer über Feedback zum Newsletter: feedback@ailetter.de


Beziehe den aiLetter regelmäßig!

Bleibe immer auf dem neuesten Stand. Erhalte wöchentlich News aus der Welt der Artificial Intelligence kostenlos in dein Postfach.