Algorithmen sind für die meisten Nicht-Informatiker etwas Abstraktes. Irgendwas mit Code, irgendwas mit Zahlen. Weit gefehlt: Im Wesentlichen sind Algorithmen etwas sehr Greifbares, nämlich Schritt-für-Schritt-Vorschriften für das Erreichen einer Lösung ähnlich wie ein sehr detailliertes Kochrezept. Zunehmend greifen Algorithmen dabei in unser Leben ein, besonders seit es Algorithmen gibt, die lernen können. Algorithmen prognostizieren und diagnostizieren beispielsweise:

  • wo als nächstes Verbrechen geschehen; 
  • wer mit welcher Wahrscheinlichkeit kriminell ist oder sein wird; 
  • welche Krankheiten wir haben (werden);
  • wie anfällig wir für Stress und Depressionen sind;
  • welche Produkte uns interessieren und welche wir kaufen;
  • wer ein geeigneter Partner sein könnte;
  • wie sich Aktien und Preise entwickeln werden;
  • welche Nachrichten wir interessant finden;
  • wie der Verkehr wann und wo ist;
  • und ganz allgemein, wer wann wo sein wird.
Das wiederum erlaubt es, vollständig automatisch zu entscheiden oder zu empfehlen:

  • wo die Polizei auf Streife geht;
  • wer verurteilt und wer vorzeitig aus der Haft entlassen wird;
  • welche Suchergebnisse wir sehen;
  • wie medizinische Prophylaxe und Behandlungen gestaltet werden;
  • wie hoch unsere Versicherungskosten sind;
  • welchen Job wir bekommen (und ob wir überhaupt einen bekommen);
  • welche Aktiven gekauft werden;
  • welche Nachrichten uns im Netz angezeigt werden;
  • was auf unserer Facebook-Timeline zu sehen ist; 
  • wann und wo amerikanische Drohnen zuschlagen;
  • und wo und wie zukünftig Autos auf der Straße fahren.

Diese Entwicklung hat zwei Seiten. Einerseits geben wir Verantwortung ab; ganze Berufszweige werden überflüssig; Menschen mit bestimmten Eigenschaften, die beispielsweise auf eine zu erwartende Depression hinweisen, bekommen keine Jobs mehr und werden erst recht depressiv; es entstehen Filterblasen („Filter Bubbles“) und Echokammern („Echo Chambers“), welche den demokratischen Diskurs unterminieren.

Andererseits verspricht man uns, die Algorithmen seien objektiv und unbestechlich, effektiv, effizient, gerecht, fair und hätten keine Vorurteile. Aber stimmt das wirklich? Aktuelle Algorithmen müssen erst mit Trainingsdaten gefüttert werden, um gute Prognosen treffen zu können. Auf welchen Daten werden die Algorithmen trainiert? Füttern wir nicht die Verzerrungen des bisherigen Systems versteckt und möglicherweise unwissentlich in die neuen ,Entscheidungshelfer‘ wieder ein? Verschärft werden die Probleme dadurch, dass die aktuellen Methoden des maschinellen Lernen und der künstlichen Intelligenz es selbst den eigenen Entwicklern unmöglich macht zu wissen, warum das System die Outputs erzeugt, die es erzeugt. Der ganze Prozess ist folglich inhärent intransparent.

Das alles wirft wichtige und drängende moralische Fragen auf, aber bisher beschäftigen sich Moralphilosophen kaum mit ihnen. Das sollte nicht so bleiben und wir gehen mit gutem Vorbild voran.

Wir werden uns einer Vielzahl von Quellen bedienen: TED-Talks, journalistische Internet- und Print-Artikel, einige wissenschaftliche Veröffentlichungen, vor allem aus den Politik- und Sozialwissenschaften, aber auch in Veröffentlichungen aus der Informatik werden wir einen Blick werfen (technisches oder mathematisches Vorwissen wird dabei nicht benötigt!). Wir werden einige allgemeine Prinzipien und Mechanismen identifizieren, die in diesem Zusammenhang immer wieder zu erkennen sind. Dann werden wir uns fragen, mit welchen Methoden und Ansätzen man versuchen kann, diese Prinzipien und Mechanismen moralisch zu beurteilen. Am Ende des Semesters stehen Hausarbeiten, in denen konkrete Beispiele beurteilt werden.

Einige Quellen zur Einstimmung:

  • https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=de 
  • https://theintercept.com/2016/11/18/troubling-study-says-artificial-intelligence-can-predict-who-will-be-criminals-based-on-facial-features/
  • https://backchannel.com/put-away-your-machine-learning-hammer-criminality-is-not-a-nail-1309c84bb899'.xka45bchs
  • (Das Informatik-Paper zu den letzten beiden Artikeln: Automated Inference on Criminality using Face Images, https://arxiv.org/pdf/1611.04135v1.pdf) 
  • https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important 
  • https://www.scientificamerican.com/article/fake-online-news-spreads-through-social-echo-chambers/ 
  • http://www.spiegel.de/netzwelt/web/fuenf-arten-wie-soziale-medien-wahlen-beeinflussen-kolumne-a-1121577.html

Zeit: Dienstag, 10–12 Uhr
Ort: Geb. C5 2, Raum 2.02