Eindrücke von den Münchener Medientagen 2018
Man merkt an Äußerlichkeiten, was die Stunde geschlagen hat. Die Macher (und Macherinnen) der Medientage München gaben der Veranstaltung den Titel „Engage!“. Die Befehlsform, verdeutlicht durch das unmißverständliche Ausrufezeichen zieht den gesellschaftlichen Handlungsrahmen breit auf. Ergänzt durch die Unterzeile Shaping Media Tech Society. Wie sagte es der Veranstalter so schön: „Nicht jede Verwendung der neuer Technologien – etwa das Social Scoring – ist auch gesellschaftlich erwünscht.“ „Deshalb gehören Innovationen und die Debatte über ihre gesellschaftlichen Folgen im Zeitalter der Digitalisierung zusammen.“ (Siegfried Schneider, Präsident der Bayerischen Landeszentrale für neue Medien und Vorsitzender der Gesellschafterversammlung der Medientage München). Hieß der Wahlspruch der Aufklärung noch „sapere aude, so geht es jetzt also vor allem um die Tat.
Nun denn. Absolut gehyptes Thema ist die Künstliche Intelligenz (KI). Erstaunlicherweise war viel Skepsis und Relativierendes zu hören. KI hängt von Informationen ab, von den Daten, mit denen die Algorhithmen gefüttert werden. Sind die „Rubbish“, dann sind die Ergebnisse von KI schlecht. Der Mensch entscheidet. „Das müssen wir hochhalten!“, so zum Beispiel Prof. Dr. Wolf-Dieter Lukas, seit 2005 Leiter der Abteilung “Schlüsseltechnologien – Forschung für Innovationen” im Bundesministerium für Bildung und Forschung.
Ein Plädoyer für Bauchentscheidungen
Die Beispiele, wie KI daneben liegt, gingen jüngst durch die Medien. Amazon hat KI genutzt, um die Bestenauslese bei Bewerbungsverfahren zu optimieren. Mit der Folge, dass die KI systematisch Frauen benachteiligte. Die KI hatte mit den Datensätzen der angenommenen Bewerber trainiert und sollte so quasi lernen, welche Eigenschaften bei Amazon-Mitarbeitern bevorzugt anzutreffen sind. Am meisten stach das Geschlecht hervor, denn in den zugrunde gelegten vergangenen zehn Jahren waren vor allem Männer eingestellt worden. Der Algorithmus lernte also, dass Bewerbungen von Frauen schlechter zu bewerten seien.
Zwar passte das Entwicklerteam die Software später an, konnte aber nicht garantieren, dass die KI nicht trotzdem weiter diskriminieren würde, so Medienberichte.
KI erkennt also Muster und ist in der Lage, selbständig einmal erkannte Muster als Basis für zukünftige Entscheidungen heranzuziehen. KI kann also auch Frauenfeindlichkeit und Rassismus lernen. Es geht also um Fairness, die KI lernen müsste.
Kann KI Fairness?
Und da stoßen wir auf das nächste Problem: was ist überhaupt Fairness? Sicher kann man eine an westlichen Werten ausgerichtete Fairness deutlich von anderen Kognitionskonzepten unterscheiden – aber wie ist es innerhalb unserer Gesellschaft? Was der eine fair findet, ist für den anderen eine Grenzverletzung. Cum und Ex-betrug mag innerhalb des bestehenden Steuersystems legal sein, widerspricht aber dem Grundsatz der Steuergerechtigkeit und wird daher zu Recht endlich verfolgt.
Anderes Beispiel: Die einen finden den Ankauf und die strafrechtliche Verwertung von CDs mit den Daten von Steuersündern fair, die anderen sind empört über den Geheimnisverrat, dessen sich der Staat bedient.
Anderes Beispiel: Der Arbeitsmarktservice (AMS) in Österreich, so etwas wie die deutsche Bundesagentur für Arbeit, hat angekündigt, einen Algorithmus einzusetzen, um die Chancen von Arbeitslosen auf einen neuen Job zu bewerten. Solche Prognosen für die Wirksamkeit von Maßnahmen sollen die größtmögliche Effizienz der vorhandenen Fördermittel garantieren. Das Problem bei einem Solchen „Scoring-System“: Frauen erhalten bei Bewertungen einen Abzug, nur weil sie Frau sind. Wenn sie dazu noch eine Betreuungsaufgabe haben (Kinder, pflegebedürftige Oma, …) ist der Abzug dreimal so hoch. Nicht-EU-Bürger werden niedriger bewertet, Langzeitarbeitslose ebenso. Die Verantwortlichen sagen, sie bilden nur die Realität ab. Die Probleme liegen auf der Hand. Existierende vorurteilsbehaftete Strukturen werden normativ verfestigt und prägen die Zukunft.
KI also kann immense Daten verarbeiten, Muster erkennen, die Menschen niemals (in der gleichen Sicherheit und Geschwindigkeit nachvollziehen würden), daraus Regeln ableiten, die sich auf ähnliche und weitere Fälle anwenden lassen.
Und doch: Maschinen können ihre eigenen Urteile nicht erklären, Menschen können das.
Menschen können Intuition im Umgang mit komplexen Umgebungen (ein anderer Ausdruck für umfangreiche Daten) erlernen.
Ein schönes Beispiel für die Chancen am Schluss: Künstliche Intelligenz ist heute bei der Tumorerkennung auf dem Röntgenbild so gut wie ein durchschnittlicher Arzt. Erst im Zusammenwirken sind beide – Arzt und KI – deutliche besser als der Durchschnitt der Ärzte.
Taktiles Wissen (Bsp: Abtasten zur Krebsfrüherkennung) lässt sich nicht in Daten abbilden, lässt sich nicht quantifizieren. Deswegen: der Vorschlag (der KI) einer Diagnose darf nicht die Entscheidung sein. Die Herausforderung ist, dass der Arzt in der Praxis, der Sachbearbeiter in einem Unternehmen, die KI überstimmt. Weil er seiner Intuition vertraut, und obwohl er das Risiko eingeht, falsch zu liegen. Darum geht es in naher Zukunft.
Also vielleicht: Homine, aude expertum scire.
Contra machinam artificiosam.