„Big Data“: Die Ära des blinden Vertrauens muss aufhören

Algorithmen, die aus „Big Data“ generiert werden, sind nicht fair. Sie sind oft weit entfernt von wissenschaftlichen Erkenntnissen – und daher auch extrem anfällig für die Übernahme stereotyper und vorurteilsbehafteter Verhaltensweisen und Beurteilungen. Die Mathematikerin und Datenwissenschaftlerin Cathy O’Neil nennt Algorithmen daher nicht zu Unrecht „Mathematische Massenvernichtungswaffen“. Ihr TEDtalk ist Pflichtprogramm für alle, die wissen wollen, wie die versteckte Agenda von vermeintlich objektiven Algorithmen aussieht.

Um einen Algorithmus zu programmieren, benötigt man zwei Informationen:

  1. Daten aus der Vergangenheit
  2. Eine Definition von Erfolg – also welches Ergebnis mit den Daten erzielt werden soll.

Algorithmen benutzen wir jeden Tag, bei allen Alltags-Handgriffen, die wir uns im Laufe der Jahre angewöhnt haben – vom Zähneputzen bis zum Rasen mähen. Diese „Handlungs-Algorithmen“ haben wir jedoch selbst bestimmt. Wir entscheiden über Erfolg oder Misserfolg – und im zweiten Fall müssen wir auch mit den Konsequenzen leben. Wer die Zähne nicht putzt, bekommt halt irgendwann Karies.

Algorithmen in der IT sind nichts anderes. Sie sind Meinungen, Haltungen und Überzeugungen, die in einen Code eingebettet sind. Algorithmen sind nicht neutral. Sie übernehmen Vorurteile und Stereotype derer, die sie programmieren. Und das wird zu einem echten Problem – vor allem bei der voranschreitenden Weiterentwicklung Künstlicher Intelligenzen.

Wenn vorurteilsbehaftete Algorithmen immer mehr Entscheidungen abnehmen und die einprogrammierten Vorurteile und Stereotype unerkannt bleiben, könnte es schwerwiegende negative Konsequenzen nach sich ziehen für jede Art von Minderheiten und sozial schwachen Personengruppen.

Kürzlich veröffentlichte Studien in den USA sagen voraus, dass mehr als 80%  der Unternehmen in fünf Jahren Künstliche Intelligenz zur Leistungsbeurteilung nutzen und beim Personalrecruiting einsetzen werden. Denken Sie kurz darüber nach, welche Implikationen Vorurteile und Stereotype haben werden, die in den Algorithmen Künstlicher Intelligenzen eingebaut sein könnten.

Vicente Ordóñez, Informatikprofessor an der University of Virginia, stellte vor einiger Zeit fest, dass Künstliche Intelligenzen einen signifikanten genderbezogenen Verzerrungseffekt zeigten, der durch Machine-Learning-Algorithmen sogar noch verstärkt wurde. Bestimmte Bilder wurden jeweils einem Geschlecht zugeordnet. Wenig überraschend ordneten die Programme Tätigkeiten wie Kochen oder Waschen als „typisch weiblich“ ein. Solche wie Sport oder Schießen war, wer hätte es gedacht, auch bei der KI Männersache.

Cathy O’Neil kritisiert in ihrem TEDtalk, dass wir den Algorithmen viel zu oft vertrauen, weil wir glauben, dass die klare Sprache und Struktur der Mathematik menschliche Stereotype oder vorurteilsbehaftete Handlungen ausmerzen kann. In einer perfekten Welt wäre das sicherlich so. Aber die Welt ist nicht perfekt, sie ist nicht vorurteilsfrei und im echten Leben ist 1+1 nicht mehr 2, wenn man die mathematische Formel auf die Berechnung einer Kaninchenpopulation anwendet.

Cathy O'Neil

> Link zum TED-Video

Algorithmen sind nicht fair, weil die Menschen, die sie programmieren, nicht zu 100 Prozent fair sein können. Niemand kann das. Niemand ist vorurteilsfrei oder wertfrei. Wir alle haben unsere Vorlieben und Abneigungen – das ist menschlich!

Programmierer automatisieren einen Status Quo (basierend auf Datensätzen aus der Vergangenheit). Und wenn dieser Status Quo unfair, vorurteilsbehaftet oder stereotyp ist, so übernimmt ihn dieser Algorithmus. Ungefragt! Denn es ist ja nicht der Algorithmus selbst der das tut, sondern die Person, die diesen Algorithmus basierend auf den vorhandenen Daten programmiert hat.

Ethisch-moralische, durch Algorithmen getroffene, Entscheidungen, die eine Masse von Menschen betreffen können, brauchen daher dringend eine kontrollierende Instanz.

Viele Unternehmen zeigen allerdings – und das ist die Kritik einer sich gerade formenden Gruppe hochrangiger Wissenschaftlerinnen und Wissenschaftler in den USA – wenig Interesse an der Überwachung und Begrenzung algorithmischer Vorurteile. Auch die Intransparenz bereits bestehender Algorithmen bereitet der „AI Now-Initiative“ Sorgen.

Weil,  wie Cathy O’Neil in ihrem TEDtalk sagt:

„There’s a lot of money to be made in unfairness.”

Um Algorithmen fairer zu machen, schlägt O’Neil daher einen “Algorithmus-Audit” vor, der wie folgt aussieht:

  1. Die Daten müssen auf Integrität geprüft werden.
  2. Die Definition von „Erfolg“ muss transparent(er) definiert werden.
  3. Treffergenauigkeit und Fehlerquoten müssen bewusst berücksichtigt werden. Wo tauchen Fehler auf? Und welche Zielgruppe ist davon schwerpunktmäßig betroffen? Warum ist das so? Und wollen wir das? Was sind mögliche Folgen?
  4. Der Langzeiteffekt von Algorithmen muss in Betracht gezogen werden.

Algorithmen können Vorurteile, Ungerechtigkeiten und Unfairness von menschlichen Handlungen aufdecken. Das ist die große Chance, wenn wir Big Data und Algorithmen weise und zukunftsweisend einsetzen.

Doch dazu bedarf es eines Paradigmenwechsels:

Programmierer sollten nicht blind vorhandene Datensätze in Algorithmen umwandeln, sondern sie sollten zu Wächtern sozialer Ungerechtigkeiten werden, die von den Algorithmen offengelegt wurden. So manifestieren sie nicht bestehende Unfairness, sondern werden zu Übersetzern von ethisch längst überfälligen  Diskussionen.

0_anzeige-bucher
„Futability®“ bestellen | „Raus aus dem Mikromanagement“ bestellen

 

 

 

Advertisements

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s