Video

zum Video Auch Künstliche Intelligenz hat Vorurteile

Sie optimieren und steuern Abläufe bei der Produktion von Autos, sie regeln die Logistik von Containerhäfen und Großlagern oder übernehmen selbständig die Buchhaltung. Der Einsatz sogenannter KI´s - also lernfähiger, künstlicher Intelligenz - ist inzwischen Alltag.

Viele Unternehmen setzen immer häufiger auf die Fähigkeiten der autonomen Maschinenhirne. Selbst Versicherungen und Banken nutzen sie, etwa um eingereichte Anträge zu prüfen oder über Zahlungen zu entscheiden. Klingt gut und vor allem effektiv. Doch was, wenn Big Data mal irrt oder sich bei ihren Entscheidungen Vorurteile einschleichen…?

Unbestechlich, leistungsfähiger als jeder Mensch. Schon heute nimmt uns Künstliche Intelligenz viele Entscheidungen ab. Aber ist sie dabei tatsächlich immer neutral und vorurteilsfrei? Nein, meint Prof. Kristian Kersting. Er ist Professor am Center for Cognitive Science der Technischen Universität in Darmstadt: "Künstliche Intelligenzen können Vorurteile haben, ganz klar, und sie können dadurch auch ganz starken Einfluss auf unser Leben nehmen. Und die Frage ist halt, wo und wann passiert das?"

"Meine Freundin ist kein Gorilla" – Künstliche Intelligenz ordnet dunkelhäutige Amerikanerin der Kategorie Gorilla zu

Hier beobachtet man dieses Phänomen mit Sorge. Denn schon 2015 gab es Hinweise, dass KIs Vorurteile entwickeln können. Damals sorgte eine App des Suchmaschinen-Giganten Google für Schlagzeilen. Sie sollte Handybilder von Nutzern automatisiert zuordnen. Aber anstatt Dunkelhäutige der Kategorie "Mensch" zuzuweisen, ordnete sie sie wegen ihrer Hautfarbe der Kategorie "Gorilla" zu. Die Öffentlichkeit reagierte empört.

Ärger gab es 2018 auch in Holland. Hier unterstellte die KI einer Stadtverwaltung 100 Bürgern Sozialmissbrauch. Bei seiner Entscheidung hatte das Programm aber wichtige Informationen über die Betroffenen ignoriert.

Doch wie kommt es zu solchen Fehlentscheidungen und was hat das mit Vorurteilen zu tun? Künstliche Intelligenz muss lernen – durch Beispiele - ähnlich wie das menschliche Gehirn. Dazu muss sie mit Trainingsdaten gefüttert werden, sagt Kristian Kersting. "Das können App-Daten sein, das können Daten aus dem Internet sein, das können Bilder aus dem Internet sein. Ganz unterschiedliche Datenquellen. Und wenn diese Datenquellen nicht sauber sind, dann kann es zu Vorurteilen kommen."

"Sie muss richtig trainiert werden" - Künstliche Intelligenz lernt wie ein Mensch

Um das zu verstehen, muss man wissen, wie ein solches Trainingsprogramm funktioniert. Etwa bei einer KI, die Menschen von Gegenständen unterscheiden soll. Dafür klassifiziert der Experte in einem Bild zunächst selbst, was Mensch und was Gegenstand ist. Je mehr Bilder er der KI zeigt, desto besser erkennt sie den Unterschied. Im zweiten Schritt sucht die KI dann selbständig nach diesen typischen Mustern. Mit jedem weiteren Bild lernt sie dazu und wird immer treffsicherer.

Das Problem: Schon in der Auswahl der Trainings-Bilder können sich unbewusste Vorurteile verstecken. Weiße können in diesen Bildern gegenüber Schwarzen überrepräsentiert sein, Männer gegenüber Frauen, junge gegenüber Alten, Minderheiten vernachlässigt werden. Das führt zu Fehlern im Ergebnis, die künstliche Intelligenz übernimmt dadurch versteckte Vorurteile.

Blick in das Opel-Entwicklungszentrum.
Bei der Autoproduktion läuft vieles inzwischen automatisiert. Bild © picture-alliance/dpa

Gefahr bei sogenannten Blackboxen - Entscheidungen sind nicht nachvollziehbar

Dabei funktionieren die Bilderkennungsprogramme noch relativ simpel. Schwierig wird es vor allen dann, wenn die Algorithmen mehrere Datenquellen, wie Bilder, Texte und Daten aus dem Netz miteinander verknüpfen und nicht klar ist, wie das passiert, meint Kristian Kersting. "Das ist besonders gefährlich, wenn diese Algorithmen sogenannte Black-Boxen sind. Black Box sollen heißen, dass sie nicht verständlich nachvollziehbar für den Menschen sind. Wenn das beides zusammentrifft – wir haben also schlechte Daten, die falschen Daten, plus Black-Box – dann erscheint uns das noch sehr viel mehr als Vorurteil. Und das ist natürlich gefährlich, wenn davon Entscheidungen im sozialen Bereich abhängig sind."

Wie leicht Datenverknüpfungen zum Problem werden können, zeigt sich zum Beispiel wenn die Kreditwürdigkeit von Verbrauchern geprüft wird. Auskunfteien wie die Schufa errechnen mit Hilfe riesiger Datenbestände, mit welcher Wahrscheinlichkeit Kunden ihre Zahlungsforderungen auch bedienen können – oder nicht. Scoring nennt sich das.

Problem Schufa – Scoring Auskünfte bilden die Realität von Verbrauchern nicht immer richtig ab     

Doch Verbraucherschützer warnen: die Ergebnisse entsprechend häufig nicht der Realität. In einer Stichprobe haben Datenjournalisten vor kurzem rund 2000 Schufa-Auskünfte  ausgewertet. Dabei zeigte sich: Faktoren wie das Alter und das Geschlecht spielen hier offenbar eine große Rolle. Oliver Schnuck von der BR-Data-Redaktion in München, war einer der Datenjournalisten, der diese Schufa-Auskünfte untersucht hat. "Wir sehen, dass die Schufa häufig junge Männer schlecht einstuft. Da liegt es vermutlich daran, dass im Datensatz der Schufa junger Männer besonders auffällig waren. In Fällen, in denen die Schufa sehr wenig über jemanden weiß, kann es sein, dass schon der falsche Wohnort zu einer schlechten Schufa-Einstufung führt. Letztlich ist aber die Frage, ob solche Faktoren überhaupt in die Berechnung eingehen sollten. Oder ob man eben nur mit Informationen aus dem Wirtschaftsleben einer Person arbeitet."

Denn das bildet die individuelle Kreditwürdigkeit viel genauer ab, als eine Statistik. Ähnliches kann Verbrauchern auch bei einem Handyvertrag passieren oder wenn Unternehmen mit Hilfe künstlicher Intelligenz Bewerber aussortieren: Die Gründe sind für den Einzelnen oft nicht nachvollziehbar.

Verbraucherzentralen fordern Art Tüv für den Einsatz von Kis bei Firmen

 Die Verbraucherzentralen fordern daher für Firmen eine Art TÜV, wenn sie solche Computerprogramme einsetzen. "Wir stellen uns eine staatlich oder wie auch immer organisatorische Kontrolle vor. Die durch Spezialisten darauf schaut, was sind das für Algorithmen, die hier eingesetzt werden", sagt Kai Oliver Kruske, von der Verbraucherzentrale Hessen.

Es müsse dringend kontrolliert werden, was für Entscheidungen diese KIs treffen und auf was für Kriterien diese basieren. "Basieren die auf so sensiblen Daten wie Geschlecht, auf Hautfarbe, auf Ethnie, müssen da alle Alarmglocken angehen. Da muss man eben genau hinschauen, ob das eben ordnungsgemäß eingesetzt wird und nicht zur Diskriminierung führt."

Der DaVinci-Roboter ähnelt einem Krake.
Auch in der Medizin kommt immer häufiger KI zum Einsatz. Bild © Imago Images

Besonders kritisch wird es dabei, wenn es um unsere Gesundheit geht. In Krankenhäusern kommen zunehmend digitale Diagnosehelfer zum Einsatz. Sie sollen helfen, Daten automatisch auszuwerten und Krankheiten besser zu erkennen. Ein Beispiel - Brustkrebs. Die Erkrankung wird meist nur mit Frauen assoziiert. Aber auch Männer können in seltenen Fällen erkranken. Ist eine künstliche Intelligenz nicht darauf trainiert, könnte sie die Symptome übersehen.

Lösungswege aus der Misere - Darmstädter Forscher entwickeln Moral-KI

Solche Fehlerquellen wollen die Forscher in Darmstadt ausschließen. Denn künstliche Intelligenzen werden uns künftig in immer mehr Lebensbereichen die Entscheidungen abnehmen. Deshalb füttern sie ihre Programme dort wo es nötig ist längst mit geschlechtsneutralen Datensätzen. Aber die Wissenschaftler gehen noch einen Schritt weiter. Prof. Kristian Kersting: "Neutrale Datensätze helfen uns ganz sicherlich bei Dingen wie Brustkrebsentscheidungen, Diagnostik, denn da wollen wir ja wirklich, dass die wahre Entscheidung getroffen wird. Insgesamt stellt sich aber eben die Frage; wenn wir eine KI haben wollen, die unterschiedliche Aufgaben lösen kann; können wir dieser KI ein Moralverständnis in unserem Sinne überhaupt beibringen. Und wir haben gezeigt, dass das nicht unmöglich ist, weil wir eben zeigen konnten, dass Maschinen vom Menschen Moralvorstellungen zumindest adaptieren können."

Sie trainieren jetzt erstmals eine Software, die auch auf moralische Fragen antworten soll. Eine Art ethischer Kompass, der der KI helfen soll, ihre Entscheidungen mit den gesellschaftlichen Wertvorstellungen abzugleichen. Potentielle Diskriminierungen und Vorurteile könnten so künftig besser entdeckt und korrigiert werden.

Sendung: hr-fernsehen, "alles wissen", 18.04.2019, 20:15 Uhr