Video

zum Video Der Hamster gehört nicht in den Toaster – Wie Forscher von der TU Darmstadt versuchen, Maschinen ...

Wenn man einen Bankkredit braucht oder sich um eine Stelle bewirbt, haben sie ihre Arbeit im Verborgenen schon getan: Algorithmen, die mit "Künstlicher Intelligenz" (KI) arbeiten, selbst "lernen" und große Datenmengen nach bestimmten Mustern durchsuchen.

Der Mensch der digitalen Neuzeit. Er hinterlässt Spuren im Netz. Freiwillig und unfreiwillig. Unsere Daten werden von selbstlernenden Systemen durchsucht, die mit "Künstlicher Intelligenz" arbeiten, kurz: KI. Und KI hat Auswirkungen auf unser Leben. Die Info "weiblich" kann reichen, dass Google schlechter bezahlte Jobs anzeigt. Und die Info "Wohnort", dass ein Kredit verweigert wird.

Ein Wissenschaftler-Team an der TU Darmstadt erforscht KI-Algorithmen – und ihre Vorurteile. Sie wollen wissen: Kann man Maschinen Moral beibringen?

Ermitteln lässt sich das mit dieser Moral-Choice-Maschine. Sie spricht nur Englisch, antwortet aber im Chat auf moralische Fragen. Im Hintergrund durchkämmt die Maschine massenhaft menschliche Texte und prüft, welche Wort-Kombinationen statistisch häufiger zusammenstehen. Danach richtet sich die Antwort.

Maschinen mit einem menschlichen Moral-Kompass?

Der Darmstädter Kognitionsforscher Constantin Rothkopf dazu: "Wir können jetzt unterscheiden: Zeit töten oder einen Menschen töten? Das heißt, die Maschine hat sich jetzt schon so etwas angeeignet wie einen Kontext innerhalb eines Satzes. Das ist ein kleiner Schritt, um aber zu zeigen, vielleicht geht das schon auch noch weiter. Vielleicht kann man da auch noch weiterkommen."

Die Frage ist, wie weit kann man kommen? Soweit, dass Maschinen einen menschlichen Moral-Kompass besitzen und eigenständig Entscheidungen fällen? Sascha Bonsancic ist Soziologe an der Gothe Uni in Frankfurt. Er bezweifelt, dass Maschinen jemals gerecht sein können: "Wir müssen uns von der Vorstellung lösen, dass Künstliche Intelligenz oder irgendwelche Algorithmen Ungleichheit und Ungerechtigkeit erzeugen. Es sind nämlich immer eigentlich die Menschen dahinter, die das zulassen. Deswegen müssen wir genau da hin zu den politischen Entscheidungsträgern und da regulieren und hochgradig kontrollieren was machen eigentlich die Informatiker? Wie programmieren sie Algorithmen und welche Folgen hat das letztendlich auch?"

Ob und wie Firmen mit Algorithmen arbeiten, ist in der Regel nicht zu erkennen. Der Grund, warum uns ein bestimmter Handytarif angeboten wird, bleibt schleierhaft. Genauso erfahren wir nicht, warum uns eine Mietwohnung oder ein Kredit verweigert wird. Ein rechtliches Vakuum, dagegen will die Verbraucherzentrale Hessen mit einem "Algorithmus-TÜV" vorgehen. Das Siegel fordert sie zusammen mit der Bundeszentrale schon seit einiger Zeit.

KI-Systeme können auch sinnvoll eingestzt werden

KI-Systeme und ihre Algorithmen müssen nicht zwangsläufig zu Diskriminierung führen. Richtig eingesetzt, bieten sie auch Chancen für die Zukunft und könnten sogar helfen, Vorurteile abzubauen. "Beispielsweise indem wir vorgeben dass Frauen und Männer wenn sie in sozialen Netzwerken unterwegs sind nicht unterschiedliche Jobangebote bekommen. Oder eben auch bei Bewerbungsverfahren die man ganz stark anonymisieren könnte. Das könnte man sinnvoll einsetzen.", sagt Sascha Bonsancic.

Künstliche Intelligenz kann – richtig programmiert – menschliche Werte berücksichtigen. Und das ist wichtig, damit künftig nur Brot, aber nicht der Hamster im Toaster landet.

Bericht: Christiane Schwalm

Sendung: hr-fernsehen, "hauptsache kultur", 14.03.2019, 22:45 Uhr