#rollenbilder2020 | Digitale Ethik, KI und Informationskompetenz | Prof. Dr. Petra Grimm

26.11.2020, ein Beitrag von

Prof. Dr. Petra Grimm ist Leiterin des Instituts für digitale Ethik der Hochschule der Medien Stuttgart

Was ist Ethik?
Prof. Dr. Petra Grimm erklärte, in der Ethik gehe es darum, gute Gründe zu finden, warum etwas moralisch gut oder schlecht ist. Die Ethik stelle sich die Fragen: Wie sollen oder wollen wir leben? Auf welche Tugenden richten wir unser Handeln aus? Welche Werte bestimmen unser Leben? Es werde also geschaut, was wünschenswert, nicht was technisch möglich ist.

Topografie der Digitalen Ethik
Künstliche Intelligenz ist in diesem Kontext immer mit Chancen und Risiken verbun¬den. Prof. Dr. Grimm ging zunächst auf die Werte und Risiken ein, die es im Zuge der KI zu beachten gilt. Wesent¬liche ethische Werte sind Menschenwürde, Privatheit, Wertschätzung, Vertrauen, Kontrollierbarkeit, Autonomie, Transparenz, Sicherheit, Gerechtigkeit, Demokratieverträglichkeit (werde oftmals vernachlässigt) und Erklärbarkeit.
Bei den Risiken handele es sich um Manipulation, Machtasymmetrie, Heteronomie (Fremd-bestimmung), Diskriminierung, Überwachung, Dual Use und Biases. Biases sind Verzerrungen und können zu Diskriminierungen führen. Frauen, Colored People und gesellschaftliche Randgruppen im Internet wie offline sind stärker von den Risiken betroffen als Männer.

Sensibilisierung für das Thema
Wenn man „unprofessional hairstyles“ in die Google Bildersuche eingibt, werden überwie-gend Frisuren von dunkelhäutigen Frauen angezeigt. Bei Eingabe von „professional hairstyles“ zeigt der Algorithmus überwiegend Fotos von weißen Frauen und Männern. Dieses Beispiel zeigt, dass algorithmische Berechnungen durchaus zu Diskriminierungen führen können. Prof. Dr. Grimm wies darauf hin, dass Algorithmen nicht neutral seien, sondern immer nur so gut wie ihr Datensatz. KI könne soziale Strukturen konstruieren und die Geschicke von Menschen lenken und bestimmen.

Gender-Biases und Diskriminierung
Ein weiteres Beispiel sind laut Prof. Dr. Petra Grimm Sprachassistenten. Diese sind standard-mäßig mit weiblichen Stimmen und Namen ausgestattet. Sie vertritt die These, dass ein gegendertes Mensch-Maschine-Interaktionsmuster Rückkoppelungen an stereotype Interaktionsmuster erlaubt, die eine Herabwürdigung von Frauen impliziert. KI werde oft im Bereich von Serviceleistungen feminisiert. Schaue man sich die Antworten und Reaktionen auf sexuell belästigende Fragen der digitalen Sprachassistenten an, seien diese ausweichend und devot. Mit der symbolischen Feminisierung von Maschinen kann also eine Stärkung und Verfestigung stereotyper Geschlechterrollen online und offline erfolgen.

Priorisierung des Männlichen
In KI kann auch eine Priorisierung des Männlichen auf der sprachlichen und damit kognitiven Ebene eingeschrieben sein. Dies zeigt das Beispiel von Google Translate. Hier verschwindet in den meisten Fällen das weibliche Geschlecht in Übersetzungen.

Ausgrenzung
Biases (Verzerrungen) können auf vielfältige Weise beim maschinellen Lernen entstehen, z.B. auf Grund von Trainingsdaten, die immanent diskriminierende Daten enthalten.
Das bekannteste Beispiel ist ein Bewerbungssystem von Amazon. Dort wurde ein System durch Bewerbungen trainiert, die in den letzten 10 Jahren bei Amazon eingegangen waren. Da dies hauptsächlich Bewerbungen von Männern waren, folgerte das System, dass Männer die bevorzugten Kandidaten seien. Laut Prof. Dr. Petra Grimm müsste man sich schon in der Entwicklung überlegen, welche Folgen eine Technologie auch auf die sozialen Strukturen und in der sozialen Anwendung hat.

Fixierung
Fixierung entsteht zum Beispiel durch Microtargeting. Frauen werde eher Kosmetik als z.B. technische Geräte angezeigt. Prof. Dr. Petra Grimm meint, genderzentriertes Online-Shopping führe zu stereotyper Filterung der Angebote. Genderbezogenes Microtargeting bedeutet in diesem Sinne also keine Auflösung, sondern eher eine Fixierung vorhandener Geschlechterrollen und Klischees.
Untersuchungen zeigen, dass Youtuberinnen die sich an solchen Geschlechternormen orientieren, bei der Anzeige der Videos favorisiert werden und besonders erfolgreich sind, wenn sie als typisch weibliche geltenden Content wie z.B. Lifestyle, Kosmetik, Mode anbieten. Durch dieses algorithmische Belohnungssystem werden sie angehalten genau diese Themen zu kreieren.

Gendersensitive Daten- und Informationskompetenz
Diese Kompetenz wäre laut Prof. Dr. Grimm wünschenswert. Sie meint damit die Fähigkeit, geschlechterstereotype Kommunikate als solche wahrzunehmen und zu hinterfragen, Interesse für die in algorithmenbasierten Angeboten und Anwendungen enthaltenen Verzerrungen und Diskriminierungen zu entwickeln und das eigene Verhalten im Umgang mit automatisierten Systemen zu reflektieren.

Gendergerechte KI
„Wenn wir eine gendergerechte KI wollen, müssen wir uns auch mit der Förderung einer gendersensitiven Daten- und Informationskompetenz auseinandersetzen.“
Die Leiterin des Instituts für digitale Ethik der Hochschule der Medien Stuttgart hob die Wichtigkeit einer angewandten Forschung hervor, die uns auch aufzeigen müsse, wie wir diese Kompetenz in Bildungseinrichtungen und Schulen fördern könnten. Ebenso bedarf es laut Frau Grimm der Forschung darüber, wie KI-Systeme für die Bürgerinnen und Bürger besser erklärbar und nachvollziehbar gemacht werden können. Wenn Nutzer*innen die KI-Systeme besser verstünden und Diskriminierung erkennen würden, könne man wiederum Unternehmen dazu motivieren, diese stärker in den Blick zu nehmen.