Seit 10:07 Uhr Lesart
 
  • facebook
  •  
  • twitter
  •  
  • instagram
  •  
  • spotify
 
Seit 10:07 Uhr Lesart
 
 

Zeitfragen / Archiv | Beitrag vom 04.08.2016

Rassismus und Sexismus im WebWie sich Stereotype in Suchmaschinen festsetzen

Von Lydia Heller

Demonstranten mit Transparenten vor dem Hauptbahnhof, darauf zu lesen "Nein zu Rassismus, nein zu Sexismus". (dpa / Oliver Berg)
Rassismus und Sexismus der realen Welt spiegeln sich im Internet wider. (dpa / Oliver Berg)

Das Suchsystem bei Google folgt bestimmten Algorithmen. Diese Schemata basieren oft auch rassistischen, sexistischen und anderen Vorurteilen. Dominieren auch im Internet die reichen weißen Männer?

Am Anfang ein kleines Experiment: "…ich sitze vor meinem Laptop, hab Google geöffnet – und jetzt gebe ich in die Suchleiste ein: "Frauen sollten". Und Google ergänzt: "sich rar machen", "keine Rechte haben", "keine Hosen tragen".

Schon 2013 kritisierte die Frauenorganisation der UNO diese vermeintliche "Autocomplete-Wahrheit" in einer großen Kampagne – als diskriminierend.

Corinna Bath: "Das ist immer wieder der Streit zwischen denjenigen, die behaupten, Technik ist neutral – und denjenigen, die wie ich behaupten, Technik ist nicht neutral, sondern kann Diskriminierung auch enthalten."

Corinna Bath von der Technischen Universität Braunschweig. Die Informatikerin beschäftigt sich seit fast 20 Jahren mit der Frage, wie sich Geschlechterstereotype in technische Systeme einschreiben. Denn: zwar basieren die in der Autovervollständigung angezeigten Suchvorschläge Google zufolge auf einem neutralen Algorithmus. Der sie selbstständig unter anderem daraus generiere, wie häufig Nutzer nach einem Wort oder einer Wortgruppe gesucht haben. Und der die ganze Bandbreite der im Netz zur Verfügung stehenden Informationen zu einem Suchbegriff abbilde. Aber:

"Wenn ich jetzt an mein Forschungsprojekt über das Sammeln von Informationen über Sachverhalte denke – allein schon wie ich Informationen aufbereite, diese formalen Sprachen, mit denen dort gearbeitet wird, die können schon einen Bias haben."

Das heißt, sie können bestimmte Annahmen der Programmierer widerspiegeln. Beispielsweise seien bei einigen Methoden, die Informationen im Netz für Rechner besser lesbar machen sollen, nur sehr einfache Satzbildungen zulässig.

"Wenn man sich aber ankuckt, was Menschen schreiben, dann sind die Sachen oft viel komplexer – und dann kann man viele Dinge einfach nicht mehr erfassen."

Wie Suchmaschinen-Algorithmen genau arbeiten, ist in der Regel Firmen-Geheimnis. Es ist nur schwer überprüfbar, welche Quellen wie genau in eine Suche einbezogen werden. Ob Seiten vielleicht stärker herangezogen werden, wenn die Betreiber dafür bezahlt haben, dass sie im Ranking weit oben erscheinen. Es ist dagegen wahrscheinlich, dass Inkongruenzen zwischen Realität und ihrer Abbildung im Netz durch Algorithmen verstärkt werden:

Kate Crawford: "Das hier bekommt jemand zu sehen, der in seine Suchmaschine 'CEO' eintippt…"

Immer noch mehr Männer auf Chefposten

Porträts fast ausschließlich weißer älterer Männer nämlich – kritisierte Kate Crawford, Forschungsleiterin bei Microsoft, auf der Konferenz Re:publica Anfang Mai in Berlin.

Crawford: "Und wenn eine Künstliche Intelligenz jetzt die häufigsten Suchergebnisse zu solchen Suchanfragen scannt, dann lernt sie: So sieht also ein CEO aus! Ein Mann im Anzug."

Die Folge – so zeigt eine Studie der Carnegie Mellon University aus dem letzten Jahr: bestimmte Perspektiven werden für Frauen damit regelrecht unsichtbar. Die Forscher hatten künstliche Web-Accounts angelegt, je zur Hälfte mit männlichen und weiblichen Profilen.

Crawford: "Und viel, viel mehr Männer als Frauen bekamen dann Werbung für hochbezahlte Stellen angezeigt. Wenn aber weniger Frauen von bestimmten Stellen erfahren, bewerben sich auch weniger Frauen darauf und dann werden sie diese Jobs auch nicht bekommen."

Natürlich ist es nicht ausgeschlossen, dass die Unternehmen gezielt nach Männern gesucht haben – und es nicht ein stereotyp trainierter Algorithmus war. Allerdings: Die Folge ist in beiden Fällen ein sich selbst verstärkender Mechanismus: Mehr Männer auf Chef-Posten, mehr Bilder von Männern auf Chef-Posten im Netz.

Crawford: "..und das führt wiederum dazu, dass Anzeigen noch gezielter auf Männer ausgerichtet werden und die dann noch häufiger diejenigen sind, die sich bewerben."

Ansichten technischer Designer schreiben sich im Netz fort

Wer als Designer technischer Systeme mit darüber bestimmen kann, welche Informationen im Netz zu finden sind und was sie bedeuten – dessen Ansichten schreiben sich fort. Nicht nur in Such-Algorithmen, sondern auch in Systemen zur Strafverfolgung. Video-Überwachungssysteme zur Erkennung von Gefahrensituationen etwa werden häufig mit Simulationen von Gewalttaten trainiert.

Jens Hälterlein: "Das macht man dann in der Regel so, dass man so Testvideos dreht, wo man sagt: zwei Personen sollen mal bitte so tun, als ob sie sich prügeln. Und versucht dann da typische Bewegungsmuster rauszufiltern, von denen man annimmt, dass die passieren, bei einer Schlägerei. Wo fraglich ist: sieht das dann wirklich genauso aus, wie eine echte Schlägerei?"

Der Soziologe Jens Hälterlein hat an der Universität Potsdam und der Technischen Universität Berlin zu ethischen Fragen automatisierter Videoüberwachung geforscht.

Hälterlein: "Also: eigentlich will man Material erzeugen, wo dann ein Algorithmus versteht, wie sowas durchschnittlich aussieht. Eigentlich müsste man aber vorher, wenn man sich Szenarien ausdenkt, schon wissen: wie sieht sowas denn durchschnittlich aus. Also es kommen immer die Vorstellungen, Erfahrungswerte der Leute, die sowas simulieren, da mit rein."

Besonders heikel ist das bei Systemen des "Predictive Policing" – Programme, die vorhersagen sollen, wo demnächst wahrscheinlich Straftaten begangen werden. Die Gefahr: So wie das Bild vom weißen, männlichen Chef mit der Erfahrungswelt der Designer von Such-Algorithmen übereinstimmt und diese reproduziert – so schreibt sich das Bild vom nicht-weißen, männlichen Kriminellen aus dem Problemviertel in den Predictive Policing-Systemen fort:

Crawford: "Die Systeme werten eine ungeheure Datenmenge aus – historische Daten aus Polizeiakten zum Beispiel, über Gegenden, in denen es häufig zu Einbrüchen kommt. Diese Gegenden werden in sogenannten Heat-Maps markiert – und die Polizei kann dann dort mehr Beamte hinschicken, die nach verdächtigen Aktivitäten Ausschau halten."

Schwarze haben kaum Chancen auf dem Wohnungsmarkt

Mehr Kontrollen aber führten auch zu mehr Festnahmen, so Kate Crawford. Und wird eine Gegend – in den USA meist ärmere Viertel mit schwarzer Bevölkerung – erstmal auf diese Weise behandelt, verfestigt sich dieser Status weiter. Einer Studie der Harvard-Professorin Latanya Sweeney zufolge bekommen schon jetzt 80 Prozent der Menschen, die im Netz nach Namen suchen, die mit Schwarzen assoziiert werden, Anzeigen präsentiert, die das Wort "Arrest" enthalten. Was die Chancen von Schwarzen bei der Arbeits- und Wohnungssuche erneut verschlechtert – im Vergleich zu Menschen mit "weiß klingenden" Namen. Sucht man nach ihnen, erscheinen diese Anzeigen in nur 20 Prozent der Fälle.

Crawford: "Das heißt: Wenn wir nicht auch den Zusammenhang von Rassismus, Klassenunterschieden und Polizeigewalt im Blick haben, wenn wir solche Systeme programmieren, dann riskieren wir, dass wir uns auf vermeintlich rein datenbasierte Systeme verlassen, die ganz objektiv erscheinen. In die aber Vorurteile und Stereotype strukturell eingeschrieben sind."

Die gute Nachricht: Die Systeme sind von Menschen gemacht – und können von Menschen verändert werden. Erst Ende Juli hatten Forscher  von der Boston University kritisiert, dass eines der verbreitetsten Systeme zur Suche nach Wörtern und Wortverbindungen eklatant sexistisch sei. Auf der Basis von Google-News-Texten stellte es Verbindungen her wie: Vater verhält sich zu Doktor wie Mutter zu Krankenschwester. Es gelang den Forschern jedoch, das System so umzuprogrammieren, dass es jetzt andere Wortverbindungen herstellt. Etwa: männlich zu weiblich oder Handtasche zu Brieftasche.

… okay – dann zum Schluss nochmal die Gegenprobe: Ich tippe ein "Männer sollten" – und Google ergänzt: "Röcke tragen".

Das wäre doch schon mal ein Anfang. 

 

Mehr zum Thema

Bei Facebook, Twitter und Co. - Der schwierige Kampf gegen islamistische Propaganda
(Deutschlandfunk, Hintergrund, 02.08.2016)

Neuer "Ghostbusters" Film - "Weiber haben keine Geister zu jagen"
(Deutschlandfunk, Corso, 01.08.2016)

Debattenkultur im Netz - "Es ist wichtig, mit den Lesern zu sprechen"
(Deutschlandfunk, Markt und Medien, 07.05.2016)

Köln - Flüchtlinge gegen Gewalt und Sexismus
(Deutschlandfunk, Deutschland heute, 18.01.2016)

#ausnahmslos - Kampagne gegen Sexismus und Vorurteile
(Deutschlandradio Kultur, Fazit, 11.01.2016)

Zeitfragen

Urban Gardening"Garten to go" statt Gartenkultur?
Der Garten auf dem als Tempelhofer Feld in Berlin. (imago/Andreas Prost)

Die Villengärten der Renaissance, die französischen Barockparks - die Gartenformen waren Ausdruck einer jeweils aktuellen Weltanschauung. In ihnen verschmolzen Philosophie, Architektur und Botanik zu neuen Kunstformen. Wie lässt sich das heutige Urban Gardening in diese Tradition einordnen?Mehr

weitere Beiträge

Das könnte sie auch interessieren

Entdecken Sie Deutschlandradio Kultur