Sorry, this entry is only available in German. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

Um auf das nach wie vor aktuelle Problem des Alltagssexismus hinzuweisen, inszeniert das Vereinte-Nationen-Organ UN Women die Online-Suchmaschine Google als objektiven Wahrheitsgaranten. Die Reaktionen sind gespalten.

Produziert von der Agentur „Memac Oglivy & Mather Dubai“ und veröffentlicht im März 2013, diente das Video „The Autocomplete Truth“ als Beitrag zur gleichnamigen Frauenrechte-Kampagne des „United Nations Entity for Gender Equality and the Empowerment of Women“, kurz UN Women. Das 21. Jahrhundert, so die Botschaft des Videos, werde gefeiert als das Jahrhundert der Frauen, doch der Schein trüge. Bereits eine einfache Google-Suche offenbare, wie sehr Frauen im Alltag noch immer Vorurteilen und Diskriminierung ausgesetzt seien. Das Verständnis von Google als unparteiische „Wahrheitsmaschine“ stellt sich jedoch bei näherer Betrachtung als problematisch heraus.

Das Video setzt ein mit einer Rückschau auf historische Meilensteine der Frauenrechtsbewegung aus den vergangenen 150 Jahren, unterlegt von sentimentaler Klavierbegleitung. So ist etwa ein Protestmarsch der National Woman Suffrage Association (NAWSA) im Jahr 1869 zu sehen, gefolgt von einer Volksabstimmung in Colorado im Jahr 1893, bei der Frauen in den Vereinigten Staaten erstmals das Wahlrecht zugesprochen wurde. Auch Walentina Tereschkowa, die erste Frau im Weltall, sowie Nandini Satpathydas, die 1966 als eine der ersten Frauen in Indien in ein hohes politisches Amt gewählt wurde, und Leichtathletin Sarah Attar, die bei den Olympischen Spielen 2012 als erste Frau für Saudi-Arabien antrat, werden schlaglichtartig gezeigt.

Dann jedoch, im Jahr 2013, gerät der kontinuierliche Fortschritt auf einmal ins Stocken. Eine nachgestellte Google-Suchanfrage wird eingeblendet – basierend, so behauptet es das Video, auf tatsächlichen Vorschlägen der automatischen Eingabevervollständigung (Autocomplete). Das Prinzip: Beginnt eine Nutzerin oder ein Nutzer in die Google-Suchleiste zu tippen, wird in einer Drop-Down-Liste eine Reihe von Vorschlägen eingeblendet, die mit hoher Wahrscheinlichkeit dem Nutzerinteresse entsprechen. Diese Vorschläge errechnet der Google-Algorithmus aus der Beliebtheit verwandter Suchanfragen. Im Video folgen so auf die unvollständige Eingabe „Women should“ etwa Vorschläge wie „Women should stay at home“, „Women should be slaves“ und „Women should be in the kitchen“. Statt jedoch einen dieser Vorschläge auszuwählen, wird die Anfrage händisch vervollständigt: “Women should be seen as equal by now“ – „Frauen sollten mittlerweile als gleichwertig angesehen werden“.

Die Aussage ist unmissverständlich: Die Gesellschaft könne sich noch so sehr mit punktuellen Errungenschaften auf dem Gebiet der Gleichberechtigung brüsten – man müsse bloß mit den richtigen Werkzeugen an der Oberfläche kratzen, und schon kämen veraltete Rollenbilder zum Vorschein. Ausgerechnet Google, das Symbol eines neuen, fortschrittlichen Netz-Zeitalters, mache einen antiquierten und noch immer allgegenwärtigen Sexismus sichtbar. Die Suchmaschine wird hierbei, wie bereits im Videotitel mit dem Begriff „Truth“ angedeutet, gewissermaßen als „Wahrheits-Generator“ verstanden – als ein unvoreingenommener Algorithmen-Nexus, der mathematisch beweise, dass sich in den weltweit getätigten Suchanfragen Sexismus widerspiegele. Obwohl jeder einzelne im Netz als Individuum agiere, sei das Denken der Masse insgesamt quantifizierbar und abstrahierbar, so die Behauptung.

Dieses Argumentationsmuster wirkt intuitiv einleuchtend. Schließlich ist die große Stärke des Clips, dass er sich auf Daten stützt, die jeder zuhause selbst verifizieren kann, und dass er dabei individuelle Meinungsbekundungen außen vor lässt. Somit entkräftet das Video von vornherein den Einwand, es handele sich bloß um die ideologisch verbrämten Ansichten ewig unzufriedener Männerhasserinnen. Denn Algorithmen, so legt es das Video nahe, hätten im Gegensatz zu Aktivistinnen und Aktivisten keine politische Agenda. Wenn der Suchmaschinen-Datenkorpus auf ein Problem hinweise, dann existiere dieses Problem tatsächlich.

Die Interpretation dieser Daten ist jedoch kritisch zu betrachten. So stützt sich das Video etwa auf die nicht unproblematische Grundannahme, dass eine Suchanfrage („Frauen gehören in die Küche“) automatisch auch Zustimmung („Frauen gehören tatsächlich in die Küche“) impliziere. Der Zusammenhang zwischen dem Eingeben von Suchanfragen und den persönlichen Überzeugungen der Google-Nutzer lässt sich allerdings nicht zweifelsfrei rekonstruieren. Grundsätzlich ist es ja durchaus möglich – die Wahrscheinlichkeit sei dahingestellt –, dass ein Teil der Anfragen wie „Women should not speak in church“ lediglich von historischem Interesse an der Legitimierung von Frauenunterdrückung motiviert war.

Die Korrektheit der Daten vorausgesetzt, dient das Video des ungeachtet als Beweis dafür, dass die überwältigende Mehrheit der Anfragen mit der Phrase „Women should“ von sexistischen Formulierungen gekennzeichnet ist. Alleine dieser Umstand lässt sich als Problem deuten. Unklar ist allerdings, wie viele der Abertausenden täglichen Google-Suchanfragen überhaupt mit „Women should“ beginnen. Denn das Experiment, das im Video nachgestellt wird, ist zirkulär: Wenn nach antiquierten Rollenbildern gegoogelt wird – also nach Behauptungen, was Frauen qua ihrer Natur tun und lassen sollen („Women should“) –, dann überrascht es nicht, auch tatsächlich mit ebensolchen Ansichten konfrontiert zu werden. Bereits die Formulierung „Women should“ setzt überholte Geschlechter-Ideale voraus, die sich dann – wenig überraschend – auch in den Autocomplete-Vorschlägen abbilden.

Die Vervollständigungen geben somit zwar Aufschluss über mögliche sexistische Ansichten von Nutzerinnen und Nutzern, die „Women should“ googeln – nicht aber über die Gesamtheit der Google-Nutzerinnen und Nutzer. Spätestens hier macht sich das Fehlen eindeutiger Zahlen und Nutzungsstatistiken bemerkbar. Denn die Anzahl der Nutzerinnen und Nutzer, die solche Suchbegriffe von vornherein nicht verwenden und daher auch nicht vom Autocomplete-Algorithmus repräsentiert werden, bleibt ungewiss. Obwohl sich der Vorwurf eines weit verbreiteten Sexismus auf diese Weise keineswegs aus der Welt räumen lässt – im Gegenteil –, gerät zumindest der Google-Algorithmus als aussagekräftiges Messinstrument in Zweifel.

The Autocomplete Truth war ein großer Erfolg. In den Wochen nach seiner Veröffentlichung mauserte sich das Video in sozialen Netzwerken zum viralen Hit und wurde bis Ende 2016 weltweit von verschiedensten Medienanstalten – darunter BBC, CNN, Huffington Post und The Guardian – insgesamt knapp 600 Mal aufgegriffen (vgl. Ben-Yehoshua 2016). Der Hashtag #womenshould wurde in 50 Ländern auf Twitter verbreitet (ebd.). Schätzungen zufolge erreichte die Kampagne knapp 1,2 Milliarden Menschen und wurde dafür mit mehreren Preisen ausgezeichnet.

In den Kommentarspalten wurde das Video teils kontrovers diskutiert. Während einige Nutzer Selbstversuche auf Google unternahmen und zu ähnlichen Ergebnissen kamen, verlautbarten andere, keine vergleichbaren Resultate erzielt zu haben, und zogen die Repräsentativität der Kampagne in Zweifel. Zudem wiesen einige User darauf hin, dass auch beim Suchbegriff „Men should“ negativ konnotierte Vorschläge eingeblendet wurden. Mittlerweile werden bei Suchbegriffen wie „Women should“, „cannot“, „shouldn’t“ oder „need to“ keine automatischen Vervollständigungen mehr angezeigt. Ob der Erfolg der Kampagne einen Eingriff des Google-Konzerns im Sinne der Schadensbegrenzung erwirkte, ist von offizieller Seite nicht bestätigt.

 

Angela Pelivan