Warum liefert eine Google-Suche nach "Jewish baby strollers" antisemitische Bilder?

Warum liefert eine Google-Suche nach "Jewish baby strollers" antisemitische Bilder?


Der Online-Algorithmus erzeugt Holocaust-Anspielungen als Antwort auf eine harmlos wirkende Anfrage, wahrscheinlich aufgrund einer Trolling-Kampagne, einer "Datenlücke" oder eines Message-Board-Memes, sagen Analysten

Warum liefert eine Google-Suche nach "Jewish baby strollers" antisemitische Bilder?

JTA - Die Google-Ergebnisse sind schockierend: Wenn Sie eine Bildsuche nach „jüdischen Kinderwagen“ durchführen, sehen Sie eine Reihe tragbarer Öfen - eine beleidigende Anspielung auf den Holocaust.

Google sagt, es prüfe die Suchergebnisse und möchte sie verbessern, aber laut Forschern sind die Ergebnisse möglicherweise kein Unfall. Es ist möglich, dass sie das Ergebnis einer koordinierten extremistischen Kampagne auf einer Randwebsite sind, um diese spezifischen Bilder zu produzieren.

Das Network Contagion Research Institute, das die Verbreitung von Hassreden im Internet untersucht, hat eine Reihe von Posts auf dem 4chan Message Board aus dem Jahr 2017 gefunden, in denen Bilder von Öfen auf Rädern gezielt mit dem Begriff „jüdischer Kinderwagen“ kombiniert werden. Bei einer Suche aus den Monaten August und September 2017 wurden mindestens ein Dutzend solcher Bilder gefunden. Dies bedeutet, dass diese Ergebnisse möglicherweise schon seit Jahren vorliegen, obwohl sie am Freitag die Aufmerksamkeit auf sich gezogen haben.

Das Posten dieses bestimmten Begriffs neben dem Bild hat möglicherweise den Suchalgorithmus von Google so manipuliert, dass diese Bilder beworben wurden, wenn Benutzer den Begriff suchen, sagt Joel Finkelstein, Direktor des Instituts.

"Was passiert, ist, dass sie Google dazu bringen, das Zeug nach oben zu bringen", sagte Finkelstein. "Sie fügen das Bild mit den Wörtern ein, sodass das Bild bei der Suche nach diesen Wörtern oben angezeigt wird."

Ofenreferenzen sind unter Antisemiten relativ häufig, die auf Juden in den Krematorien verweisen, in denen Nazis die Leichen von Holocaust-Opfern verbrannten.

Google teilte der Jewish Telegraphic Agency in einer Erklärung mit, dass die Bilder "störend" seien und das Ergebnis eines Algorithmus seien. Es enthielt keine klaren Informationen darüber, wie solche Suchergebnisse verhindert werden können.

"Wir verstehen, dass dies störende Ergebnisse sind, und wir teilen die Besorgnis über diesen Inhalt", heißt es in der Erklärung. „Es spiegelt nicht unsere Meinung wider. Wenn Nutzer bei Google nach Bildern suchen, sind unsere Systeme weitgehend darauf angewiesen, die Wörter in Ihrer Abfrage mit den Wörtern abzugleichen, die neben den Bildern auf der Webseite angezeigt werden. Bei dieser Abfrage, die sich auf ein Produkt bezieht, das tatsächlich nicht vorhanden ist, sind Webseiten, die anstößigen und hasserfüllten Inhalt enthalten, die engsten Übereinstimmungen. Wir haben beträchtliche Arbeit geleistet, um Fälle zu verbessern, in denen wir Inhalte von geringer Qualität zurückgeben, und wir werden uns diese Situation ansehen, um herauszufinden, wie wir hilfreichere Ergebnisse erzielen können. “

Google entfernt selten einzelne Suchergebnisse oder nimmt Anpassungen für einen bestimmten Suchbegriff vor. Ein Sprecher sagte, das Unternehmen suche nach "umfassenderen systematischen Verbesserungen, die die Suche für andere Anfragen wie diese verbessern können".

Insbesondere, so der Sprecher, besteht die Herausforderung hier in einer „Datenlücke“, bei der der einzige für einen Suchbegriff verfügbare Inhalt „beleidigend [oder] von geringer Qualität“ ist.

Forscher des Network Contagion Research Institute sagen, dass es eine andere Möglichkeit geben könnte: Ein antisemitisches Mem, ebenfalls aus dem Jahr 2017, veranlasste den Suchalgorithmus von Google, den tragbaren Ofen mit einem Kinderwagen zu verwechseln, weil sie etwas ähnlich aussehen. Wie die 4chan-Pfosten ist das Mem das Bild eines tragbaren Ofens über dem Text „Jüdischer Kinderwagen“ in allen Kappen.

"Es ist entweder ein Überfall von 4chan-Trollen oder ein Mem, das im Internet verbreitet wurde", sagte Alex Goldenberg, der leitende Geheimdienstanalyst des Instituts. "Der Google-Suchalgorithmus bringt es aus irgendeinem Grund nach oben, oder das Element im Mem täuscht den Google-Algorithmus vor."

Goldenberg fügte hinzu: "Es ist bemerkenswert, dass die Google Bildsuche das nicht aufgegriffen hat."

Wenn es sich um eine koordinierte Aktion von Online-Antisemiten handeln würde, die als „Überfall“ bezeichnet wird, wäre dies nicht die erste. Bei einem „Überfall“ namens Operation Google im Jahr 2016 versuchten Extremisten, ein neues Tool zu untergraben, das Google zum Erkennen und Herausfiltern rassistischer und ethnischer Beleidigungen hatte. Sie taten dies, indem sie die Bögen in ihren Kommentaren durch die Namen von Technologieunternehmen ersetzten. So verwendeten sie beispielsweise das Wort „Google“ anstelle des n-Wortes und das Wort „Skype“, um sich auf Juden zu beziehen. Sie hofften, dass dies Google zwingen würde, seinen eigenen Namen zu zensieren, was nicht geschah.

Dies ist auch nicht das erste Mal, dass Google antisemitische Suchergebnisse liefert. Laut MEMRI, einer Medienforschungsorganisation, und der World Zionist Organization lieferte der Suchbegriff „oy vey“ auch antisemitische Ergebnisse.

Im Jahr 2016 nahm Google Änderungen vor, sodass die Suchfunktion den Suchbegriff "Juden sind böse" nicht mehr vorschlug.

Goldenberg bemerkte, dass ein Teil des Ziels von „Überfällen“ darin besteht, Medienberichterstattung zu generieren, so dass sich antisemitische Begriffe weiter verbreiten.


Autor: JTA
Bild Quelle: Screenshot Google


Dienstag, 29 September 2020

Waren diese Infos wertvoll für Sie?

Sie können uns Danke sagen. Geben Sie einen beliebigen Betrag zurück und zeigen Sie damit, wie viel Ihnen der Inhalt wert ist.



Folgen Sie uns auf:

flag flag