„Machine Learning for Human Bias“: Warum die Suchergebnisse bei Google immer schlechter werden

(Bildquelle)
Seit etwa einem halben Jahr bemerke ich zunehmend, wie die Suchergebnisse bei Google immer schlechter werden. Vor allem bei politisch sensiblen Themen bekommt man auf der ersten Ergebnisseite fast nur noch Links zur Mainstream Presse, weshalb ich zunehmend auf die Konkurrenz umsteige. Lange habe ich mich gefragt, ob die Verschlechterung der Suchqualität nur ein subjektiver Eindruck von mir ist. Diese Frage aber ist hiermit beantwortet: Google verwendet Maschinenlernalgorithmen, um „menschliche Verzerrungen“ zu neutralisieren.


Internetnutzer und ihre unbewussten Vorurteile als negativer Einflussfaktor bei der Internetsuche



Wie immer ist die Idee hinter dem Werkzeug für die „Entzerrung menschlicher Vorurteile“ bei Google Suchergebnissen gut gemeint. Der Grundgedanke besteht darin, dass Menschen unterschiedliche Vorstellungen haben hinsichtlich eines Sachverhaltes. Beispielsweise kann man sich allerlei vorstellen unter einem „Schuh“, von Sportschuh über Stöckelschuh bis Schlittschuh ist die Bandbreite recht breit. Wenn nun aber mehr Personen bei dem Begriff an „Sportschuh“ denken und im Internet entsprechend öfters Inhalte zu Sportschuhen zu finden sind, dann wirkt sich das auf die Suchergebnisse aus, und das obwohl Sportschuhe nur einen kleinen Teil der Kategorie „Schuh“ ausmachen.

Auch wenn die Ranglisten für die Suchergebnisse mit Hilfe von Maschinenlernen zustande kommen (also über selbstlernende Programme), so fließt diese Betonung auf Sportschuhe als Verzerrung trotzdem in die Suchergebnisse ein. Die Folge ist, dass bestimmte Teile einer Kategorie zu einem Stichwort von den Algorithmen überhaupt nicht mehr erkannt werden als Teil dieser Kategorie und durch das Raster hindurch fallen, obwohl sie eigentlich gelistet werden müssten.

Wer Englisch beherrscht, der kann sich dieses Google Video ansehen, in dem alles in unter drei Minuten erklärt wird.



Wie heißt es so schön: „Der Pfad in die Hölle ist gepflastert mit guten Vorsätzen“



Das Verhindern oder Ausgleichen einer solchen perspektivischen Verzerrung stellt durchaus eine potenzielle Verbesserung für Suchergebnisse dar. Darüber hinaus ist es eine überaus anspruchsvolle Aufgabe, einen solchen Entzerrer zu programmieren, was immer eine gute Nachricht ist, weil sich gute Programmierer auf so etwas stürzen, um an der Herausforderung ihr Talent auszuleben. Auf der Seite der Softwareingenieure kann man also ein gutes Resultat erwarten in diese Richtung.

Kritisch aber wird es, wenn es um weltanschauliche Verzerrungen geht. Hier gibt es zweifellos ebenfalls menschliche perspektivische Verzerrungen und es läßt sich argumentieren, dass diese den Kern unserer Gesellschaft, Kultur und Politik ausmachen.

Ohne subjektive Verzerrungen bräuchten wir keine Politik, da alle die gleichen Erfahrungen machen und die selben Schlüsse daraus ziehen. Genauso wenig gäbe es eine Kultur, da es nichts gibt, das dargestellt werden müsste, weil wir alle die selben Bilder bereits im Kopf hätten. Und ohne Kultur und ohne den Bedarf für Politik wäre auch der Gesellschaft als solches der Nährboden entzogen. Wozu gesellig sein und sich an gemeinsamen Aktivitäten erfreuen, wenn mehrere Menschen auf einem Fleck kein Produkt der einzelnen Charaktere darstellen, sondern nur die Summe ihrer Einzelteile?

Google aber macht mit seiner Entzerrung genau das. Explizit wird im Erklärvideo auf die Tatsache eingegangen, dass in der Vergangenheit beispielsweise die meisten Physiker weiße Männer waren. Die wenigsten waren Frauen und nach farbigen Physikern muss man lange suchen (Asiaten werden interessanterweise unter den Tisch fallen gelassen). Diese Verzerrung durch die Tatsachen der Vergangenheit ist in Googles Augen daher ebenfalls eine korrekturbedürftige Verzerrung. Denn nur weil in der Vergangenheit kaum Frauen und Schwarze zu berühmten Physikern wurden, dann heißt das in deren Perspektive noch lange nicht, dass dies auch der „natürliche Zustand“ ist.

Die Verzerrung muss deswegen in dieser Hinsicht korrigiert werden und so bekommt man (in der englischen Version) bei einer Bildersuche nach „famous physicists“ vor allem schwarze und weibliche Physiker zu sehen. Google meint, dass die Verzerrung der Vergangenheit aufgelöst wird, indem man einfach das zeigt, was zukünftig normal ist.

Allein beim Schreiben dieser Worte biegt es mir die Zehennägel um. Um es klar deutlich zu machen: Google orientiert seine Ergebnislisten nicht an dem was ist, oder an dem was war, sondern an dem was zukünftig wünschenswert ist.

Das ganze endet aber nicht nur bei der Hautfarbe von Wissenschaftlern, alle Ergebnisse werden von Googles Maschinenlernalgorithmen „entzerrt“! Denn es kommen auch bei allen Rohergebnissen subjektive menschliche Verzerrungen vor.

Aus diesem Grund muss man sich dann auch nicht wundern, wenn man bei Google nach „Migranten Kriminalität Deutschland“ sucht, nur um dann auf der ersten Ergebnisseite Relativierungen aus den Federn von Heribert Prantl, Jakob Augstein und der Schneeflockenfabrik von Zeit Online präsentiert zu bekommen.



Winston Smith wäre heute Google Ingenieur



Gefunden habe ich das Video über ein Interview von Dave Rubin mit Eric Weinstein, dem Bruder von Bret Weinstein, der in diesem Blog auch schon eine Erwähnung fand aufgrund dessen Weigerung, sich dem linksradikalen Zeitgeist zu unterwerfen. In dem Interview spricht Weinstein über diese von Google in die Suchmaschine eingebauten Entzerrungsalgorithmen genannt „ML Fairness“, aber auch über Ingenieure bei Google, die das Konzept in die Tat umsetzen müssen.

Offenbar gibt es trotz der stalinistisch anmutenden Atmosphäre, in der konservative Mitarabeiter schikaniert und bei Widerspruch gefeuert werden wie es James Damore geschehen ist, noch immer heftigen Widerstand gegen die Manipulation der Suchergebnisse mit Hilfe des beschriebenen Mechanismus. Hinter den Kulissen und wenn sie sich sicher fühlen sprechen die Ingenieure offen ihren Missmut aus, da ihr Produkt damit schlechter gemacht wird als es ist.

Neben der „Entzerrung“ gibt es aber noch weitere Verschlimmbesserungen der Suchmaschine. Weinstein erzählt von einer recht langen Liste an Mainstream Internetseiten, die manuell als „vertrauenswürdig“ eingestuft wurden und daher in den Suchergebnissen gegenüber allem anderen bevorzugt werden. Diese Mainstreamblätter sind selbstverständlich links und sie driften immer weiter ab in die linksradikale Ecke, wie es sogar bei der New York Times der Fall ist.

Auf diese Weise wird den Suchergebnissen automatisch ein linker Drall versetzt, der sich dann umso mehr verstärkt, je mehr linksradikale Aktivisten als Journalisten getarnt bei diesen als vertrauenswürdig eingestuften Anbietern eindringen können.

Wir, als Nutzer der Google Suchmaschine werden also gleich von drei Seiten in die Zange genommen im Hinblick auf das was wir erfahren wollen. Einmal über die Entzerrungsalgorithmen, in denen Google ausdrückt, was es für wünschenswert hält, dann über deren manuelle Präferenz für bestimmte Nachrichtenseiten und drittens über die innere perspektivische Verzerrungen in den Redaktionen der präferierten Nachrichtenanbieter.

Die gute Nachricht ist, dass es Alternativen auf dem Markt gibt und je schlechter Google wird, desto besser werden deren Ergebnisse im Vergleich. Der Marktmechanismus könnte also die Rettung bedeuten vom digitalen Indoktrinationszwang.

Aber auch hier könnte es bald schon in anderer Form ein Riegel vorgeschoben werden. Falls Linux ausfällt und die Server mit proprietärer Software betrieben werden müssen, dann könnte die „algorithmenbasierte Fairness“ bereits an dem Punkt ansetzen, an dem Informationen in das Netz geladen werden.

Meine Zehennägel, sie wollen sich beim Gedanken daran einfach nicht mehr zurückbiegen.
Blogverzeichnis Bloggerei.de
loading...