(Bildquelle) |
Seit etwa einem
halben Jahr bemerke ich zunehmend, wie die Suchergebnisse bei Google
immer schlechter werden. Vor allem bei politisch sensiblen Themen
bekommt man auf der ersten Ergebnisseite fast nur noch Links zur
Mainstream Presse, weshalb ich zunehmend auf die Konkurrenz umsteige.
Lange habe ich mich gefragt, ob die Verschlechterung der Suchqualität
nur ein subjektiver Eindruck von mir ist. Diese Frage aber ist
hiermit beantwortet: Google verwendet Maschinenlernalgorithmen, um
„menschliche Verzerrungen“ zu neutralisieren.
Internetnutzer und ihre unbewussten Vorurteile als negativer Einflussfaktor bei der Internetsuche
Wie immer ist die
Idee hinter dem Werkzeug für die „Entzerrung menschlicher
Vorurteile“ bei Google Suchergebnissen gut gemeint. Der
Grundgedanke besteht darin, dass Menschen unterschiedliche
Vorstellungen haben hinsichtlich eines Sachverhaltes. Beispielsweise
kann man sich allerlei vorstellen unter einem „Schuh“, von
Sportschuh über Stöckelschuh bis Schlittschuh ist die Bandbreite
recht breit. Wenn nun aber mehr Personen bei dem Begriff an
„Sportschuh“ denken und im Internet entsprechend öfters Inhalte
zu Sportschuhen zu finden sind, dann wirkt sich das auf die
Suchergebnisse aus, und das obwohl Sportschuhe nur einen kleinen Teil
der Kategorie „Schuh“ ausmachen.
Auch wenn die
Ranglisten für die Suchergebnisse mit Hilfe von Maschinenlernen
zustande kommen (also über selbstlernende Programme), so fließt
diese Betonung auf Sportschuhe als Verzerrung trotzdem in die
Suchergebnisse ein. Die Folge ist, dass bestimmte Teile einer
Kategorie zu einem Stichwort von den Algorithmen überhaupt nicht
mehr erkannt werden als Teil dieser Kategorie und durch das Raster
hindurch fallen, obwohl sie eigentlich gelistet werden müssten.
Wer Englisch
beherrscht, der kann sich dieses
Google Video ansehen, in dem alles in unter drei Minuten erklärt
wird.
Wie heißt es so schön: „Der Pfad in die Hölle ist gepflastert mit guten Vorsätzen“
Das Verhindern oder
Ausgleichen einer solchen perspektivischen Verzerrung stellt durchaus
eine potenzielle Verbesserung für Suchergebnisse dar. Darüber
hinaus ist es eine überaus anspruchsvolle Aufgabe, einen solchen
Entzerrer zu programmieren, was immer eine gute Nachricht ist, weil
sich gute Programmierer auf so etwas stürzen, um an der
Herausforderung ihr Talent auszuleben. Auf der Seite der
Softwareingenieure kann man also ein gutes Resultat erwarten in diese
Richtung.
Kritisch aber wird
es, wenn es um weltanschauliche Verzerrungen geht. Hier gibt es
zweifellos ebenfalls menschliche perspektivische Verzerrungen und es
läßt sich argumentieren, dass diese den Kern unserer Gesellschaft,
Kultur und Politik ausmachen.
Ohne subjektive
Verzerrungen bräuchten wir keine Politik, da alle die gleichen
Erfahrungen machen und die selben Schlüsse daraus ziehen. Genauso
wenig gäbe es eine Kultur, da es nichts gibt, das dargestellt werden
müsste, weil wir alle die selben Bilder bereits im Kopf hätten. Und
ohne Kultur und ohne den Bedarf für Politik wäre auch der
Gesellschaft als solches der Nährboden entzogen. Wozu gesellig sein
und sich an gemeinsamen Aktivitäten erfreuen, wenn mehrere Menschen
auf einem Fleck kein Produkt der einzelnen Charaktere darstellen,
sondern nur die Summe ihrer Einzelteile?
Google aber macht
mit seiner Entzerrung genau das. Explizit wird im Erklärvideo auf
die Tatsache eingegangen, dass in der Vergangenheit beispielsweise
die meisten Physiker weiße Männer waren. Die wenigsten waren Frauen
und nach farbigen Physikern muss man lange suchen (Asiaten werden
interessanterweise unter den Tisch fallen gelassen). Diese Verzerrung
durch die Tatsachen der Vergangenheit ist in Googles Augen daher ebenfalls
eine korrekturbedürftige Verzerrung. Denn nur weil in der Vergangenheit
kaum Frauen und Schwarze zu berühmten Physikern wurden, dann heißt das in
deren Perspektive noch lange nicht, dass dies auch der „natürliche
Zustand“ ist.
Die Verzerrung muss deswegen in dieser Hinsicht korrigiert werden und so bekommt man (in der
englischen Version) bei einer Bildersuche nach „famous physicists“
vor allem schwarze und weibliche Physiker zu sehen. Google meint, dass die Verzerrung der Vergangenheit aufgelöst wird, indem man einfach das zeigt, was zukünftig normal ist.
Allein beim
Schreiben dieser Worte biegt es mir die Zehennägel um. Um es klar
deutlich zu machen: Google orientiert seine Ergebnislisten nicht an
dem was ist, oder an dem was war, sondern an dem was zukünftig
wünschenswert ist.
Das
ganze endet aber nicht nur bei der Hautfarbe von Wissenschaftlern, alle Ergebnisse werden von Googles Maschinenlernalgorithmen
„entzerrt“! Denn es kommen auch bei allen Rohergebnissen
subjektive menschliche Verzerrungen vor.
Aus diesem Grund muss man sich dann auch nicht wundern, wenn man bei Google nach „Migranten Kriminalität Deutschland“ sucht, nur um dann auf der ersten Ergebnisseite Relativierungen aus den Federn von Heribert Prantl, Jakob Augstein und der Schneeflockenfabrik von Zeit Online präsentiert zu bekommen.
Aus diesem Grund muss man sich dann auch nicht wundern, wenn man bei Google nach „Migranten Kriminalität Deutschland“ sucht, nur um dann auf der ersten Ergebnisseite Relativierungen aus den Federn von Heribert Prantl, Jakob Augstein und der Schneeflockenfabrik von Zeit Online präsentiert zu bekommen.
Winston Smith wäre heute Google Ingenieur
Gefunden habe ich
das Video über
ein Interview von Dave Rubin mit Eric Weinstein, dem Bruder von
Bret Weinstein, der in
diesem Blog auch schon eine Erwähnung fand aufgrund dessen
Weigerung, sich dem linksradikalen Zeitgeist zu unterwerfen. In dem
Interview spricht Weinstein über diese von Google in die
Suchmaschine eingebauten Entzerrungsalgorithmen genannt „ML
Fairness“, aber auch über Ingenieure bei Google, die das Konzept in die Tat
umsetzen müssen.
Offenbar gibt es
trotz der stalinistisch anmutenden Atmosphäre, in der konservative
Mitarabeiter schikaniert und bei Widerspruch gefeuert werden wie es
James Damore geschehen ist, noch immer heftigen Widerstand gegen die
Manipulation der Suchergebnisse mit Hilfe des beschriebenen
Mechanismus. Hinter den Kulissen und wenn sie sich sicher fühlen
sprechen die Ingenieure offen ihren Missmut aus, da ihr Produkt damit
schlechter gemacht wird als es ist.
Neben der
„Entzerrung“ gibt es aber noch weitere Verschlimmbesserungen der
Suchmaschine. Weinstein erzählt von einer recht langen Liste an
Mainstream Internetseiten, die manuell als „vertrauenswürdig“
eingestuft wurden und daher in den Suchergebnissen gegenüber allem
anderen bevorzugt werden. Diese Mainstreamblätter sind
selbstverständlich links und sie driften immer weiter ab in die
linksradikale Ecke, wie es sogar bei
der New York Times der Fall ist.
Auf diese Weise wird den Suchergebnissen automatisch ein linker Drall versetzt, der sich
dann umso mehr verstärkt, je mehr linksradikale Aktivisten als
Journalisten getarnt bei diesen als vertrauenswürdig eingestuften Anbietern eindringen können.
Wir, als Nutzer der
Google Suchmaschine werden also gleich von drei Seiten in die Zange
genommen im Hinblick auf das was wir erfahren wollen. Einmal über
die Entzerrungsalgorithmen, in denen Google ausdrückt, was es für
wünschenswert hält, dann über deren manuelle Präferenz für
bestimmte Nachrichtenseiten und drittens über die innere perspektivische Verzerrungen
in den Redaktionen der präferierten Nachrichtenanbieter.
Die gute Nachricht
ist, dass es Alternativen auf dem Markt gibt und je schlechter Google
wird, desto besser werden deren Ergebnisse im Vergleich. Der
Marktmechanismus könnte also die Rettung bedeuten vom digitalen
Indoktrinationszwang.
Aber auch hier könnte es bald schon in anderer Form ein Riegel vorgeschoben werden. Falls Linux ausfällt und die Server mit proprietärer Software betrieben werden müssen, dann könnte die „algorithmenbasierte Fairness“ bereits an dem Punkt ansetzen, an dem Informationen in das Netz geladen werden.
Aber auch hier könnte es bald schon in anderer Form ein Riegel vorgeschoben werden. Falls Linux ausfällt und die Server mit proprietärer Software betrieben werden müssen, dann könnte die „algorithmenbasierte Fairness“ bereits an dem Punkt ansetzen, an dem Informationen in das Netz geladen werden.
Meine Zehennägel,
sie wollen sich beim Gedanken daran einfach nicht mehr zurückbiegen.
twitter
google+
fb share