Content uploaded by Ben Thies
Author content
All content in this area was uploaded by Ben Thies on Dec 03, 2017
Content may be subject to copyright.
Mythos Filterblase
Ben Thies | Zeppelin Universität, Friedrichshafen, Deutschland | b.thies@zeppelin-university.net
Das von Eli Pariser entwickelte Konzept der „Filter Bubble“ ist zurzeit so populär wie nie.
Nur wenige Stunden nachdem das Ergebnis der US-Wahl feststand, wurden schon
Stimmen laut, denen zufolge die „Filterblase“ viele Vertreter von Medien und Politik (inkl.
einiger Mitglieder des Republican National Committee) habe denken lassen, dass Donald
Trump die Wahl verlieren werde. Joshua Benton führt an, dass nicht zuletzt die mit
Falschmeldungen „bewaffnete“ Filterblase auf der anderen Seite dazu beigetragen habe,
Trump-Wähler zu mobilisieren (siehe auch: „Donald Trump won because of Facebook“).
Auch bei dem für unwahrscheinlich gehaltenen Ausgang des Brexit-Referendums im Juni
wurde die Filterblase und aus ihr resultierende „Echokammern“ von diversen
Nachrichtenmedien und Bloggern als Erklärung dafür herangezogen, dass viele Remain-
Wähler wenig bis gar nichts von der Opposition mitbekommen hatten (siehe
beispielsweise der New Statesman und der dahingehend oft zitierte Tweet von Tom
Steinberg).
Die Filterblase (siehe dazu Parisers TED-Talk) beschreibt eine figurative Sphäre, in der
einem Internetnutzer nur beziehungsweise hauptsächlich die Inhalte zur Verfügung
gestellt werden, die ihn (wahrscheinlich) interessieren. Um dieses individuelle Interesse
zu ermitteln, laufen bei Internetdiensten wie Google, Facebook und Amazon stets
Filteralgorithmen im Hintergrund, deren Parameter ausschlaggebend für die angezeigten
Ergebnisse sind. Bei Google bestimmen unter anderem der aktuelle Standort und
bisherige Suchanfragen, was als Suchergebnis erscheint. Bei Facebook sind
beispielsweise Page Likes und Häufigkeit der Interaktion für die Inhalte des
personalisierten Newsfeeds verantwortlich. Amazon generiert Empfehlungen auch aus
bisher getätigten Einkäufen.
Das Problem der Filter Bubble wird vor allem darin gesehen, dass der durchschnittliche
Internetnutzer nicht weiß, dass ihm hauptsächlich Inhalte gezeigt werden, die speziell für
ihn gefiltert worden sind. So könnte insbesondere in sozialen Netzwerken wie Facebook
der Eindruck entstehen, dass die eigene Ansicht auch die „Richtige“ sei, und dass darüber
auch genereller Konsens herrsche. In derart geschaffenen „Echokammern“ treffen ähnlich
denkende Menschen aufeinander, durch die Filter Bubble isoliert von allen Ansichten, die
nicht mit ihren eigenen übereinstimmen – und werden dadurch wiederum in ihrer
bestehenden Meinung bestärkt. Die Web-App „Blue Feed, Red Feed“ liefert ein gutes
Beispiel, wie einseitig die geteilten Inhalte innerhalb dieser Echokammern sein können.
Es ist allerdings unwahrscheinlich, dass politische Entwicklungen wie der Brexit allein
den Filteralgorithmen zugeschrieben werden können. Zwar bedienen sich Presse und
Blogs gerne der Filter Bubble als mystischem Begriff einer subtilen Machtstruktur im
Internet, jedoch entbehren die Annahmen über negative Konsequenzen der Filter Bubble
jedweder Empirie. Forschungsergebnisse hinsichtlich des Einflusses von
Filteralgorithmen auf den Nachrichtenkonsum deuten eher darauf hin, dass sie das
ideologische Spektrum erweitern, als es einzugrenzen. Die meisten Studien zu diesem
Thema sehen den Hauptgrund für einseitigen Nachrichtenkonsum nicht in der
algorithmischen, sondern in der psychologischen Filterung. Selective exposure lautet das
Stichwort: Individuen suchen sich unterbewusst bevorzugt Informationen, die mit ihren
bestehenden Ansichten übereinstimmen. Diese Art der Filterung gab es bereits vor dem
Internet, und sie äußerte sich beispielsweise in der Wahl der Tageszeitung (für mehr:
Christoph Kappes: Warum die Gefahren der Filter Bubble überschätzt werden).
Warum aber wird den Filteralgorithmen als technischer Inhaltsfilterung deutlich mehr
mediale Aufmerksamkeit gewidmet, als traditionellen Gatekeepern, die grundsätzlich die
gleiche Funktion haben und ähnlich unbemerkt wirken?
Ein Grund liegt auf der Hand: Inhaltsfilterung durch traditionelle Gatekeeper ist seit jeher
Normalität. Automatisierte Filter-Algorithmen hingegen sind nicht nur neu, sie sind auch
nicht menschlich. Pariser liegt hier richtig, wenn er bemängelt, dass es den Algorithmen
im Vergleich zu Editoren an den „embedded ethics“ fehlt. Allerdings weisen Erkenntnisse
aus der Gatekeeper-Forschung darauf hin, dass den Editoren überhaupt nicht genügend
Wahlfreiheit bleibt, um sich an einer solchen Journalistenethik zu orientieren: Andere
Faktoren (z.B. redaktionelle Linie, Platz in der Zeitung) haben einen deutlich größeren
Einfluss auf die Vorselektion (wegweisende Forschung hierzu lieferten D. White: The
„Gate Keeper“: A Case Study in the Selection of News und W. Breed: Social Control in the
Newsroom: A Functional Analysis).
Eine andere Erklärung ist, dass der Begriff Filter Bubble in den Medien oft sehr weit
gefasst wird. So werden oft nicht nur Filteralgorithmen und deren Auswirkungen unter
den Begriff subsumiert; er wird auch gleichgesetzt mit den Potenzialen sozialer
Netzwerke wie Facebook. Facebooks Struktur ist darauf ausgelegt, Inhalte, die mit den
Interessen vieler Nutzer korrespondieren, schnell(er) zu verbreiten. Da die Richtigkeit
geteilter Inhalte kein Kriterium für die Effektivität der Verbreitung ist, bietet Facebook
ein wirksames Instrument für Propaganda und zur Streuung gezielter Falschinformation
und von Gerüchten. Diese „digital misinformation“ ist auf Social Media Plattformen derart
allgegenwärtig, dass das Weltwirtschaftsforum das Phänomen im Jahr 2013 als eine der
größten Gefahren für die Gesellschaft einschätzte. Sie „bewaffnet“ die Filterblase (ob nun
erzeugt durch psychologische oder technische Faktoren), wie Joshua Benton in seinem
Beitrag auf NiemanLab demonstriert.
Als weiterer Punkt dürfte die Zunahme an sogenannten „Hassdebatten“ im Internet
infolge der erhöhten Migration nach Deutschland eine Rolle bei der vermehrten
Beobachtung vermeintlicher Filter Bubble-Phänomene spielen. Allerdings gibt es für die
Häufigkeit solcher Debatten keinen Bezugswert. In der Tat ist davon auszugehen, dass
diese Hass-Debatten schon vor Facebook und seinen Filtern stattgefunden haben,
allerdings zum Beispiel an Stammtischen und somit weniger öffentlich.
Dass die Architektur von Filteralgorithmen so beschaffen ist, dass Internetnutzern
bestimmte Inhalte bevorzugt (und häufiger) angezeigt werden, ist kein Geheimnis. Dass
ihre Struktur die Bildung von Ingroups in sozialen Netzwerken vereinfacht, ist eine
logische Folge. Dass sie eine Gefahr für die Gesellschaft darstellen, da sie Nutzern eine
ganz bestimmte Realität diktieren, kann nur dann der Fall sein, wenn wir die Gesellschaft
davor als gefährdet durch ein Diktat der Funk- und Printmedien betrachten. Ich würde
jedoch lieber das Individuum als letzte Filterinstanz betrachten.
Trotzdem wird sich der Begriff Filter Bubble wahrscheinlich weiterhin in der
Medienlandschaft halten. Auch wenn die meisten Studien den Filteralgorithmen im
Bestfall einen geringen Einfluss auf die Inhaltsselektion zusprechen: Der schwer greifbare
Begriff eignet sich wohl einfach zu gut als Erklärung für die spezielle Dynamik öffentlicher
Diskurse im digitalen Zeitalter.
Dieser Beitrag entstammt ursprünglich dem Online-Magazin CARTA.