ChapterPDF Available

Mythos Filterblase

Authors:

Abstract

Zur Erklärung der Dynamik öffentlicher Diskurse im digitalen Zeitalter muss immer häufiger der Begriff „Filter Bubble“ herhalten. Dem Theorem, mehr eine Chiffre für die subtilen Machtstrukturen im Internet, fehlt jedoch die empirische Fundierung.
Mythos Filterblase
Ben Thies | Zeppelin Universität, Friedrichshafen, Deutschland | b.thies@zeppelin-university.net
Das von Eli Pariser entwickelte Konzept der „Filter Bubble“ ist zurzeit so populär wie nie.
Nur wenige Stunden nachdem das Ergebnis der US-Wahl feststand, wurden schon
Stimmen laut, denen zufolge die „Filterblase“ viele Vertreter von Medien und Politik (inkl.
einiger Mitglieder des Republican National Committee) habe denken lassen, dass Donald
Trump die Wahl verlieren werde. Joshua Benton führt an, dass nicht zuletzt die mit
Falschmeldungen „bewaffnete“ Filterblase auf der anderen Seite dazu beigetragen habe,
Trump-Wähler zu mobilisieren (siehe auch: „Donald Trump won because of Facebook“).
Auch bei dem für unwahrscheinlich gehaltenen Ausgang des Brexit-Referendums im Juni
wurde die Filterblase und aus ihr resultierende „Echokammern“ von diversen
Nachrichtenmedien und Bloggern als Erklärung dafür herangezogen, dass viele Remain-
Wähler wenig bis gar nichts von der Opposition mitbekommen hatten (siehe
beispielsweise der New Statesman und der dahingehend oft zitierte Tweet von Tom
Steinberg).
Die Filterblase (siehe dazu Parisers TED-Talk) beschreibt eine figurative Sphäre, in der
einem Internetnutzer nur beziehungsweise hauptsächlich die Inhalte zur Verfügung
gestellt werden, die ihn (wahrscheinlich) interessieren. Um dieses individuelle Interesse
zu ermitteln, laufen bei Internetdiensten wie Google, Facebook und Amazon stets
Filteralgorithmen im Hintergrund, deren Parameter ausschlaggebend für die angezeigten
Ergebnisse sind. Bei Google bestimmen unter anderem der aktuelle Standort und
bisherige Suchanfragen, was als Suchergebnis erscheint. Bei Facebook sind
beispielsweise Page Likes und Häufigkeit der Interaktion für die Inhalte des
personalisierten Newsfeeds verantwortlich. Amazon generiert Empfehlungen auch aus
bisher getätigten Einkäufen.
Das Problem der Filter Bubble wird vor allem darin gesehen, dass der durchschnittliche
Internetnutzer nicht weiß, dass ihm hauptsächlich Inhalte gezeigt werden, die speziell für
ihn gefiltert worden sind. So könnte insbesondere in sozialen Netzwerken wie Facebook
der Eindruck entstehen, dass die eigene Ansicht auch die „Richtige“ sei, und dass darüber
auch genereller Konsens herrsche. In derart geschaffenen „Echokammern“ treffen ähnlich
denkende Menschen aufeinander, durch die Filter Bubble isoliert von allen Ansichten, die
nicht mit ihren eigenen übereinstimmen und werden dadurch wiederum in ihrer
bestehenden Meinung bestärkt. Die Web-App Blue Feed, Red Feed liefert ein gutes
Beispiel, wie einseitig die geteilten Inhalte innerhalb dieser Echokammern sein können.
Es ist allerdings unwahrscheinlich, dass politische Entwicklungen wie der Brexit allein
den Filteralgorithmen zugeschrieben werden können. Zwar bedienen sich Presse und
Blogs gerne der Filter Bubble als mystischem Begriff einer subtilen Machtstruktur im
Internet, jedoch entbehren die Annahmen über negative Konsequenzen der Filter Bubble
jedweder Empirie. Forschungsergebnisse hinsichtlich des Einflusses von
Filteralgorithmen auf den Nachrichtenkonsum deuten eher darauf hin, dass sie das
ideologische Spektrum erweitern, als es einzugrenzen. Die meisten Studien zu diesem
Thema sehen den Hauptgrund für einseitigen Nachrichtenkonsum nicht in der
algorithmischen, sondern in der psychologischen Filterung. Selective exposure lautet das
Stichwort: Individuen suchen sich unterbewusst bevorzugt Informationen, die mit ihren
bestehenden Ansichten übereinstimmen. Diese Art der Filterung gab es bereits vor dem
Internet, und sie äußerte sich beispielsweise in der Wahl der Tageszeitung (für mehr:
Christoph Kappes: Warum die Gefahren der Filter Bubble überschätzt werden).
Warum aber wird den Filteralgorithmen als technischer Inhaltsfilterung deutlich mehr
mediale Aufmerksamkeit gewidmet, als traditionellen Gatekeepern, die grundsätzlich die
gleiche Funktion haben und ähnlich unbemerkt wirken?
Ein Grund liegt auf der Hand: Inhaltsfilterung durch traditionelle Gatekeeper ist seit jeher
Normalität. Automatisierte Filter-Algorithmen hingegen sind nicht nur neu, sie sind auch
nicht menschlich. Pariser liegt hier richtig, wenn er bemängelt, dass es den Algorithmen
im Vergleich zu Editoren an den „embedded ethics“ fehlt. Allerdings weisen Erkenntnisse
aus der Gatekeeper-Forschung darauf hin, dass den Editoren überhaupt nicht genügend
Wahlfreiheit bleibt, um sich an einer solchen Journalistenethik zu orientieren: Andere
Faktoren (z.B. redaktionelle Linie, Platz in der Zeitung) haben einen deutlich größeren
Einfluss auf die Vorselektion (wegweisende Forschung hierzu lieferten D. White: The
„Gate Keeper“: A Case Study in the Selection of News und W. Breed: Social Control in the
Newsroom: A Functional Analysis).
Eine andere Erklärung ist, dass der Begriff Filter Bubble in den Medien oft sehr weit
gefasst wird. So werden oft nicht nur Filteralgorithmen und deren Auswirkungen unter
den Begriff subsumiert; er wird auch gleichgesetzt mit den Potenzialen sozialer
Netzwerke wie Facebook. Facebooks Struktur ist darauf ausgelegt, Inhalte, die mit den
Interessen vieler Nutzer korrespondieren, schnell(er) zu verbreiten. Da die Richtigkeit
geteilter Inhalte kein Kriterium für die Effektivität der Verbreitung ist, bietet Facebook
ein wirksames Instrument für Propaganda und zur Streuung gezielter Falschinformation
und von Gerüchten. Diese „digital misinformation“ ist auf Social Media Plattformen derart
allgegenwärtig, dass das Weltwirtschaftsforum das Phänomen im Jahr 2013 als eine der
größten Gefahren für die Gesellschaft einschätzte. Sie „bewaffnet“ die Filterblase (ob nun
erzeugt durch psychologische oder technische Faktoren), wie Joshua Benton in seinem
Beitrag auf NiemanLab demonstriert.
Als weiterer Punkt dürfte die Zunahme an sogenannten „Hassdebatten“ im Internet
infolge der erhöhten Migration nach Deutschland eine Rolle bei der vermehrten
Beobachtung vermeintlicher Filter Bubble-Phänomene spielen. Allerdings gibt es für die
Häufigkeit solcher Debatten keinen Bezugswert. In der Tat ist davon auszugehen, dass
diese Hass-Debatten schon vor Facebook und seinen Filtern stattgefunden haben,
allerdings zum Beispiel an Stammtischen und somit weniger öffentlich.
Dass die Architektur von Filteralgorithmen so beschaffen ist, dass Internetnutzern
bestimmte Inhalte bevorzugt (und häufiger) angezeigt werden, ist kein Geheimnis. Dass
ihre Struktur die Bildung von Ingroups in sozialen Netzwerken vereinfacht, ist eine
logische Folge. Dass sie eine Gefahr für die Gesellschaft darstellen, da sie Nutzern eine
ganz bestimmte Realität diktieren, kann nur dann der Fall sein, wenn wir die Gesellschaft
davor als gefährdet durch ein Diktat der Funk- und Printmedien betrachten. Ich würde
jedoch lieber das Individuum als letzte Filterinstanz betrachten.
Trotzdem wird sich der Begriff Filter Bubble wahrscheinlich weiterhin in der
Medienlandschaft halten. Auch wenn die meisten Studien den Filteralgorithmen im
Bestfall einen geringen Einfluss auf die Inhaltsselektion zusprechen: Der schwer greifbare
Begriff eignet sich wohl einfach zu gut als Erklärung für die spezielle Dynamik öffentlicher
Diskurse im digitalen Zeitalter.
Dieser Beitrag entstammt ursprünglich dem Online-Magazin CARTA.
Chapter
Im Zuge der globalen Coronapandemie erweiterte das Unternehmen Twitter die Gemeinschaftsstandards der Plattform um eine Richtlinie zu Informationen bezüglich des Virus’ und führte eigens technische Funktionen ein, um die Sichtbarkeit verlässlicher Informationen zum Virus zu erhöhen. Diese Funktionen sowie die Richtlinie zum Coronavirus deuten implizit einen Wandel von Twitters Verständnis von Wahrheit auf der Plattform an. Twitters Maßnahmen sowie die Selbstdarstellungen des Unternehmens werden vor dem Hintergrund verschiedener Wahrheitskonzepte nachvollzogen, um auf dieser Grundlage ein eigenes wahrheitsbasiertes Verfahren zur Content-Moderation zu skizzieren.
Chapter
Die Polizei hat es in ihren alltäglichen Handlungspraxen mit vielfältigen externenSocial MediaStakeholdernStakeholder (Anspruchsgruppen) zu tun, die entweder auf polizeiliche Arbeitseinsätze proaktiv Einfluss nehmen können oder passiv durch getroffene polizeiliche Entscheidungen von ihr beeinflusst sind. Je nach Einsatzlage, die es zu bewältigen gilt, muss sich die Polizei auf wechselnde und unterschiedlichste externe StakeholderStakeholder einlassen, deren Einfluss- und Machtpotenziale kontinuierlich im Zusammenhang zum Einsatz gesehen werden müssen. Dies spricht auch die Ebene des reflexiven Urteilens polizeilichen Handelns an. Dabei gehen Stakeholder-Beziehungen über reines Eigeninteresse hinaus und spielen eine zentrale Rolle für das Gelingen und Scheitern bei den Kernaufgaben und -aktivitäten der Polizei. Durch eine frühzeitige und umfassende Auseinandersetzung mit den Erwartungen der jeweiligen Stakeholder kann die Erfolgswahrscheinlichkeit von polizeitaktischen Maßnahmen erhöht werden. In der Auseinandersetzung zwischen der Polizei und externen Stakeholdern wird ein Stakeholder-Management als Management von Beziehungen zu Anspruchsgruppen, insbesondere vor dem Hintergrund der zeitgemäßen Vernetzung und des weltweiten Einsatzes von digitalisierten Kommunikations- und Informationsformen, für die polizeitaktische und strategische Ausrichtung immer bedeutsamer. Der wachsenden Bedeutung von neuartigen digitalen Kommunikationsformen liegt jedoch ein ambivalentes Verhältnis zwischen Nutzen und Risiken zugrunde, auf das sich die Polizei einlassen muss, um Handlungsautonomie zu gewährleisten. Nicht selten lässt sich in der veränderten KommunikationKommunikation durch digitale Medien ein spannungsgeladenes Verhältnis zwischen einsatzbegleitender Kommunikation im polizeitaktischen Sinne und der öffentlichen Berichterstattung ableiten.
Chapter
Aristoteles folgend wird Faktualität, Fiktionalität und Fake ausschließlich auf der Ebene des Inhalts differenziert. Den konkreten Ausgangspunkt hierfür stellt Michael Titzmanns Vorschlag dar, dargestellte Welten als Menge geordneter Propositionen aufzufassen. Entsprechend werden schrittweise die hierfür notwendigen mengentheoretischen Grundlagen dargelegt und anhand von drei beispielhaften dargestellten Welten eine eineindeutige Differenzierung sowie exakte Definition von Faktualität, Fiktionalität und Fake vorgenommen. Darauf aufbauend können die Grenzen eines eineindeutigen Modells diskutiert und dessen mögliche Modifizierung aufgezeigt werden. Unabhängig davon ist für die Klassifizierung einer dargestellten Welt als faktual, fiktional oder Fake die Auffassung dessen, welche Propositionen in der wirklichen Welt wahr sind, entscheidend, weshalb nach einer Betrachtung philosophischer Wahrheitstheorien die wirkliche Welt als Menge hinlänglich bewährter dargestellter Welten modelliert wird. Im Anschluss wird gezeigt, dass es notwendig ist, Unbestimmtheit hinsichtlich von Propositionen zu modellieren, was mittels der Einführung der Dreiwertigkeit von Wahrheitswerten gelöst wird. Den Abschluss bildet eine Diskussion hinsichtlich der Fallspezifität und Subjektivität von Wirklichkeit und deren Auswirkungen auf das hier präsentierte Modell, wobei gezeigt werden kann, dass aufgrund des relationalen Ansatzes das Modell selbst im Falle der Annahme von subjektiven oder ‚alternativen‘ Wirklichkeiten produktiv bleibt.
ResearchGate has not been able to resolve any references for this publication.