ChapterPDF Available

Mythos Filterblase

Authors:

Abstract

Zur Erklärung der Dynamik öffentlicher Diskurse im digitalen Zeitalter muss immer häufiger der Begriff „Filter Bubble“ herhalten. Dem Theorem, mehr eine Chiffre für die subtilen Machtstrukturen im Internet, fehlt jedoch die empirische Fundierung.
Mythos Filterblase
Ben Thies | Zeppelin Universität, Friedrichshafen, Deutschland | b.thies@zeppelin-university.net
Das von Eli Pariser entwickelte Konzept der „Filter Bubble“ ist zurzeit so populär wie nie.
Nur wenige Stunden nachdem das Ergebnis der US-Wahl feststand, wurden schon
Stimmen laut, denen zufolge die „Filterblase“ viele Vertreter von Medien und Politik (inkl.
einiger Mitglieder des Republican National Committee) habe denken lassen, dass Donald
Trump die Wahl verlieren werde. Joshua Benton führt an, dass nicht zuletzt die mit
Falschmeldungen „bewaffnete“ Filterblase auf der anderen Seite dazu beigetragen habe,
Trump-Wähler zu mobilisieren (siehe auch: „Donald Trump won because of Facebook“).
Auch bei dem für unwahrscheinlich gehaltenen Ausgang des Brexit-Referendums im Juni
wurde die Filterblase und aus ihr resultierende „Echokammern“ von diversen
Nachrichtenmedien und Bloggern als Erklärung dafür herangezogen, dass viele Remain-
Wähler wenig bis gar nichts von der Opposition mitbekommen hatten (siehe
beispielsweise der New Statesman und der dahingehend oft zitierte Tweet von Tom
Steinberg).
Die Filterblase (siehe dazu Parisers TED-Talk) beschreibt eine figurative Sphäre, in der
einem Internetnutzer nur beziehungsweise hauptsächlich die Inhalte zur Verfügung
gestellt werden, die ihn (wahrscheinlich) interessieren. Um dieses individuelle Interesse
zu ermitteln, laufen bei Internetdiensten wie Google, Facebook und Amazon stets
Filteralgorithmen im Hintergrund, deren Parameter ausschlaggebend für die angezeigten
Ergebnisse sind. Bei Google bestimmen unter anderem der aktuelle Standort und
bisherige Suchanfragen, was als Suchergebnis erscheint. Bei Facebook sind
beispielsweise Page Likes und Häufigkeit der Interaktion für die Inhalte des
personalisierten Newsfeeds verantwortlich. Amazon generiert Empfehlungen auch aus
bisher getätigten Einkäufen.
Das Problem der Filter Bubble wird vor allem darin gesehen, dass der durchschnittliche
Internetnutzer nicht weiß, dass ihm hauptsächlich Inhalte gezeigt werden, die speziell für
ihn gefiltert worden sind. So könnte insbesondere in sozialen Netzwerken wie Facebook
der Eindruck entstehen, dass die eigene Ansicht auch die „Richtige“ sei, und dass darüber
auch genereller Konsens herrsche. In derart geschaffenen „Echokammern“ treffen ähnlich
denkende Menschen aufeinander, durch die Filter Bubble isoliert von allen Ansichten, die
nicht mit ihren eigenen übereinstimmen und werden dadurch wiederum in ihrer
bestehenden Meinung bestärkt. Die Web-App Blue Feed, Red Feed liefert ein gutes
Beispiel, wie einseitig die geteilten Inhalte innerhalb dieser Echokammern sein können.
Es ist allerdings unwahrscheinlich, dass politische Entwicklungen wie der Brexit allein
den Filteralgorithmen zugeschrieben werden können. Zwar bedienen sich Presse und
Blogs gerne der Filter Bubble als mystischem Begriff einer subtilen Machtstruktur im
Internet, jedoch entbehren die Annahmen über negative Konsequenzen der Filter Bubble
jedweder Empirie. Forschungsergebnisse hinsichtlich des Einflusses von
Filteralgorithmen auf den Nachrichtenkonsum deuten eher darauf hin, dass sie das
ideologische Spektrum erweitern, als es einzugrenzen. Die meisten Studien zu diesem
Thema sehen den Hauptgrund für einseitigen Nachrichtenkonsum nicht in der
algorithmischen, sondern in der psychologischen Filterung. Selective exposure lautet das
Stichwort: Individuen suchen sich unterbewusst bevorzugt Informationen, die mit ihren
bestehenden Ansichten übereinstimmen. Diese Art der Filterung gab es bereits vor dem
Internet, und sie äußerte sich beispielsweise in der Wahl der Tageszeitung (für mehr:
Christoph Kappes: Warum die Gefahren der Filter Bubble überschätzt werden).
Warum aber wird den Filteralgorithmen als technischer Inhaltsfilterung deutlich mehr
mediale Aufmerksamkeit gewidmet, als traditionellen Gatekeepern, die grundsätzlich die
gleiche Funktion haben und ähnlich unbemerkt wirken?
Ein Grund liegt auf der Hand: Inhaltsfilterung durch traditionelle Gatekeeper ist seit jeher
Normalität. Automatisierte Filter-Algorithmen hingegen sind nicht nur neu, sie sind auch
nicht menschlich. Pariser liegt hier richtig, wenn er bemängelt, dass es den Algorithmen
im Vergleich zu Editoren an den „embedded ethics“ fehlt. Allerdings weisen Erkenntnisse
aus der Gatekeeper-Forschung darauf hin, dass den Editoren überhaupt nicht genügend
Wahlfreiheit bleibt, um sich an einer solchen Journalistenethik zu orientieren: Andere
Faktoren (z.B. redaktionelle Linie, Platz in der Zeitung) haben einen deutlich größeren
Einfluss auf die Vorselektion (wegweisende Forschung hierzu lieferten D. White: The
„Gate Keeper“: A Case Study in the Selection of News und W. Breed: Social Control in the
Newsroom: A Functional Analysis).
Eine andere Erklärung ist, dass der Begriff Filter Bubble in den Medien oft sehr weit
gefasst wird. So werden oft nicht nur Filteralgorithmen und deren Auswirkungen unter
den Begriff subsumiert; er wird auch gleichgesetzt mit den Potenzialen sozialer
Netzwerke wie Facebook. Facebooks Struktur ist darauf ausgelegt, Inhalte, die mit den
Interessen vieler Nutzer korrespondieren, schnell(er) zu verbreiten. Da die Richtigkeit
geteilter Inhalte kein Kriterium für die Effektivität der Verbreitung ist, bietet Facebook
ein wirksames Instrument für Propaganda und zur Streuung gezielter Falschinformation
und von Gerüchten. Diese „digital misinformation“ ist auf Social Media Plattformen derart
allgegenwärtig, dass das Weltwirtschaftsforum das Phänomen im Jahr 2013 als eine der
größten Gefahren für die Gesellschaft einschätzte. Sie „bewaffnet“ die Filterblase (ob nun
erzeugt durch psychologische oder technische Faktoren), wie Joshua Benton in seinem
Beitrag auf NiemanLab demonstriert.
Als weiterer Punkt dürfte die Zunahme an sogenannten „Hassdebatten“ im Internet
infolge der erhöhten Migration nach Deutschland eine Rolle bei der vermehrten
Beobachtung vermeintlicher Filter Bubble-Phänomene spielen. Allerdings gibt es für die
Häufigkeit solcher Debatten keinen Bezugswert. In der Tat ist davon auszugehen, dass
diese Hass-Debatten schon vor Facebook und seinen Filtern stattgefunden haben,
allerdings zum Beispiel an Stammtischen und somit weniger öffentlich.
Dass die Architektur von Filteralgorithmen so beschaffen ist, dass Internetnutzern
bestimmte Inhalte bevorzugt (und häufiger) angezeigt werden, ist kein Geheimnis. Dass
ihre Struktur die Bildung von Ingroups in sozialen Netzwerken vereinfacht, ist eine
logische Folge. Dass sie eine Gefahr für die Gesellschaft darstellen, da sie Nutzern eine
ganz bestimmte Realität diktieren, kann nur dann der Fall sein, wenn wir die Gesellschaft
davor als gefährdet durch ein Diktat der Funk- und Printmedien betrachten. Ich würde
jedoch lieber das Individuum als letzte Filterinstanz betrachten.
Trotzdem wird sich der Begriff Filter Bubble wahrscheinlich weiterhin in der
Medienlandschaft halten. Auch wenn die meisten Studien den Filteralgorithmen im
Bestfall einen geringen Einfluss auf die Inhaltsselektion zusprechen: Der schwer greifbare
Begriff eignet sich wohl einfach zu gut als Erklärung für die spezielle Dynamik öffentlicher
Diskurse im digitalen Zeitalter.
Dieser Beitrag entstammt ursprünglich dem Online-Magazin CARTA.
Article
Full-text available
In this paper, we critically consider the analogy between “infodemic” and “pandemic”, i.e. the spread of fake news about COVID-19 as a medial virus and the infection with the biological virus itself from the perspective of cultural evolutionary theory (CET). After confronting three major shortcomings of the ‘infodemic’ concept, we use CET as a background framework to analyze this phenomenon. To do so, we summarize which bi-ases are crucial for transmission in terms of cultural selection and how transmission is restricted by filter bubbles or echo chambers acting as TRIMS (transmission isolating mechanisms) post “infection”, which isolate false from trustworthy scientific information in the context of the Corona pandemic. This is followed by a demonstration of the threat to biological fitness posed by the effects of an infection with fake news, which leads to a reduced willingness to vaccinate and follow health measures. We identify fake news on Covid as pseudoscience, trying to immunize itself from external influences. We then address the question of how to combat the infodemic. Since debunking strategies, such as warnings by fact-checking, have proven relatively ineffective in combating fake news, the inoculation theory from psychology might offer an alternative solution. Through its underlying ‘prebunking strategy’, which educates individuals about the risks and tactics of fake news prior to a potential infection, they could be ‘immunized’ in advance, similar to a virological vaccination. Although we recognize that the pandemic/infodemic analogy is in fact far from perfect, we believe that CET could provide a theoretical underpinning in order to give much more semantic depth to the concept ‘infodemic’.
Chapter
Following Aristotle, factuality, fictionality and fake are differentiated exclusively on the level of content. The concrete starting point for this is Michael Titzmann’s proposal to understand represented worlds as a set of ordered propositions. Accordingly, the necessary set-theoretical foundations are presented step by step and, on the basis of three exemplary represented worlds, a one-to-one differentiation as well as an exact definition of factuality, fictionality and fake is undertaken. Based on this, the limits of a one-to-one model can be discussed and its possible modification can be shown. Independently of this, for the classification of a represented world as factual, fictional or fake, the conception of which propositions are true in the real world is crucial, which is why, after a consideration of philosophical theories of truth, the real world is modelled as a set of sufficiently proven represented worlds. Subsequently, it is shown that it is necessary to model indeterminacy with respect to propositions, which is solved by means of the introduction of trivalence of truth values. The paper concludes with a discussion of the case-specificity and subjectivity of reality and their implications for the model presented here, showing that due to the relational approach the model remains productive even in the case of the assumption of subjective or “alternative” realities.KeywordsWorld representedFormal logicSet theoryFictionalityFactualityFakeTheories of truthPerspectivityIndeterminacy
Chapter
Im Zuge der globalen Coronapandemie erweiterte das Unternehmen Twitter die Gemeinschaftsstandards der Plattform um eine Richtlinie zu Informationen bezüglich des Virus’ und führte eigens technische Funktionen ein, um die Sichtbarkeit verlässlicher Informationen zum Virus zu erhöhen. Diese Funktionen sowie die Richtlinie zum Coronavirus deuten implizit einen Wandel von Twitters Verständnis von Wahrheit auf der Plattform an. Twitters Maßnahmen sowie die Selbstdarstellungen des Unternehmens werden vor dem Hintergrund verschiedener Wahrheitskonzepte nachvollzogen, um auf dieser Grundlage ein eigenes wahrheitsbasiertes Verfahren zur Content-Moderation zu skizzieren.
Chapter
Full-text available
Die Polizei hat es in ihren alltäglichen Handlungspraxen mit vielfältigen externen Stakeholdern (Anspruchsgruppen) zu tun, die entweder auf polizeiliche Arbeitseinsätze proaktiv Einfluss nehmen können oder passiv durch getroffene polizeiliche Entscheidungen von ihr beeinflusst sind. Je nach Einsatzlage, die es zu bewältigen gilt, muss sich die Polizei auf wechselnde und unterschiedlichste externe Stakeholder einlassen, deren Einfluss- und Machtpotenziale kontinuierlich im Zusammenhang zum Einsatz gesehen werden müssen. Dies spricht auch die Ebene des reflexiven Urteilens polizeilichen Handelns an. Dabei gehen Stakeholder-Beziehungen über reines Eigeninteresse hinaus und spielen eine zentrale Rolle für das Gelingen und Scheitern bei den Kernaufgaben und -aktivitäten der Polizei. Durch eine frühzeitige und umfassende Auseinandersetzung mit den Erwartungen der jeweiligen Stakeholder kann die Erfolgswahrscheinlichkeit von polizeitaktischen Maßnahmen erhöht werden. In der Auseinandersetzung zwischen der Polizei und externen Stakeholdern wird ein Stakeholder-Management als Management von Beziehungen zu Anspruchsgruppen, insbesondere vor dem Hintergrund der zeitgemäßen Vernetzung und des weltweiten Einsatzes von digitalisierten Kommunikations- und Informationsformen, für die polizeitaktische und strategische Ausrichtung immer bedeutsamer. Der wachsenden Bedeutung von neuartigen digitalen Kommunikationsformen liegt jedoch ein ambivalentes Verhältnis zwischen Nutzen und Risiken zugrunde, auf das sich die Polizei einlassen muss, um Handlungsautonomie zu gewährleisten. Nicht selten lässt sich in der veränderten KommunikationKommunikation durch digitale Medien ein spannungsgeladenes Verhältnis zwischen einsatzbegleitender Kommunikation im polizeitaktischen Sinne und der öffentlichen Berichterstattung ableiten.
Chapter
Aristoteles folgend wird Faktualität, Fiktionalität und Fake ausschließlich auf der Ebene des Inhalts differenziert. Den konkreten Ausgangspunkt hierfür stellt Michael Titzmanns Vorschlag dar, dargestellte Welten als Menge geordneter Propositionen aufzufassen. Entsprechend werden schrittweise die hierfür notwendigen mengentheoretischen Grundlagen dargelegt und anhand von drei beispielhaften dargestellten Welten eine eineindeutige Differenzierung sowie exakte Definition von Faktualität, Fiktionalität und Fake vorgenommen. Darauf aufbauend können die Grenzen eines eineindeutigen Modells diskutiert und dessen mögliche Modifizierung aufgezeigt werden. Unabhängig davon ist für die Klassifizierung einer dargestellten Welt als faktual, fiktional oder Fake die Auffassung dessen, welche Propositionen in der wirklichen Welt wahr sind, entscheidend, weshalb nach einer Betrachtung philosophischer Wahrheitstheorien die wirkliche Welt als Menge hinlänglich bewährter dargestellter Welten modelliert wird. Im Anschluss wird gezeigt, dass es notwendig ist, Unbestimmtheit hinsichtlich von Propositionen zu modellieren, was mittels der Einführung der Dreiwertigkeit von Wahrheitswerten gelöst wird. Den Abschluss bildet eine Diskussion hinsichtlich der Fallspezifität und Subjektivität von Wirklichkeit und deren Auswirkungen auf das hier präsentierte Modell, wobei gezeigt werden kann, dass aufgrund des relationalen Ansatzes das Modell selbst im Falle der Annahme von subjektiven oder ‚alternativen‘ Wirklichkeiten produktiv bleibt.
ResearchGate has not been able to resolve any references for this publication.