ArticlePDF Available

Dan, V. (2021). Von Fehlinformationen lernen. Ein unkonventioneller Vorschlag zur Konzeption von Richtigstellungen [Learning from misinformation. Fresh suggestions for correcting false and misleading claims]. Publizistik, 66(2). doi:10.1007/s11616-021-00667-y



Zusammenfassung Zahlreiche Akteure blicken besorgt auf die Verbreitung von falschen bzw. irreführenden Botschaften im Internet – darunter Verschwörungstheorien, Gerüchte und Fake News/Falschmeldungen. Um die von Fehlinformationen Betroffenen und den dadurch entstandenen Irrglauben aufzuklären, werden Richtigstellungen herausgegeben. Allerdings schöpfen diese nicht immer ihr volles Wirkungspotenzial aus, was in der Folge keine hinreichende Aufklärung bedeutet. Der vorliegende Beitrag möchte zur Wirksamkeitssteigerung von Richtigstellungen beitragen und macht dazu einen unkonventionellen Vorschlag: Richtigstellungen sollten sich dieselben psychologischen Mechanismen zunutze machen wie die Fehlinformationen, die sie richtigstellen möchten. Um diese Mechanismen zu identifizieren, extrahiere ich aus bisherigen Studien die Eigenschaften von Fehlinformationen, die nach jetzigem Forschungsstand eine Erklärung für die große Aufmerksamkeit und Einprägsamkeit von Fehlinformationen, ihren hohen perzipierten Wahrheitsgehalt und ihre rasante Verbreitung liefern. Die anschließende Gegenüberstellung mit herausgearbeiteten Charakteristika von Richtigstellungen verdeutlicht zahlreiche Unterschiede zu Fehlinformationen in Bezug auf ihre Machart, ihre Kommunikatoren bzw. Quellen und ihre Verbreitungswege. Für jeden der festgestellten Unterschiede wird abgewogen, wie man bei Richtigstellungen aus Fehlinformationen lernen kann, die Wirksamkeit zu steigern, und inwiefern dies aus normativer Sicht vertretbar wäre. Dies führt zu sechs konkreten Vorschlägen für die Gestaltung und Verbreitung von Richtigstellungen.
Von Fehlinformationen lernen
Ein unkonventioneller Vorschlag zur Konzeption von
Viorela Dan
Eingegangen: 18. Juni 2020 / Angenommen: 2. November 2020
© Der/die Autor(en) 2021
Zusammenfassung Zahlreiche Akteure blicken besorgt auf die Verbreitung von
falschen bzw. irreführenden Botschaften im Internet – darunter Verschwörungstheo-
rien, Gerüchte und Fake News/Falschmeldungen. Um die von Fehlinformationen
Betroffenen und den dadurch entstandenen Irrglauben aufzuklären, werden Richtig-
stellungen herausgegeben. Allerdings schöpfen diese nicht immer ihr volles Wir-
kungspotenzial aus, was in der Folge keine hinreichende Aufklärung bedeutet. Der
vorliegende Beitrag möchte zur Wirksamkeitssteigerung von Richtigstellungen bei-
tragen und macht dazu einen unkonventionellen Vorschlag: Richtigstellungen sollten
sich dieselben psychologischen Mechanismen zunutze machen wie die Fehlinfor-
mationen, die sie richtigstellen möchten. Um diese Mechanismen zu identifizieren,
extrahiere ich aus bisherigen Studien die Eigenschaften von Fehlinformationen, die
nach jetzigem Forschungsstand eine Erklärung für die große Aufmerksamkeit und
Einprägsamkeit von Fehlinformationen, ihren hohen perzipierten Wahrheitsgehalt
und ihre rasante Verbreitung liefern. Die anschließende Gegenüberstellung mit her-
ausgearbeiteten Charakteristika von Richtigstellungen verdeutlicht zahlreiche Un-
terschiede zu Fehlinformationen in Bezug auf ihre Machart, ihre Kommunikatoren
bzw. Quellen und ihre Verbreitungswege. Für jeden der festgestellten Unterschiede
wird abgewogen, wie man bei Richtigstellungen aus Fehlinformationen lernen kann,
die Wirksamkeit zu steigern, und inwiefern dies aus normativer Sicht vertretbar wä-
re. Dies führt zu sechs konkreten Vorschlägen für die Gestaltung und Verbreitung
von Richtigstellungen.
Schlüsselwörter Richtigstellung · Aufklärung · Faktencheck · Fehlinformation ·
Desinformation · Fake News
Dr. V. Dan ()
Institut für Kommunikationswissenschaft und Medienforschung, Ludwig-Maximilians-Universität
München, Oettingenstraße 67, 80538 München, Deutschland
V. D a n
Learning from misinformation
Fresh suggestions for correcting false and misleading claims
Abstract The pervasiveness of misinformation online—that is, false or misleading
messages presented as true—has prompted intensified efforts to correct it. By pro-
viding alternative true explanations to misunderstood phenomena, corrections seek
to enable those who were misled to update their faulty mental model. In the up-
dated model, misinformation (e.g., a false causal claim, such as “if A, then B”) is
supplemented with a negation label (“false”) and the correct piece of information
(“if AA, then B”). When asked to judge something related to the topic at hand,
individuals holding an updated model should be able to retrieve all stored claims
from memory (“if AA [not ‘if A,’ that is false], then B”). Yet, corrections do not
always succeed in prompting such an update. Instead, they may fail to reach those
who were misled; reach but fail to convince them (misbelief persistence); or reach
and convince audiences but prove unable to promote an update of the mental model.
An inability to reach the desired outcome is not solely the function of how
corrections are made and distributed. Rather, factors such as audiences’ cognitive
ability and motivation also play a role. However, because these individual-level
factors are outside the sphere of influence of those issuing corrections, we focus
on identifying areas for improvement that relate to the correction. To this end,
we suggest that corrections should use the same psychological mechanisms as the
misinformation they seek to correct.
To identify the relevant psychological mechanisms, previous studies on misinfor-
mation were closely examined. We collected evidence suggesting precisely which
properties of misinformation are associated with how much attention it attracts, its
memorability, its perceived credibility, and the speed at which it spreads. This re-
vealed the five following properties, where the appeal was explained with reference
to the seven psychological mechanisms in parentheses: (1) negative valence (nega-
tivity bias), (2) provision of simple explanations of complex phenomena (preference
for complete albeit faulty mental models, transportation), (3) use of visual “evi-
dence” for the claims made (seeing is believing/realism heuristic/truthiness effect),
(4) viral distribution in social media (illusory truth effect), and (5) compatibility
with the values and norms of the audience (motivated reasoning, confirmation bias
[believing is seeing]).
Although corrections deal with the same issues as the claims they seek to correct,
they usually have less news value than the misinformation does. Because neutrality
is held in high esteem, and rightly so, corrections are often (1) sober and com-
plex, (2) purely text-based, (3) issued by official/expert sources, (4) distributed in
highbrow channels, (5) focused on the rebuttal of the false/misleading claim rather
than on telling an alternative true story, and (6) lacking references to widespread
values and norms. Juxtaposing these characteristics with those of misinformation in
the previous paragraph reveals considerable differences regarding message design
and distribution. We provide a careful examination of which differences should be
leveled out to improve the impact of corrections, as well as the extent to which and
precisely how this could be accomplished. We recognize the unconventional nature
of suggesting that one should learn from one’s antagonist, and we acknowledge
Von Fehlinformationen lernen
that actors issuing corrections may have qualms about relying on a similar design,
employing similar sources, and using the same distribution channels to those of
the misinformation they seek to correct. In response to this concern, we clarify the
scientific basis of each suggestion and offer specific examples of how each criterion
can be met without jeopardizing actors’ reputations.
The following recommendations are offered: We suggest making corrections
(1) more captivating by featuring people whose misbeliefs could be corrected and
addressing how they felt learning that they had been misled (e.g., anger, fear, dis-
appointment). Furthermore, we propose that (2) a narrative format and easy-to-
understand language should be used whenever possible. Thus, a simple rebuttal
does not suffice; misinformation should be countered via an easy story based on
correct information. In addition, it seems advisable that alternative true explanations
should (3) be supported with still or moving images. These can be graphics suggest-
ing the truth value of a statement (e.g.,’s Truth-O-Meter), still/moving
images showing key elements of the true information, or if available, visuals provid-
ing evidence for the correct alternative explanation. Moreover, we recommend that
corrections should be (4) distributed in the same channels as the misinformation to
be corrected—whether on YouTube, Instagram, or Twitter. In this way, corrections
can benefit from two characteristics of the internet—the longevity of messages on-
line (the internet never forgets) and their rapid dissemination. We also advise that
(5) sources similar to those distributing misinformation (e.g., regular people, influ-
encers) be used in addition to expert sources. This two-tier strategy should draw
more attention to the correction and increase its perceived truthfulness. After all,
the perceived credibility of a source does not automatically result from its expertise
but also emerges from its perceived honesty, integrity, and impartiality. Non-expert
sources should make corrections more relatable. Finally, we recommend that cor-
rections (6) address values and norms and include self-affirming elements. This is
because a person may reject corrections if they entail positions that are incompatible
with the person’s value system. While some investigations on each of these criteria
have been published, none of the studies currently available have tried to hit all these
buttons. In this way, this paper defines the contours of an agenda for future research
focused on increasing the impact of corrections.
Keywords Correction · Debunking · Fact-checking · Misinformation ·
Disinformation · Fake news
1 Einleitung
Damit Bürgerinnen und Bürger politische Entscheidungen nachvollziehen und mit-
tragen können, ist es notwendig, dass sie öffentlich diskutierte Themen, Ereignis-
se und ihre Interpretationsmuster verstehen sowie einordnen können (vgl. Galston
2001, S. 217) – denn demokratische Gesellschaften setzen eine informierte Öffent-
lichkeit voraus (vgl. Valentino et al. 2008, S. 248). Doch die Versorgung der Öffent-
lichkeit mit akkuraten Informationen hat sich als schwierig erwiesen, insbesondere
angesichts der finanziellen und politischen Anreize, die Wahrheit zu verschleiern,
V. D a n
die Sachlage zu verdrehen oder „alternative Fakten“ zu liefern (vgl. Tandoc et al.
2019, S. 674). Als Fehlinformationen werden jene falschen bzw. irreführenden In-
halte verstanden, die als wahr präsentiert werden – unabhängig davon, ob bei den
Kommunikatoren eine Täuschungsabsicht1vorliegt oder nicht (vgl. Southwell et al.
2018; Tandoc et al. 2018b; Zimmermann und Kohring 2018). Das Internet – und
vornehmlich Social Media – hat dazu beitragen, dass sich Fehlinformationen nicht
nur schnell und leicht verbreiten, sondern sich auch schwer wieder aus dem Umlauf
bringen lassen (vgl. Lewandowsky et al. 2012).
Für die Korrektur von Fehlinformationen ist es folglich relevant, dass Bürger-
innen und Bürger den Wahrheitsgehalt der erhaltenen Botschaften abwägen und
erkennen können. Jedoch sind die meisten von ihnen entweder nicht in der Lage,
dies zu tun, oder es fehlt die notwendige Zeit bzw. Motivation dazu (vgl. Lau und
Redlawsk 2006, S. 77; Popkin 1991, S. 83). So besteht die Gefahr, dass Meinungen
und Verhalten des Einzelnen – und in der Folge auch die öffentliche Meinung –
sich nicht auf Fakten gründen, sondern auf falsche bzw. irreführende Inhalte (vgl.
Lewandowsky et al. 2012). Dadurch entstehen falsche Vorstellungen von Themen,
Akteuren und Ereignissen, die sich wahrscheinlich von denen unterscheiden, die bei
wahrheitsgemäßer Information entstanden wären (vgl. Green und Donahue 2018;
Southwell et al. 2018). Voraussichtlich unterscheiden sich diese Vorstellungen auch
von der Wahrnehmung derjenigen, die nicht mit Fehlinformationen in Kontakt kamen
bzw. von diesen nicht überzeugt wurden. Solche Entwicklungen können zu einer
Aushöhlung der gemeinsamen Wissensbasis führen, die wiederum einen politischen
Konsens unwahrscheinlicher, politische Polarisierung aber wahrscheinlicher werden
lässt (vgl. Neuberger et al. 2019; Zimmermann und Kohring 2018).
Die letzten Jahre verzeichneten eine rege Publikationstätigkeit zur Feststellung
von Informationsstörungen, die von Fehlinformationen verursacht wurden (vgl. Guo
und Vargo 2020; Moran et al. 2016; Mourão und Robertson 2019; Neuberger et al.
2019). Gegenstand der Forschung waren außerdem die Diffusion von Fehlinforma-
tionen (vgl. Chua und Banerjee 2018; Ganesan und Dar-Nimrod 2019) und ihre
Effekte (vgl. Hameleers und van der Meer 2020; Peter und Koch 2016; Thorson
2016). Hingegen fand die wissenschaftliche Auseinandersetzung mit Möglichkeiten
zur Korrektur von Fehlinformationen wenig Beachtung (vgl. Chan et al. 2017; Walter
und Tukachinsky 2020). Der vorliegende Beitrag widmet sich dieser Forschungs-
lücke und schlägt neue Gestaltungsmöglichkeiten von Richtigstellungen vor. Als
Richtigstellungen werden Botschaften bezeichnet, die beabsichtigen, Fehlinforma-
tionen richtigzustellen und hierzu lediglich faktisch korrekte Informationen verwen-
1Bei der wissentlichen Gestaltung bzw. Verbreitung von Fehlinformation – wenn der Kommunikator einer
Botschaft also weiß, dass diese falsch bzw. irreführend ist und sie dennoch als wahr präsentiert – handelt
es sich um Desinformation; wird hingegen eine falsche bzw. irreführende Botschaft irrtümlich für wahr
gehalten und ohne Täuschungsabsicht verbreitet, sprechen bisherige Publikationen zumeist von Fehlinfor-
mation (vgl. Habermas 1981; Southwell et al. 2018). Trotz dieser Unterscheidung wird „Fehlinformation“
zum Teil aber als Überbegriff für falsche bzw. irreführende Inhalte unabhängig von der Täuschungsab-
sicht genutzt. Im weiteren Verlauf dieses Beitrags steht der Ausdruck Fehlinformation als Überbegriff,
um allgemein falsche bzw. irreführende Inhalte zu bezeichnen – losgelöst von der Diskussion um eine
Von Fehlinformationen lernen
den. Sie können kurz und knapp erfolgen (simple rebuttal) oder aufwendig gestaltet
sein (factual elaboration; vgl. Eslick et al. 2011; van der Meer und Jin 2020).
Angesichts des besonderen Reizes, den Fehlinformationen auf viele Empfänge-
rinnen und Empfänger ausüben (vgl. Citron und Chesney 2019; Green und Donahue
2018; Marsh und Yang 2018), denke ich, dass Richtigstellungen sich dieselben
psychologischen Mechanismen zunutze machen können wie die Fehlinformationen,
die sie richtigstellen möchten. Die unkonventionelle Natur dieses Vorschlags ist
mir bewusst, zumal die Akteure, die Fehlinformationen richtigzustellen versuchen,
um Seriosität bemüht sind – seien es Journalistinnen und Journalisten, Behörden,
NGOs oder Akteure aus Wissenschaft, Politik und Wirtschaft. Die Vorstellung, aus
der Machart von Fehlinformationen zu lernen, dürfte bei Fakten-Checkern zunächst
auf Ablehnung stoßen. Doch dieser Vorschlag ist auf wissenschaftlicher Grundlage
entstanden und erfolgt anhand einer Gegenüberstellung der Schlüsseleigenschaften
von Fehlinformationen und Richtigstellungen, die sich aus bisherigen empirischen
Erkenntnissen ergibt. Der Schwerpunkt liegt dabei auf der Gestaltung von Fehlinfor-
mationen und Richtigstellungen, deren Kommunikatoren sowie Verbreitungswegen.
Um die psychologischen Mechanismen zu identifizieren, die sich auch Rich-
tigstellungen zunutze machen können, ist zunächst eine Auseinandersetzung mit
typischen Merkmalen von Fehlinformationen notwendig (Abschn. 2). Im darauffol-
genden Abschnitt synthetisiere ich die Schlüsseleigenschaften von Richtigstellungen
und verdeutliche die Gegensätze zu Fehlinformationen.2Für jeden der festgestellten
Unterschiede erwäge ich in Abschn. 4, inwiefern die herausgearbeiteten Aspekte
in Richtigstellungen aufgegriffen werden können, um ihre Wirksamkeit zu steigern,
und ob dies aus normativer Sicht vertretbar wäre.
Als Grundlage für die Systematisierungsversuche in den Abschn. 2 und 3 dienten
Analysen von Fehlinformationen und (journalistischen) Richtigstellungsversuchen
sowie Experimentalstudien zu ihrer Wirkung. Die Erkenntnisse wurden vornehm-
lich in der Kommunikationswissenschaft und in der Psychologie gewonnen, sodass
diese Disziplinen besondere Berücksichtigung erfahren. Angesichts der geringen Be-
schäftigung mit diesem Themenkomplex im deutschsprachigen Raum, wurde hier
vorwiegend auf englischsprachige Literatur zurückgegriffen. Das Ziel bestand darin,
ein möglichst umfassendes Bild zu den wichtigsten Kriterien aus Sicht jener Ak-
teure zu zeichnen, die Richtigstellungsversuche unternehmen (z.B. journalistische
Fakten-Checker). Fraglos kann es sich hierbei – angesichts der Dynamik, die die-
ses Forschungsfeld charakterisiert – aber nur um eine vorläufige Bestandsaufnahme
2An dieser Stelle ist folgender Hinweis wichtig: Die zusammengetragenen Schlüsselmerkmale von Fehl-
informationen bzw. Richtigstellungen eignen sich nicht für die Bestimmung des Wahrheitsgehalts einer
Behauptung bzw. zur Identifikation von Richtigstellungen. Das Ziel des vorliegenden Beitrags besteht also
keinesfalls darin, Schlüsselmerkmale zu identifizieren, die eine gründliche Prüfung des Wahrheitsgehalts
einer Behauptung ersetzen sollen. Solche Einordnungen benötigen ausführliche Recherchen, wie etwa jene
von journalistischen Fakten-Checkern.
V. D a n
Tab . 1 Eigenschaften und Mechanismen von Fehlinformationen
Schlüsseleigenschaften Fehlinforma-
Psychologische Mechanismen
Negative Valenz Negativitätsbias
Einfache Erklärung komplexer
Phänomene Ablehnung unvollständiger mentaler Modelle
(in eine Geschichte eintauchen)
Visuelle Beweisführung Seeing is Believing
(Bilder als Abbild der Realität)
Realism Heuristic
Truthiness Effect
Virale Verbreitung in sozialen Medien Illusory Truth Effect
(virale Verbreitung erhöht den perzipierten Wahrheitsgehalt)
Kompatibel mit den Werten und Nor-
men der Zielgruppe
Motivated Reasoning
Confirmation Bias (Believing is Seeing)
2 Der Reiz von Fehlinformationen
Dieser Abschnitt setzt sich mit Merkmalen von Fehlinformationen auseinander. Auf
der Grundlage von Forschungserkenntnissen ziehe ich dabei Aspekte in Erwägung,
welche die große Aufmerksamkeit von Fehlinformationen, ihre Einprägsamkeit, ih-
ren perzipierten Wahrheitsgehalt und ihre rasante Verbreitung erklären können. Zu-
sätzlich werden für jede Schlüsseleigenschaft psychologische Mechanismen thema-
tisiert, die damit einhergehen (s. Tab. 1).
Eine erste Schlüsseleigenschaft von Fehlinformationen ist (1) ihre negative Va-
lenz (vgl. Konkes und Lester 2017, S. 833). Fehlinformationen behandeln kontrovers
diskutierte Themen und geben vor, Tatsachen zu enthüllen, die Eliten der Allgemein-
heit vorenthalten wollen (vgl. Freelon und Wells 2020, S. 146; Tandoc et al. 2018a,
S. 141; Vraga und Bode 2020, S. 137). Die Behauptung, dass Hillary Clinton ein
Sexgeschäft für Pädophile betreibe und dafür Kinder in einem Restaurantkeller ge-
fangen halte, verdeutlicht diese Eigenschaft von Fehlinformationen genauso wie die
These, Barack Obama sei außerhalb der USA geboren und erfülle somit nicht die
Voraussetzungen für die Wahl zum Präsidenten (vgl. Ammann 2016;Pham2015).
Solche Fehlinformationen verfügen über einen hohen Nachrichtenwert, der mit Ver-
weis auf das Negativitätsbias erklärt werden kann – also auf die Tendenz, negativen
Ereignissen besonders viel Aufmerksamkeit zu schenken (vgl. Taylor 1991, S. 67).
Dafür gibt es einen evolutionären Grund: Die Überlebenschancen derjenigen, die
ihre Umgebung stets nach Gefahren überprüft hatten, waren besonders hoch (vgl.
Rozin und Royzman 2001, S. 314). Durch die Weitergabe der gewonnenen Kennt-
nisse an Angehörige konnten auch diese geschützt werden (vgl. Rozin und Royzman
2001, S. 314). Die Kommunikatoren der eben beispielhaft angeführten Fehlinforma-
tionen könnten folglich vorgegeben haben, die Gefahr, die von Clinton und Obama
ausgeht, erkannt zu haben, und fühlten sich dadurch womöglich in der Pflicht, dieses
„Wissen“ weiterzugeben.
Ein weiteres relevantes Merkmal von Fehlinformationen ist, dass sie (2) eine
einfache Erklärung komplexer Phänomene bieten, indem sie zumeist auf eine ver-
Von Fehlinformationen lernen
meintliche zeitliche Abfolge von Ursache und Wirkung hinweisen (vgl. Green und
Donahue 2018, S. 110; Lewandowsky et al. 2012, S. 112). Die These etwa, dass die
Impfung gegen Masern, Mumps und Röteln (MMR-Impfung) Autismus bei Kindern
verursache, liefert eine einfache Erklärung für eine komplexe Entwicklungsstörung
(vgl. Moran et al. 2016). Wenn Fehlinformationen überzeugen, dann geschieht dies
auch deshalb, weil sie in der Regel ein narratives Format verwenden (vgl. Green und
Donahue 2018). Dadurch fällt es Menschen leichter, der Argumentation zu folgen.
Sie tauchen in die Geschichte ein erfahren also eine sogenannte Transportation –,
was nachweislich ihre Fähigkeit senkt, das Erzählte kritisch zu hinterfragen und Ge-
genargumente anzubringen (vgl. Fazio et al. 2015; Green und Donahue 2018;Marsh
und Yang 2018). Eine Geschichte über ein gesundes Kind, das nach einer MMR-
Impfung („wenn A“) an Autismus erkrankt sein soll („dann B“), ist mitreißender
als die bloße Behauptung, die MMR-Impfung würde Autismus auslösen (vgl. Dixon
und Clarke 2013; Goldberg 2016). Diese vermeintliche Kausalbeziehung ist wesent-
lich leichter nachzuvollziehen als ein komplexes Geflecht aus mehreren Faktoren.
Sofern diese „Erklärung“ zum Auftreten von Autismus akzeptiert wird, erfolgt die
Eingliederung der Fehlinformation in ein mentales Modell, in dem die vermeintliche
Kausalbeziehung als Ganzes abgespeichert wird3(„wenn A, dann B“) (vgl. Green
und Donahue 2018; Swire und Ecker 2018).
Eine dritte Besonderheit von Fehlinformationen ist (3) die visuelle Beweisführung
zur Untermauerung der Behauptungen (vgl. Hemsley und Snyder 2018). Manipu-
lierte Bilder und Videos blicken deshalb auf eine lange Geschichte als Propagan-
dawerkzeug zurück4(vgl. Citron und Chesney 2019, S. 148; Jowett 2008). Um das
bereits genannte Beispiel aufzugreifen: Vorher-Nachher-Videos von Kindern mit
Autismus werden als Beweise für den vermeintlichen Zusammenhang zwischen der
MMR-Impfung und der Entwicklungsstörung präsentiert (vgl. z.B. Goldberg 2016).
Solche Aufnahmen können überzeugen, weil sie wie ein Abbild der Realität wirken
(Seeing is Believing, vgl. Messaris und Abraham 2001, S. 219; siehe auch benach-
barte Konzepte wie die Realism Heuristic bei Frenda et al. 2013 und Sundar 2008
sowie den Truthiness Effect bei Newman und Zhang 2021). Obwohl Stand- und
Bewegtbilder die Realität im gleichen Ausmaß wie Wörter konstruieren, wird ihre
Echtheit nicht gleichermaßen infrage gestellt (vgl. Citron und Chesney 2019, S. 148;
Hameleers et al. 2020, S. 281). Da die (geschriebene) Sprache auf eine vergleichs-
weise kurze Geschichte zurückblickt, fällt die Erkenntnis, dass es sich dabei um
abstrakte Symbole handelt, viel leichter als bei Bildern (vgl. Grabe und Bucy 2009,
S. 8). Insofern überrascht es nicht, dass Bilder die Informationsverarbeitung steuern
(vgl. Dan 2018, S. 6; Van Damme und Smets 2014, S. 314) und dass bebilderte
3Menschen präferieren Klarheit in Form eines lückenlosen, aber fehlerbehafteten Modells, sofern die
Alternative Ungewissheit aufgrund eines unvollständigen Modells ist (vgl. Hamby et al. 2020; Johnson
und Seifert 1994).
4Darum berücksichtigen Hameleers et al. (2020) in ihrer Typologie zu Fehlinformationen explizit eine
visuelle Komponente. Sie unterschieden zwischen (a) der Paarung realer Bilder mit irreführenden Texten
(Dekontextualisierung); (b) dem Zuschneiden von Bildern, um bestimmte Aspekte von Themen zielgerich-
tet hervorzuheben (Reframing); (c) dem Manipulieren von Bildern, um eine andere Realität darzustellen
(Bildbearbeitung); (d) dem Herstellen von Inhalten durch das Koppeln manipulierter Bilder mit manipu-
liertem Text (multimodale Bearbeitung).
V. D a n
Artikel und Tweets mit Fehlinformationen für glaubwürdiger gehalten werden als
rein textbasierte Stimuli (vgl. Hameleers et al. 2020, S. 281; Smelter und Calvillo
Des Weiteren profitieren Fehlinformationen davon, dass sie sich (4) in sozialen
Medien viral verbreiten. Neutrale und faktisch korrekte Inhalte erzielen nicht nur
weniger Aufmerksamkeit, sondern verbreiten sich auch langsamer und schlechter
als solche, die negativ und empörend sind (vgl. Brady et al. 2020, S. 746; Meffert
et al. 2006, S. 27; Sommariva et al. 2018, S. 246). Dies liegt unter anderem daran,
dass Menschen insbesondere jene Inhalte in sozialen Medien kommunizieren, die
negativ sind und sie emotional berührt haben (vgl. Brady et al. 2020, S. 746). Zudem
wirkt sich die weite Verbreitung einer Fehlinformation positiv auf ihren perzipierten
Wahrheitsgehalt aus (vgl. Kim 2018, S. 4807). Schließlich lässt die bloße Wieder-
holung einer These den Eindruck entstehen, dass diese auf breite Zustimmung stößt
(vgl. van der Linden et al. 2015). Kommt man also wiederholt mit einer fehlerhaften
Behauptung in Kontakt, wirkt sie vertrauter (vgl. Berinsky 2017, S. 241; Parks und
Toth 2006, S. 225). Dies ist deshalb bedeutsam, da Menschen dazu neigen, die Ver-
trautheit einer Botschaft – also den subjektiven Bekanntheitsgrad (familiarity)–als
Heuristik für ihren Wahrheitsgehalt zu verwenden (Illusory Truth Effect; vgl. Begg
et al. 1992, S. 446; Hohlfeld 2020, S. 179).
Eine letzte wichtige Schlüsseleigenschaft von Fehlinformationen stellt ihre Ten-
denz dar, (5) die Werte und Normen der Zielgruppe anzusprechen – wie z. B. Kon-
servatismus, Wissenschaftsskepsis oder Selbstbestimmung (vgl. Kelley et al. 2018,
S. 234; Seymour et al. 2015, S. 517). Studien belegen, dass Fehlinformationen vor-
nehmlich von Personen aus dem sozialen Umfeld – also Freunden oder Bekannten –
geteilt und verbreitet werden (vgl. DiFonzo et al. 2012, S. 1100; Linde-Arias et al.
2020, S. 1; Swire und Ecker 2018, S. 204). Somit ist die Wahrscheinlichkeit, Fehlin-
formationen von vertrauten Personen oder Gleichgesinnten zu erhalten, relativ hoch.
Zusätzlich zeichnet sich die Tendenz ab, den Wahrheitsgehalt von Erzählungen aus
dem eigenen sozialen Umfeld als besonders hoch einzustufen (vgl. Huang et al.
2015, S. 14). Diese Punkte erhalten vor dem Hintergrund sozialer Medien, in denen
der Freundeskreis zumeist großzügiger gefasst wird als in der analogen Welt, eine
besondere Dynamik. So wächst der Kreis derjenigen, die Fehlinformationen erhalten
und vermitteln, und damit auch das Potenzial der viralen Verbreitung. Zudem neigen
Menschen dazu, Behauptungen Glauben zu schenken, die ihren Normen und Werten
entsprechen: So zeigte etwa Humprecht (2019, S. 1973), dass politische Ansichten
eine wichtige Rolle bei der Verbreitung von Fehlinformationen spielen. Parallel dazu
gibt es vielzählige empirische Belege, dass die Verarbeitung von Fehlinformationen
je nach politischem Lager variiert (vgl. Arendt et al. 2019, S. 181; Lewandowsky
et al. 2005, S. 106). Diese Erkenntnisse lassen sich auf die kognitive Neigung zu-
rückführen, Passendes zu bestätigen (Confirmation Bias; vgl. Nickerson 1998), und
auf die Tendenz, Informationen in eine gewünschte Richtung zu verarbeiten (Motiva-
ted Reasoning; vgl. Kunda 1990). Mehrere Studien haben die Bedeutsamkeit beider
Szenarien im Zusammenhang mit Fehlinformationen bestätigt (vgl. Hameleers und
van der Meer 2020, S. 227; Moravec et al. 2019, S. 1343).
Von Fehlinformationen lernen
3 Die Wirkungspotenziale und Charakteristika von Richtigstellungen
Das Ziel von Richtigstellungen sollte nicht darin bestehen, Fehlinformation gänzlich
gegen eine korrekte Information ähnlich einem Puzzleteil im Gedächtnis auszutau-
schen. Sofern dennoch solche Ansprüche bestünden, wären diese als idealisierend
anstatt als realistisch einzustufen. Aufgrund dessen sind bei Richtigstellungen fol-
gende Szenarien zu berücksichtigen, die aus normativer Sicht aufsteigend nach ihrem
Wirkungspotenzial berichtet werden (vgl. Ecker et al. 2011; Southwell et al. 2018;
Swire und Ecker 2018):
1. Im ungünstigsten Fall erreicht die Richtigstellung nicht den Personenkreis, der
mit der zu korrigierenden FehlinformationinKontaktgekommenist.InderFolge
besteht der Irrglaube fort. Dieses Szenario tritt relativ häufig ein, da Richtigstel-
lungen weniger Menschen erreichen als die Fehlinformationselbst (vgl. Shin et al.
2017, S. 1214).
2. Außerdem kann die Richtigstellung von den Betroffenen empfangen, aber abge-
lehnt werden, wobei auch hier die Fehlinformation fortbesteht („Persistenz des
Irrglaubens“). Dies geschieht, wenn Menschen unwillig bzw. nicht in der Lage
sind, die Richtigstellung zu akzeptieren (vgl. Green und Donahue 2018; Nyhan
und Reifler 2010). Einen vielfach untersuchten Abwehrmechanismus in diesem
Kontext stellt der sogenannte Backfire-Effekt dar, bei dem die Richtigstellung nicht
nur ihr Ziel verfehlt, sondern – aufgrund der Unvereinbarkeit mit den Werten und
Normen der Rezipierenden – sogar den perzipierten Wahrheitsgehalt der zu korri-
gierenden Fehlinformation erhöht (vgl. z.B. Peter und Koch 2016,S.3).
3. Die Richtigstellung wird zwar empfangen, verstanden und akzeptiert. Dennoch
hat die Fehlinformation einen anhaltenden Einfluss auf die Betroffenen („Glau-
bensecho“). In diesem Fall sind Betroffene nicht in der Lage – etwa aufgrund man-
gelnder kognitiver Kapazitäten –, die Fehlinformation durch die korrekte Infor-
mation in ihrem mentalen Modell auszutauschen (vgl. Johnson und Seifert 1994;
Lewandowsky et al. 2012, S. 123; Thorson 2016, S. 460).
4. Im besten Fall wird die Richtigstellung empfangen, verstanden und akzeptiert. An-
ders als im vorausgehenden Szenario folgt jedoch eine erfolgreiche Eingliederung
der Information in ein mentales Modell.5Somit kann sowohl die korrekte Informa-
tion als auch die Fehlinformation und deren Verneinung im Gedächtnis verankert
5Da Richtigstellungen fehlerbehaftete Teile eines mentalen Modells thematisieren – etwa eine Kausal-
beziehung („wenn A, dann B“) –, schaffen sie zunächst eine Lücke in diesem mentalen Modell. Deshalb
ist es wichtig, dass Richtigstellungen korrekte Erklärungen für das Auftreten einer unerwünschten Ent-
wicklung liefern („wenn AA, dann B“) (vgl. Swire und Ecker 2018). Denn Menschen möchten nicht über
unvollständige Modelle verfügen, weshalb sie lieber weiter an falschen Behauptungen festhalten („wenn A,
dann B“), als gar keine Erklärung für einen bestimmten Sachverhalt zu haben („wenn ???, dann B“) (vgl.
Ecker et al. 2015). Soll etwa die Vorstellung, dass die MMR-Impfung („wenn A“) Autismus verursacht
(„dann B“), richtiggestellt werden, ist eine plausible alternative Erklärung entgegenzusetzen – zum Bei-
spiel, dass ein komplexes Zusammenspiel genetischer und umweltbezogener Faktoren („wenn AA“) für
die Entwicklungsstörung verantwortlich ist („dann B“). Dieses Vorgehen erhöht die Wahrscheinlichkeit,
dass der Irrglaube („wenn A, dann B“) als falsch etikettiert und um die korrekte Information im mentalen
Modell ergänzt wird („wenn AA [nicht, wenn A0], dann B“).
V. D a n
werden. Bei Bedarf werden all diese Einträge gemeinsam aufgerufen (vgl. Asp
et al. 2012,S.1;Hall2012, S. 224; Marsh und Yang 2018, S. 27).
Um im nächsten Abschnitt Vorschläge für eine effektivere Gestaltung von Rich-
tigstellungen zu liefern, ist es zudem wichtig zu verstehen, welche Charakteristika
übliche Widerlegungsversuche aufweisen. Bei der Konzeption von Richtigstellungen
stellt im Vergleich zu Fehlinformationen Neutralität ein hohes Gut dar. In der Praxis
führt dieses Gebot zur Gestaltung nüchterner und komplexer Botschaften anstelle
einer leichtverständlichen Geschichte, in welcher der Irrglaube aufgeklärt wird (vgl.
Young et al. 2017). Des Weiteren sind Richtigstellungen zumeist rein textbasiert (vgl.
Vivion et al. 2020; Young et al. 2017), obwohl journalistische Akteure inzwischen
die Notwendigkeit erkennen, visuelle Inhalte vermehrt einzusetzen (vgl. Elizabeth
und Mantzarlis 2016; Für die Verbreitung von Richtigstellungen
greifen offizielle Quellen und Leitmedien in der Regel auf etablierte Kanäle zurück
(vgl. Vraga und Bode 2017). Dadurch verbreiten sich Richtigstellungen schlechter
als Fehlinformationen (vgl. Brady et al. 2020; Meffert et al. 2006;Shinetal.2017;
Sommariva et al. 2018). Außerdem beinhalten Richtigstellungen in der Regel keine
kulturellen Bezüge bzw. identitätsstiftenden Elemente (vgl. Sommariva et al. 2018;
Vivion et al. 2020).
Diese Ausführungen verdeutlichen die erheblichen Unterschiede zwischen Fehl-
informationen und üblichen Richtigstellungen hinsichtlich ihrer Machart, Kommu-
nikatoren und Verbreitungswege (s. Tab. 2).
4 Zur Leistungssteigerung von Richtigstellungen
Angesichts der Unterschiede von Fehlinformationen und üblichen Widerlegungsver-
suchen stellt sich nun die Frage, welche Schlüsseleigenschaften von Fehlinforma-
tionen Richtigstellungen künftig aufgreifen können, um ihre Wirksamkeit zu stei-
gern. Dabei ist zu berücksichtigen, welche Anpassungen mit Rücksicht auf Akteure
und Institutionen, die Fehlinformationen richtigstellen möchten, ethisch vertretbar
sind. Schließlich könnten Richtigstellungen Abwehrreaktionen hervorrufen und die
Glaubwürdigkeit der korrektiven Akteure schädigen, was sich negativ auf ihre Fä-
higkeit auswirkt, in der Zukunft weitere Fehlinformationen richtigzustellen.
Eine erste Implikation für die Form von Richtigstellungen ist, dass diese (1) eben-
so fesselnd sein sollten wie die Fehlinformation, die sie zu widerlegen versuchen.
Zwar erscheinen sensationalistische Stilmittel wegen des Glaubwürdigkeitsgebo-
Tab . 2 Gegenüberstellung der Eigenschaften von Fehlinformationen und Richtigstellungen
Schlüsseleigenschaften Fehlinformationen Schlüsseleigenschaften Richtigstellungen
Negative Valenz Neutralität
Einfache Erklärung komplexer Phänomene Komplexe Erklärung komplexer Phänomene
Visuelle Beweisführung Rein textbasiert
Virale Verbreitung in sozialen Medien Verbreitung in etablierten Kanälen
Kompatibel mit den Werten und Normen der
Ohne kulturelle Bezüge bzw. identitätsstiftende
Von Fehlinformationen lernen
tes unangebracht – schließlich versuchen Richtigstellungen neutral und objektiv zu
informieren. Es wäre aber möglich, in Richtigstellungen die Erfahrungen bereits
aufgeklärter Personen aufzugreifen. Diese könnten schildern, wie sie sich gefühlt
haben, als ihnen klar wurde, dass sie durch Fehlinformationen in die Irre geführt
wurden. Eine solche Strategie erwies sich bei der Korrektur des Irrglaubens als
effizient, Tabak ohne Zusatzstoffe sei nicht gesundheitsschädlich (vgl. Sangalang
et al. 2019, S. 298). Dabei war die Richtigstellung am wirksamsten, in der Angst
und Wut der Protagonistin thematisiert wurden, als sie merkte, dass sie unter einer
falschen Prämisse wieder mit dem Rauchen angefangen hatte (vgl. Sangalang et al.
2019, S. 298).
Die Komplexität bestimmter Sachverhalte – z. B. der Entstehung von Autismus –
erfordert, dass Richtigstellungen (2) ebenso einfach zu verstehen sind wie die Fehl-
information selbst. Wie bereits erklärt, schaffen Fehlinformationen einen Anreiz
durch Geschichten, die mit ihnen in Verbindung stehen. Deshalb könnten auch bei
der Formulierung von Richtigstellungen journalistische Stilmittel eingesetzt werden,
sodass sie den Fehlinformationen eine möglichst leicht verständliche Geschichte mit
korrekten Informationen entgegensetzen und somit eine Aktualisierung des menta-
len Modells anstoßen (vgl. Cappella et al. 2015, S. 186; Green und Donahue 2018;
Lewandowsky et al. 2012). Bei der Konzeption von Richtigstellungen erscheint also
eine Zusammenarbeit mit journalistischen Akteuren sinnvoll.
Darüber hinaus sollten Richtigstellungen (3) die richtiggestellte Erklärung visu-
ell unterstützen (z. B. durch Grafiken). Es wurde geschildert, dass Bilder Realität
konstruieren und als visueller Beweis für eine Erklärung gelten. Insofern können
Stand- und Bewegtbilder den perzipierten Wahrheitsgehalt der Kernaussage in ei-
ner Richtigstellung erhöhen und sich damit auch positiv auf die Glaubwürdigkeit
der korrektiven Kommunikatoren auswirken. Die Vorzüge von Richtigstellungen,
die entweder audiovisuell (vgl. Young et al. 2017) oder in Kombination von Text
und Bild oder Grafik gestaltet sind (vgl. Amazeen et al. 2016; Garrett et al. 2013;
Hameleers et al. 2020; Nyhan und Reifler 2010,2019), wurden mehrfach empirisch
nachgewiesen. So bestätigte sich, dass der perzipierte Wahrheitsgehalt von Fehlin-
formationen, die aus Text und Foto bestehen, am stärksten reduziert werden konnte,
wenn Richtigstellungen das gleiche Format besaßen (vgl. Hameleers et al. 2020,
S. 281). Fesselnde, verständliche und dabei visuell unterstützte Richtigstellungen
dürften besonders einprägsam sein.
Weiter erscheint es sinnvoll, die Verbreitungswege der Fehlinformation zu ermit-
teln und Richtigstellungen (4) über die gleichen Kanäle zu kommunizieren. Auf-
klärung sollte dort betrieben werden, wo die Fehlinformation auftauchte – sei es
auf YouTube, Instagram oder Twitter. Die schnelle Verbreitung von (Fehl-)Infor-
mationen im Internet sowie die Tatsache, dass das Netz nie vergisst, können auch
Richtigstellungen zugutekommen (vgl. Bode und Vraga 2018; Pal et al. 2019;Van
Heekeren 2020). Dieses Potenzial scheint in Hinblick auf das Glaubwürdigkeitsge-
bot weniger bedenklich. Korrektive Akteure können schließlich von der Reichweite
der betroffenen Plattformen profitieren.
Der fünfte Vorschlag betrifft die Kommunikatoren von Richtigstellungen und
deren Auftreten. So erscheint es sinnvoll, dass (5) die Kommunikatoren von Richtig-
stellungen denen der zu korrigierenden Fehlinformation ähneln (vgl. Berinsky 2017,
V. D a n
S. 241). Wie bereits erwähnt, werden Richtigstellungen zumeist von Behörden und
Qualitätsmedien kommuniziert. Diese gelten zwar noch immer als wertvolle und
relevante Informationsquellen (vgl. Bode und Vraga 2015; Jin et al. 2011;vander
Meer und Jin 2020; Vraga und Bode 2017), allerdings stoßen sie möglicherweise
auch auf Misstrauen – insbesondere bei Personen, die von Fehlinformationen be-
troffen sind. So legen empirische Befunde nahe, dass eine zusätzliche Berichtigung
durch Personen aus dem sozialen Umfeld eine wichtige Rolle bei der Korrektur
von Fehlinformationen spielt (vgl. Vraga und Bode 2018, S. 1337). Schließlich er-
gibt sich die wahrgenommene Glaubwürdigkeit einer Quelle nicht automatisch aus
ihrer fachlichen Kompetenz, sondern geht auch mit wahrgenommener Ehrlichkeit,
Integrität und Unbefangenheit einher (vgl. Marsh und Yang 2018; Swire und Ecker
2018). Konkret legt Reardon (2020) nahe, dass Fachleute ein Anliegen in erster
Person vortragen und dabei eigene Erfahrungen thematisieren sollten. Diese Punkte
machen deutlich, welche Adaptionsmöglichkeiten für offizielle korrektive Instanzen
bestehen und welche Synergien sich aus der Zusammenarbeit mit anderen Kommu-
nikatoren (z.B. Influencern) ergeben können, die näher am sozialen Umfeld der
Betroffenen sind.
Schließlich ist zu berücksichtigen, dass Richtigstellungen grundsätzlich eine Ge-
genposition einnehmen und damit bestehende Überzeugungen infrage stellen kön-
nen. In der Folge sind Abwehrreaktionen möglich, sofern die Positionen in den
Richtigstellungen nicht dem Wertesystem einer Person entsprechen. Dies kann – mit
Bezug auf den Backfire Effect – dazu führen, dass der Irrglaube nicht nur fortbe-
steht, sondern sogar verstärkt wird (vgl. Chang 2015; Lewandowsky et al. 2005,
2012;Nisbetetal.2015; Nyhan und Reifler 2010; Pfau und Louden 1994). Wenn
möglich, sollten Richtigstellungen also (6) die Werte und Normen der Betroffenen
berücksichtigen. So ließ sich etwa belegen, dass konservativ eingestellte Personen
von der Existenz des Klimawandels überzeugt werden konnten, sofern ihnen der
wirtschaftliche Vorteil für die Atomkraft verdeutlicht wurde (vgl. Feygina et al.
2010, S. 326). Auch zeigt eine aktuelle Studie in Hinblick auf Fehlinformationen
zur MMR-Impfung bei einer betroffenen Minderheit in den USA, dass deren Skep-
sis gegenüber der Immunisierung durch das Eingehen auf ihre Normen und Werte
gemildert werden konnte (vgl. Marcus 2020). Die Berücksichtigung der Werte und
Normen der Zielgruppe dürfte keinen negativen Einfluss auf die Glaubwürdigkeit des
Kommunikators haben, sondern vielmehr die kommunizierten Inhalte unterstützen.
5 Fazit und Ausblick
Zahlreiche Akteure blicken besorgt auf die Verbreitung von Fehlinformationen und
sehen sich in der Pflicht, diejenigen aufzuklären, die dadurch in die Irre geführt wur-
den. In diesem Beitrag stellte ich Überlegungen vor, wie Richtigstellungen sich am
Gestaltungsrepertoire von Fehlinformationen orientieren können. Aufgezeigt wurden
fünf Eigenschaften von Fehlinformationen, aus denen ich sechs konkrete Implika-
tionen für die Gestaltung und Verbreitung von Richtigstellungen abgeleitet habe
(vgl. Tab. 3). Bisherige Studien legen nahe, dass die Wirksamkeit von Richtigstel-
Von Fehlinformationen lernen
Tab . 3 Zur Gestaltung wirksamer Richtigstellungen anhand der Unterschiede zu Fehlinformationen
(Abschn. 2)
(Abschn. 2)
(Abschn. 3)
Implikationen für die Ge-
staltung und Verbreitung von
(Abschn. 4)
Negative Valenz Negativitätsbias Neutralität Fesselnd, emotional
Einfache Erklärung
Ablehnung un-
mentaler Model-
Komplexe Erklärung
Narrative nutzen
Visuelle Beweisfüh-
Seeing is Belie-
Rein textbasiert Erklärungen (audio-)visuell
Virale Verbreitung
in sozialen Medien
Illusory Truth
Verbreitung in eta-
blierten Kanälen
Vornehmlich in gleichen Kanä-
len verbreiten wie die Fehlin-
Kompatibel mit den
Werten und Normen
der Zielgruppe
Ohne kulturelle Bezü-
ge bzw. identitätsstif-
tende Elemente
Zusammenarbeit mit anderen
Werte und Normen berücksich-
lungen gesteigert werden kann, sofern die Kommunikatoren von Richtigstellungen
an diesen Stellschrauben ansetzen.
Da sich Fehlinformationen kontinuierlich weiterentwickeln – wie etwa die Sor-
gen um die virale Verbreitung von sogenannten Deepfake-Videos verdeutlichen (vgl.
Hameleers et al. 2020) –, muss die hier vorgestellte Liste von Vorschlägen konti-
nuierlich auf Aktualität geprüft und erweitert werden. Der vorliegende Beitrag hat
den jetzigen Stand der Forschung synthetisiert und daraus Handlungsempfehlun-
gen abgeleitet. Unsere Überlegungen müssen zunächst mithilfe von Inhaltsanalysen
untermauert werden, denn diese würden sicherstellen, dass unsere Gegenüberstel-
lung der Schlüsseleigenschaften von Fehlinformationen und Richtigstellungen aktu-
ell bleibt. Denkbar wären etwa Inhaltsanalysen von Fehlinformationen (als solche
von unabhängigen Fakten-Checkern identifiziert) und von Richtigstellungen, die ih-
nen entgegengesetzt wurden.
Auf der Grundlage der festgestellten Unterschiede lassen sich auch experimentel-
le Studien konzipieren. So könnte die Wirksamkeit von Richtigstellungen überprüft
werden, die sich dieselben psychologischen Mechanismen zunutze machen wie die
Fehlinformationen, die sie richtigzustellen versuchen. Um die Wahrscheinlichkeit zu
erhöhen, dass solche evidenzinformierten Richtigstellungen in der Praxis Anwen-
dung finden, erscheint eine Einbeziehung der aufklärenden Akteure und Fachleute
ratsam. Aus heutiger Sicht können die obigen Gestaltungsvorschläge weitestgehend
als ethisch vertretbar und erfolgversprechend gelten. Um zu klären, ob dieser Ein-
druck tatsächlich stimmt, sind empirische Studien nötig. Ethische Aspekte müssten
etwa im Rahmen von Experteninterviews mit journalistischen Fakten-Checkern und
Anbietern von Digital Literacy-Schulungen ermittelt werden. Das vermehrte Auf-
treten von lockeren, jedoch inhaltlich soliden öffentlich-rechtlichen Angeboten wie
„maiLab“ und „Possoch klärt“ deutet darauf hin, dass Fakten-Checker Berührungs-
ängste mit alternativen Formaten abbauen. Die Reichweite solcher Videos übersteigt
V. D a n
bei weitem jene der textbasierten, nüchternen Pendants, und dies obwohl (oder viel-
leicht gerade weil) sie von Quellen stammen, die vertraut sind. So hat etwa „maiLab“
1,2 Mio. YouTube-Abonnenten, und einzelne Videos werden von bis zu 6,5 Mio.
Menschen angeschaut. Tatsächliche Wirkungen können jedoch nur experimentell
nachgewiesen werden, und hier herrscht nach wie vor, vor allem im deutschsprachi-
gen Raum, eine große Forschungslücke. Ergebnisse wie die von Radechovsky et al.
(2019) geben jedoch Anlass zu vorsichtigem Optimismus, dass es möglich ist, die
Wirksamkeit von Richtigstellungen zu steigern.
Funding Open Access funding enabled and organized by Projekt DEAL.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Li-
zenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in
jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ord-
nungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen
vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten
Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betref-
fende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung
nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des
Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf
Interessenkonflikt Dieses Manuskript ist unabhängig von den Lehrtätigkeiten der Autorin entstanden.
Amazeen, M. A., Thorson, E., Muddiman, A., & Graves, L. (2016). Correcting political and consumer
misperceptions: the effectiveness and effects of rating scale versus contextual correction formats.
Journalism & Mass Communication Quarterly,95, 28–48.
Ammann, B. (2016). Verschwörungstheorien in Endlosschlaufe. Neue Zürcher Zeitung.www. verschwoerungstheorien-in-
endlosschlaufe-ld.133292 (Erstellt: 7. Dez. 2016). Zugegriffen: 17.04.2021
Arendt, F., Haim, M., & Beck, J. (2019). Fake News, Warnhinweise und perzipierter Wahrheitsgehalt: Zur
unterschiedlichen Anfälligkeit für Falschmeldungen in Abhängigkeit von der politischen Orientie-
rung. Publizistik,64, 181–204.
Asp, E., Manzel, K., Koestner, B., Cole, C.A., Denburg, N. L., & Tranel, D. (2012). A neuropsychological
test of belief and doubt. Frontiers in neuroscience,6, 1–9.
Begg, I.M., Anas, A., & Farinacci, S. (1992). Dissociation of processes in belief: Source recollection,
statement familiarity, and the illusion of truth. Journal of Experimental Psychology: General,121,
Berinsky, A.J. (2017). Rumors and health care reform: Experiments in political misinformation. British
Journal of Political Science,47, 241–262.
Bode, L., & Vraga, E.K. (2015). In related news, that was wrong: the correction of misinformation through
related stories functionality in social media. Journal of Communication,65, 619–638.
Bode, L., & Vraga, E.K. (2018). See something, say something: correction of global health misinformation
on social media. Health Communication,33, 1131–1140.
Brady, W. J., Gantman, A. P., & Van Bavel, J. J. (2020). Attentional capture helps explain why moral and
emotional content go viral. Journal of Experimental Psychology: General,149, 746–756.
Cappella, J. N., Maloney, E., Ophir, Y., & Brennan, E. (2015). Interventions to correct misinformation
about tobacco products. Tobacco Regulatory Science,2, 186–197.
Von Fehlinformationen lernen
Chan, M. S., Jones, C. R., Hall Jamieson, K., & Albarracín, D. (2017). Debunking: a meta-analysis
of the psychological efficacy of messages countering misinformation. Psychological Science,28,
Chang, C. (2015). Motivated processing: How people perceive news covering novel or contradictory health
research findings. Science Communication,37, 602–634.
Chua, A. Y.K., & Banerjee, S. (2018). Intentions to trust and share online health rumors: an experiment
with medical professionals. Computers in Human Behavior,87, 1–9.
Citron, D. K., & Chesney, R. (2019). Deep fakes: a looming challenge for privacy, democracy, and natio-
nal security.
Zugegriffen: 17.04.2021
Dan, V. (2018). Integrative framing analysis: Framing health through words and visuals. New York: Rout-
DiFonzo, N., Robinson, N., Suls, J., & Rini, C. (2012). Rumors about cancer: content, sources, coping,
transmission, and belief. Journal of Health Communication,17, 1099–1115.
Dixon, G. N., & Clarke, C.E. (2013). Heightening uncertainty around certain science: Media coverage,
false balance, and the autism-vaccine controversy. Science Communication,35, 358–382.
Ecker, U.K. H., Lewandowsky, S., Cheung, C. S. C., & Maybery, M.T. (2015). He did it! She did it! No,
she did not! Multiple causal explanations and the continued influence of misinformation. Journal of
Memory and Language,85, 101–115.
Elizabeth, J., & Mantzarlis, A. (2016). The week in fact-checking: The fact is, fact-checking can get
better. American Press project/week-fact-
checking-fact-fact-checking-can-better/. Zugegriffen: 17.04.2021
Eslick, A. N., Fazio, L. K., & Marsh, E. J. (2011). Ironic effects of drawing attention to story errors. Memo-
ry,19, 184–191.
Fazio, L. K., Dolan, P.O., & Marsh, E. J. (2015). Learning misinformation from fictional sources: Under-
standing the contributions of transportation and item-specific processing. Memory,23, 167–177.
Feygina, I., Jost, J. T., & Goldsmith, R. E. (2010). system justification, the denial of global warming, and the
possibility of “system-sanctioned change”. Personality and Social Psychology Bulletin,36, 326–338.
Freelon, D., & Wells, C. (2020). Disinformation as political communication. Political Communication,37,
Frenda, S. J., Knowles, E. D., Saletan, W., & Loftus, E. F. (2013). False memories of fabricated political
events. Journal of Experimental Social Psychology,49, 280–286.
Galston, W.A. (2001). Political knowledge, political engagement, and civic education. Annual Review of
Political Science,4, 217–234.
Ganesan, A., & Dar-Nimrod, I. (2019). Experimental examination of social transmission of health infor-
mation using an online platform. Health Communication,36, 392–400.
Garrett, R. K., Nisbet, E. C., & Lynch, E.K. (2013). Undermining the corrective effects of media-based
political fact checking? The role of contextual cues and naïve theory. Journal of Communication,63,
Goldberg, C. (2016). Vaxxed | my son became autistic after his MMR vaccine.
v=deEeJT7WFsA. Zugegriffen: 17.04.2021
Grabe, M. E., & Bucy, E.P. (2009). Image bite politics: news and the visual framing of elections. Oxford:
Oxford University Press.
Green, M. C., & Donahue, J.K. (2018). The effects of false information in news stories. In B.G. Southwell,
E. A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 109–123). Austin: Uni-
versity of Texas Press.
Guo, L., & Vargo, C. (2020). “Fake News” and emerging online media ecosystem: an integrated inter-
media agenda-setting analysis of the 2016 U.S. Presidential Election. Communication Research,47,
Habermas, J. (1981). Theorie des kommunikativen Handelns. Frankfurt am Main: Suhrkamp.
Hall, S. (2012). The spectacle of the ‘Other. In S. Hall (Hrsg.), Representation: Cultural representations
and signifying practices (S. 223–209). London: SAGE.
Hamby, A., Ecker, U., & Brinberg, D. (2020). How stories in memory perpetuate the continued influence
of false information. Journal of Consumer Psychology,30, 240–259.
Hameleers, M., & van der Meer, T.G. L. A. (2020). Misinformation and polarization in a high-choice media
environment: how effective are political fact-checkers? Communication Research,47, 227–250.
Hameleers, M., Powell, T.E ., Van Der Meer, T. G. L.A., & Bos, L. (2020). A picture paints a thousand
lies? The effects and mechanisms of multimodal disinformation and rebuttals disseminated via social
media. Political Communication,37, 281–301.
V. D a n
Hemsley, J., & Snyder, J. (2018). Dimensions of visual misinformation in the emerging media landscape. In
B. G. Southwell, E.A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 91–106).
Austin: University of Texas Press.
Hohlfeld, R. (2020). Wahr oder falsch? Eine empirische Untersuchung zur Wahrnehmung von „Fake
News“ und echten Nachrichten in der politischen Kommunikation. In R. Hohlfeld, M. Harnischma-
cher, E. Heinke, L. Lehner & M. Sengl (Hrsg.), Fake News und Desinformation: Herausforderungen
für die vernetzte Gesellschaft und die empirische Forschung (S. 179–202). Baden-Baden: Nomos.
Huang, Y.L., Starbird, K., Orand, M., Stanek, S. A., & Pedersen, H. T. (2015). Connected through crisis:
Emotional proximity and the spread of misinformation online. CSCW,14–18, 969–980.
Humprecht, E. (2019). Where ‘fake news’ flourishes: a comparison across four western democracies. In-
formation, Communication & Society,22, 1973–1988.
Jin, Y., Liu, B. F., & Austin, L. L. (2011). Examining the role of social media in effective crisis manage-
ment: the effects of crisis origin, information form, and source on publics’ crisis responses. Commu-
nication Research,41, 74–94.
Johnson, H. M., & Seifert, C. M. (1994). Sources of the continued influence effect: when misinformation
in memory affects later inferences. Journal of Experimental Psychology,20, 1420–1436.
Jowett, G. (2008). Propaganda, visual communication of. In W. Donsbach (Hrsg.), The International En-
cyclopedia of Communication.
Kelley, D. E., Noar, S. M., & Seidenberg, A. B. (2018). Understanding misinformation in the pro-tan-
ning communication environment: a content analysis. American Journal of Health Education,49,
Kim, J. W. (2018). Rumor has it: the effects of virality metrics on rumor believability and transmission on
Twitter. New Media & Society,20, 4807–4825.
Konkes, C., & Lester, L. (2017). Incomplete knowledge, rumour and truth seeking. Journalism Studies,18,
Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin,108, 480–498.
Lau, R. R., & Redlawsk, D. P. (2006). How voters decide: information processing during election cam-
paigns. New York: Cambridge University Press.
Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and
its correction: continued influence and successful debiasing. Psychological Science in the Public
Interest,13, 106–131.
Lewandowsky, S., Stritzke, W.G. K., Oberauer, K., & Morales, M. (2005). Memory for fact, fiction, and
misinformation: the Iraq War 2003. Psychological Science,16, 190–195.
Linde-Arias, A. R., Roura, M., & Siqueira, E. (2020). Solidarity, vulnerability and mistrust: How context,
information and government affect the lives of women in times of Zika. BMC Infectious Diseases,
20, 1–12.
Marcus, B. (2020). A nursing approach to the largest measles outbreak in recent U.S. history: Lessons
learned battling homegrown vaccine hesitancy. Online Journal of Issues in Nursing,25, 1–19.
Marsh, E. J., & Yang, B. W. (2018). Believing things that are not true. A cognitive science perspective on
misinformation. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Missinformation and mass
audiences (S. 15–34). Austin: University of Texas at Austin.
Meffert, M. F., Chung, S., Joiner, A. J., Waks, L., & Garst, J. (2006). The effects of negativity and motivated
information processing during a political campaign. Journal of Communication,56, 27–51.
Messaris, P., & Abraham, L. (2001). The role of images in framing news stories. In S. D. Reese, O.H. Gan-
dy & A. E. Grant (Hrsg.), Framing public life: perspectives on media and our understanding of the
social world (S. 215–226). Mahwah: Lawrence Erlbaum.
Moran, M.B., Lucas, M., Everhart, K., Morgan, A., & Prickett, E. (2016). What makes anti-vaccine web-
sites persuasive? A content analysis of techniques used by anti-vaccine websites to engender anti-
vaccine sentiment. Journal of Communication in Healthcare,9, 151–163.
Moravec, P. L., Minas, R. K., & Dennis, A. R. (2019). Fake news on social media: People believe what they
want to believe when it makes no sense at all. MIS Quarterly,43, 1343–1360.
Mourão, R. R., & Robertson, C. T. (2019). Fake news as discursive integration: an analysis of sites
that publish false, misleading, hyperpartisan and sensational information. Journalism Studies,20,
Neuberger, C., Bartsch, A., Reinemann, C., Fröhlich, R., Hanitzsch, T., & Schindler, J. (2019). Der digitale
Wandel der Wissensordnung. Theorierahmen für die Analyse von Wahrheit, Wissen und Rationalität
in der öffentlichen Kommunikation. Medien & Kommunikationswissenschaft,67, 167–186.
Von Fehlinformationen lernen
Newman, E., & Zhang, L. (2021). Truthiness. In R. Greifeneder, M. Jaffe, E. Newman & N. Schwarz
(Hrsg.), The psychology of fake news. Accepting, sharing, and correcting misinformation (S. 90–114).
New York: Routledge.
Nickerson, R. S. (1998). Confirmation bias: a ubiquitous phenomenon in many guises. Review of General
Psychology,2, 175–220.
Nisbet, E. C., Cooper, K.E., & Garrett, R.K. (2015). The partisan brain: how dissonant science messages
lead conservatives and liberals to (dis)trust science. The Annals of the American Academy of Political
and Social Science,658, 36–66.
Nyhan, B., & Reifler, J. (2010). When corrections fail: the persistence of political misperceptions. Political
Behavior,32, 303–330.
Nyhan, B., & Reifler, J. (2019). The roles of information deficits and identity threat in the prevalence of
misperceptions. Journal of Elections, Public Opinion and Parties,29, 222–244.
Pal, A., Chua, A. Y. K., & Hoe-Lian Goh, D. (2019). Debunking rumors on social media: the use of denials.
Computers in Human Behavior,96, 110–122.
Parks, C. M., & Toth, J. P. (2006). Fluency, familiarity, aging, and the illusion of truth. Aging, Neuropsy-
chology, and Cognition,13, 225–253.
Peter, C., & Koch, T. (2016). When debunking scientific myths fails (and when it does not). Science Com-
munication,38, 3–25.
Pfau, M., & Louden, A. (1994). Effectiveness of adwatch formats in deflecting political attack ads. Com-
munication Research,21, 325–341.
Pham, V. N. (2015). Our foreign President Barack Obama: the racial logics of birther discourses. Journal
of International & Intercultural Communication,8, 86–107.
Popkin, S. L. (1991). The reasoning voter: communication and persuasion in presidential campaigns.Chi-
cago: University of Chicago Press.
Radechovsky, J., Berger, P., & Wolling, J. (2019). Nothing’s gonna change my world—Or do journalistic
clarifications help against rumors? SCM Studies in Communication and Media,,8, 497–522.
Reardon, S. (2020). Adding a personal backstory could boost your scientific credibility with the public.
Nature. 00857-0.
Rozin, P., & Royzman, E. B. (2001). Negativity bias, negativity dominance, and contagion. Personality and
Social Psychology Review,5, 296–320.
Sangalang, A., Ophir, Y., & Cappella, J.N. (2019). The potential for narrative correctives to combat mis-
information. Journal of Communication,69, 298–319.
Seymour, B., Getman, R., Saraf, A., Zhang, L. H., & Kalenderian, E. (2015). When advocacy obscures ac-
curacy online: Digital pandemics of public health misinformation through an antifluoride case study.
American Journal of Public Health,105, 517–523.
Shin, J., Jian, L., Driscoll, K., & Bar, F. (2017). Political rumoring on twitter during the 2012 US presiden-
tial election: rumor diffusion and correction. New Media & Society,19, 1214–1235.
Smelter, T.J., & Calvillo, D.P. (2020). Pictures and repeated exposure increase perceived accuracy of news
headlines. Applied Cognitive Psychology.
Sommariva, S., Vamos, C., Mantzarlis, A., Ðào, L. U.-L., & Tyson, M. D. (2018). Spreading the (fake)
news: Exploring health messages on social media and the implications for health professionals using
a case study. American Journal of Health Education,49, 246–255.
Southwell, B. G., Thorson, E. A., & Sheble, L. (2018). Introduction: Misinformation among mass au-
diences as a focus for inquiry. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Misinformation
and mass audiences (S. 1–11). Austin: University of Texas Press.
Sundar, S. (2008). The MAIN model: a heuristic approach to understanding technology effects on cre-
dibility. In M. Metzger & A. Flanagin (Hrsg.), Digital media, youth, and credibility (S. 73–100).
Cambridge, MA: MIT Press.
Swire, B., & Ecker, U. K.H. (2018). Misinformation and its correction: Cognitive mechanisms and rec-
ommendations for mass communication. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.),
Misinformation and mass audiences (S. 195–211). Austin: University of Texas Press.
Tandoc, E.C., Jenkins, J., & Craft, S. (2019). Fake news as a critical incident in journalism. Journalism
Practice,13, 673–689.
Tandoc, E.C., Lim, Z. W., & Ling, R. (2018a). Defining “fake news”. a typology of scholarly definitions.
Digital Journalism,6, 137–153.
Tandoc, E.C., Ling, R., Westlund, O., Duffy, A., Goh, D., & Wei, Z.L. (2018b). Audiences’ acts of au-
thentication in the age of fake news: a conceptual framework. New Media & Society,20, 2745–2763.
Taylor, S. E. (1991). Asymmetrical effects of positive and negative events: the mobilization-minimization
hypothesis. Psychological Bulletin,110, 67–85.
V. D a n
Thorson, E. (2016). Belief echoes: the persistent effects of corrected misinformation. Political Communi-
cation,33, 460–480.
Valentino, N. A., Hutchings, V.L., Banks, A. J., & Davis, A. K. (2008). Is a worried citizen a good citi-
zen? Emotions, political information seeking, and learning via the Internet. Political Psychology,29,
Van Damme, I., & Smets, K. (2014). The power of emotion versus the power of suggestion: memory for
emotional events in the misinformation paradigm. Emotion,14, 310–320.
Van der Linden, S.L., Clarke, C. E., & Maibach, E. W. (2015). Highlighting consensus among medical
scientists increases public support for vaccines: evidence from a randomized experiment. BMC Public
Health,15, 1207.
Van der Meer, T.G. L.A., & Jin, Y. (2020). Seeking formula for misinformation treatment in public health
crises: the effects of corrective information type and source. Health Communication,35, 560–575.
Van Heekeren, M. (2020). The curative effect of social media on fake news: a historical re-evaluation.
Journalism Studies,21, 306–318.
Vivion, M., Hennequin, C., Verger, P., & Dubé, E. (2020). Supporting informed decision-making about
vaccination: an analysis of two official websites. Public Health,178, 112–119.
Vraga, E.K., & Bode, L. (2017). Using expert sources to correct health misinformation in social media.
Science Communication,39, 621–645.
Vraga, E. K., & Bode, L. (2018). I do not believe you: how providing a source corrects health mispercep-
tions across social media platforms. Information, Communication & Society,21, 1337–1353.
Vraga, E. K., & Bode, L. (2020). Defining misinformation and understanding its bounded nature: using
expertise and evidence for describing misinformation. Political Communication,37, 136–144.
Walter, N., & Tukachinsky, R. (2020). A meta-analytic examination of the continued influence of mis-
information in the face of correction: how powerful is it, why does it happen, and how to stop it?
Communication Research,47, 155–177.
Young, D. G., Jamieson, K. H., Poulsen, S., & Goldring, A. (2017). Fact-checking effectiveness as a func-
tion of format and tone: evaluating and Journalism & Mass Commu-
nication Quarterly,95, 49–75.
Zimmermann, F., & Kohring, M. (2018). „Fake News“ als aktuelle Desinformation. Systematische Bestim-
mung eines heterogenen Begriffs. Medien & Kommunikationswissenschaft,66, 526–541.
Dr. Viorela Dan ist Akademische Rätin auf Zeit am Institut für Kommunikationswissenschaft und Medi-
enforschung der Ludwig-Maximilians-Universität München (LMU München).
... "Misinformation" is an umbrella term used to denote false or misleading content presented as true (Dan, 2021). In everyday language, misinformation is often referred to as "fake news"; however, this latter term has been largely abandoned in academic discourse because of its conceptual imprecision (Tandoc et al., 2018). ...
... In everyday language, misinformation is often referred to as "fake news"; however, this latter term has been largely abandoned in academic discourse because of its conceptual imprecision (Tandoc et al., 2018). In the academe, two forms of misinformation are described based on whether the actors in which falsehood originated had the intention to deceive -namely, disinformation and misinformation (Dan, 2021;Egelhofer & Lecheler, 2019). Disinformation refers to the situation where the communicator of a message knows that the message is false or misleading but presents it as true nonetheless (i. ...
... People seem particularly susceptible to false and misleading claims delivered neutrally rather than in a sensationalistic manner (Staender, Humprecht, Esser, Morosoli, & Van Aelst, 2021). This is troubling because it endangers the democratic ideal of an informed citizenship, meaning that citizens will have a hard time making sense of political decisions and arriving at conclusions that are in tune with their attitudes (Dan, 2021). Moreover, misinformation can deepen the gap between attitudes in society and hostility among different-minded groups (Dan & Dixon, 2021). ...
Full-text available
Crises allow falsehoods to flourish in communication environments, prompting negative consequences. Corrections issued in response, such as journalistic fact-checks, have difficulty undoing the harm falsehoods cause. This has been attributed to the design and distribution of corrections, presented as diametral to how false / misleading claims are reported; however, this argument has never been tested in a single study. We addressed this research gap through a content analysis of journalistic coverage of health myths surrounding the COVID-19 pandemic in the context of journalistic corrections. We found that 86.1 % of the misinforma-tion items addressed in this coverage echoed health myths described in the literature for other outbreaks, suggesting that misinformation is largely recycled and tweaked to apply to new outbreaks. We also found major differences regarding the actors that journalists presented as those in which falsehoods and corrections originated-with the former stemming mainly from the civil society domain and the latter from the science domain. Finally, we found differences in the key properties of misinformation and corrections in the journalistic coverage analyzed, agreeing with existing theorizing. This suggests that corrections have a competitive disadvantage compared with misinformation. To address this, corrections should employ more supporting visuals and decreased complexity.
... We provide two specific suggestions with regard to alternative formats. First, instead of just-the-facts accounts, corrections should consider telling stories about likeable individuals who realize they fell for a false or misleading claim (see also Dan, 2021). A recent study by Sangalang et al. (2019) demonstrated that corrections employing this storytelling technique were very successful in correcting false beliefs. ...
... Our second suggestion concerns the use of visuals in corrections. Given that the human brain is attracted to images and hardwired to trust that which they record as reality (Coleman, 2010), it seems advisable to support corrective messages with visual cues and evidence (Dan, 2018(Dan, , 2021. Existing research found verbal and visual corrections to be more enjoyable and more convincing than purely textual corrections (Amazeen et al., 2016;Garrett et al., 2013;Hameleers et al., 2020), especially those employing a video format (Young et al., 2018). ...
Full-text available
Actors aiming to remedy the effects of health misinformation often issue corrections focused on individual outcomes (i.e., promoting individual health behaviors) rather than societal outcomes (i.e., reducing issue polarization). Yet, for highly politicized health crises like the COVID-19 pandemic, such interventions run the risk of exacerbating societal cleavages, driving those holding opposing views further apart from one another. Interventions yielding individual benefits but causing societal harm are certainly not ideal. But is the design of such dual-focus corrections even possible? We believe this to be the case. Here, we delineate an agenda for future research that should help social scientists in identifying the characteristics of corrections that might reduce false beliefs without increasing polarization.
... Die handwerkliche Funktion der Multimodalität wird zum einen bei der Betrachtung der Berichterstattung deutlich, die komplexe Zusammenhänge verdeutlichen möchte, wie zum Beispiel Faktenchecks (Dan, 2021;Dan & Rauter, 2021). Gezielt eingesetzte Visualisierungen können hier Abhilfe schaffen und die verbal/auditiv vermittelte Information verständlicher machen. ...
Full-text available
Aim: Developing evidence-based recommendations on how to debunk health-related misinformation and more specific health myths in (online) communication is important for individual health and the society. The present study investigated the effects of debunking/correction texts created according to the latest research findings with regard to four different health myths on recipients' belief, behaviour and feelings regarding the myths. Further, the study investigated the effects of different visuali-sations (machine-technical created image, diagram, image of an expert, message without an image) in the debunking texts. Subject and methods: A representative sample of German Internet users (N = 700) participated in an anonymous online survey experiment with a 4 (myths) × 4 (picture) mixed study design. Results: The results show that receiving an online news article that refutes a widespread health myth with or without the use of an image can significantly change the attitudes of the recipients toward this myth. The most influential variable was the attributed credibility: the more credible a debunking text is for a recipient, the more corrective effectiveness it has. However, the corrective messages did not differ in their persuasive effects depending on the image types used. Conclusion: The results offer an optimistic outlook on the correction of health-related misinformation and especially health myths and insight into why and how people change their beliefs (or not) and how beliefs in health myths can be reduced. The findings can be used by journalists, scientists, doctors and many other actors for efficient (online) communication.
Full-text available
Auf der Basis zweier Onlinebefragungen mit quasi-experimentellem Unter-suchungsansatz in den Jahren 2017 und 2020 wurde analysiert, welche Bedeutung »Fake News« in der wahlberechtigten Bevölkerung in Deutschland zugeschrieben wird (Problemsensibilität), inwieweit die Fähigkeit bei Internetnutzern ausgebildet ist, Falschmeldungen von echten Nachrichten zu unterscheiden (Problemlösungskompetenz) und welche Faktoren das Erkennen von »Fake News« begünstigen (Problembewältigung). Bei großer Problemsensibilität unter Wirksamkeit des Third-Person-Effekts und mäßiger Problemlösungskompetenz, »Fake News« identifizieren zu können, schält sich als zentraler Befund der Illusory Truth Effect heraus. Dieser ist dafür verantwortlich, dass Menschen, die mit einer Meldung schon einmal konfrontiert waren, dieser mit einer höheren Wahrscheinlichkeit Glauben schenken, auch wenn diese offenkundig unplausibel und falsch ist.
Full-text available
Background: The public health response to Zika outbreak has mostly focused on epidemiological surveillance, vector control, and individual level preventative measures. This qualitative study employs a social-ecological framework to examine how macro (historical, legislative, political, socio-economic factors), meso (sources of information, social support, social mobilization) and micro level factors (individual actions, behavioral changes) interacted to influence the response and behavior of women with respect to Zika in different contexts. Methods: A qualitative study was carried out. Women were recruited through the snowball sampling technique from various locations in Brazil, Puerto Rico, and the United States. They were of different nationalities and ethnicities. Data were collected through semi-structured interviews. The data transcripts were analyzed using thematic analysis. Results: Women in this study deemed the information provided as insufficient, which led them to actively reach out and access a variety of media sources. Social networks played a vital role in sharing information but also resulted in the spread of hoaxes or rumors. Participants in our research perceived socio-economic inequities but focused on how to remedy their microenvironments. They did not engage in major social activities. Lack of trust in governments placed women in vulnerable situations by preventing them to follow the guidance of health authorities. These impacts were also a result of the response tactics of health and government administrations in their failed attempts to ensure the well-being of their countries' populations. Conclusions: Our findings call for public health interventions that go beyond individual level behavioral change campaigns, to more comprehensively address the broader meso and macro level factors that influence women' willingness and possibility to protect themselves.
Immunization is widely lauded as the greatest achievement in public health. However, vaccination rates have been dropping in developed countries due to vaccine hesitancy. Vaccine hesitancy has been listed by the World Health Organization as one of the top ten threats to global health for 2019. During a recent measles outbreak in New York, a group of nurses became ambassadors for immunization, bringing evidence-based health information to the Orthodox Jewish community in a culturally-sensitive manner that was known as the Engaging in Medical Education with Sensitivity (EMES) Initiative. Using a grassroots community-based approach, healthcare providers countered widely-distributed misinformation using evidence and empathy. This article will provide useful tips to address vaccine hesitancy through effective communication and evidence-based answers to common and uncommon vaccine myths for communities and discuss implications for nurses faced with vaccine hesitancy.
Fake news, deliberately inaccurate and often biased information that is presented as accurate reporting, is perceived as a serious threat. Recent research on fake news has documented a high general susceptibility to the phenomenon and has focused on investigating potential explanatory factors. The present study examined how features of news headlines affected their perceived accuracy. Across four experiments (total N = 659), we examined the effects of pictures, perceptual clarity, and repeated exposure on the perceived accuracy of news headlines. In all experiments, participants received a set of true and false news headlines and rated their accuracy. The presence of pictures and repeated exposure increased perceived accuracy, whereas manipulations of perceptual clarity did not show the predicted effects. The effects of pictures and repeated exposure were similar for true and false headlines. These results demonstrate that accompanying pictures and repeated exposure can affect evaluations of truth of news headlines.