BookPDF Available

Empfehlungen in Krisenzeiten: Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?

Authors:

Abstract and Figures

Die Studie „Empfehlungen in Krisenzeiten“ untersucht, inwiefern durch YouTubes Empfehlungsalgorithmen desinformative Inhalte auf der Plattform befördert werden und inwieweit verlässliche und vielfältige Informationsangebote dabei sichtbar werden. Hierzu wurden insgesamt 90 Startvideos und Suchbegriffe zu den Themen Covid- 19-Pandemie, Klimawandel und Flüchtlingsbewegungen festgelegt und die darauf folgenden Empfehlungen automatisiert aufgezeichnet. Eine Auswahl der aufgezeichneten empfohlenen Videos wurde im Anschluss manuell nach Hinweisen auf Desinformation durchgesucht. Unter Desinformation wurden dabei Falschinformationen verstanden, die bewusst verbreitet werden. Die Einhaltung journalistischer Sorgfaltspflichten, die Unterstützung von wissenschaftlichen Konsens sowie die Überprüfungen durch anerkannte Faktencheck-Organisationen dienten als Indikatoren für die Erkennung von Desinformation. Schließlich wurden 15 als desinformativ eingestufte Videos in Bezug auf Art und Grad der Desinformation, potenzielle Zielgruppe, Ton des Videos, Professionalität, Selbstbeschreibung sowie Feindbilder vertiefend analysiert, um Strategien und Narrative hinter der deutschsprachigen Desinformation auf YouTube darzustellen. Die Studie zeigt, dass YouTubes Empfehlungsalgorithmen sehr wenige themenbezogene Treffer und eine geringe Vielfalt an Anbietern sichtbar machen: • Es werden häufig immer wieder dieselben Videos und Kanäle empfohlen. Neben Videos einzelner Kanäle werden fast ausschließlich Videos desselben Kanals angezeigt. • Öffentlich-rechtliche und etablierte Medienanbieter werden dabei überdurchschnittlich oft sichtbar gemacht. • Die Konzentration auf einzelne Videos und Kanäle führt dazu, dass nur wenige thematisch passende Empfehlungen angezeigt werden. Je weiter Nutzende der Empfehlungskette folgen, desto unwahrscheinlicher ist es, dass ein Video zum ursprünglichen Thema empfohlen wird. Im Allgemeinen verbreiteten die untersuchten YouTube-Empfehlungen kaum desinformative Inhalte, auch wenn diese durchaus vereinzelt sichtbar gemacht wurden: • In der Gesamtschau stammten nur 6 Prozent der untersuchten empfohlenen Inhalte aus potenziell desinformativen Kanälen. • Zu den Themen Covid-19-Pandemie und Klimawandel enthielten die Empfehlungen zu 14 bis 15 Prozent potenziell desinformative Inhalte und somit deutlich mehr als zum Thema Migration. • Ausgehend von desinformativen Startpunkten enthielten die analysierten Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte im Vergleich zu neutralen Startpunkten. • Werbung wurde dabei auch vor desinformative Videos geschaltet – insgesamt sogar häufiger als vor Inhalten ohne Desinformation. • Die qualitative Inhaltsanalyse zeigte, dass Desinformation auf YouTube in vielgestaltiger Form auftritt. Auch wenn diese Videos inhaltlich und stilistisch sehr divers sind, eint sie die meist rechtspopulistische Ideologie sowie ein begrenztes Spektrum an Feindbildern. Präsentation der Ergebniss und Reaktionen u.a. von YouTube: https://www.youtube.com/watch?v=3GR8fhl5FUQ
Content may be subject to copyright.
Welche Inhalte machen die
Empfehlungsalgorithmen von YouTube sichtbar?
Februar 2021
Eine Studie von Kantar, Public Division und der RWTH Aachen
im Auftrag der Medienanstalt Berlin-Brandenburg (mabb),
der Senatskanzlei Berlin, der Bayerischen Landeszentrale für neue Medien (BLM),
der Landesanstalt für Medien NRW und der Medienanstalt Rheinland-Pfalz
EMPFEHLUNGEN
IN KRISENZEITEN
Abstract 3
Abstract in English 5
1 YouTube zwischen Informationsmedium und Desinformationsverdacht 6
2 Algorithmische Sichtbarkeit: Struktur der erfassten Empfehlungen 11
3 Algorithmische Vielfalt: Welche Angebote und Anbieter
machen Empfehlungen sichtbar? 15
3.1 Im Gravitationsfeld der starken Kanäle 15
3.2 Öffentlich-rechtliche und klassische Medien werden priorisiert 17
3.3 Schnelle Wechsel, wenig Beständigkeit: Themen in Empfehlungen 20
3.4 Meinungsstark unterwegs: Meinungsvielfalt im Fokus 23
4 Promoting Disinformation? Umfang und Fundorte der Falschinformation
in Empfehlungen 26
4.1 Jenseits des Rampenlichts: Wie sichtbar ist Desinformation in Empfehlungen? 26
4.2 Desinformation unter der Lupe 33
4.3 Werbefinanzierte Desinformation 36
5 Hinter den Spiegeln: Zentrale Erzählungen und Strategien
von desinformierenden Videos 38
5.1 Desinformative Vielfalt: Formate und Zielgruppen 38
5.2 Desinformative Muster: Inhalte und Erzählungen 39
5.3 Akteure und Netzwerke hinter den potenziell desinformativen Videos 51
6 Fazit und Handlungsempfehlungen 55
Anhang 60
Impressum 66
Inhalt
2
Die Studie „Empfehlungen in Krisenzeiten“ untersucht, inwiefern durch YouTubes Emp-
fehlungsalgorithmen desinformative Inhalte auf der Plattform befördert werden und
inwieweit verlässliche und vielfältige Informationsangebote dabei sichtbar werden.
Hierzu wurden insgesamt 90 Startvideos und Suchbegriffe zu den Themen Covid-
19-Pandemie, Klimawandel und Flüchtlingsbewegungen festgelegt und die darauf fol-
genden Empfehlungen automatisiert aufgezeichnet. Eine Auswahl der aufgezeichneten
empfohlenen Videos wurde im Anschluss manuell nach Hinweisen auf Desinformation
durchgesucht. Unter Desinformation wurden dabei Falschinformationen verstanden,
die bewusst verbreitet werden. Die Einhaltung journalistischer Sorgfaltspflichten, die
Unterstützung von wissenschaftlichen Konsens sowie die Überprüfungen durch aner-
kannte Faktencheck-Organisationen dienten als Indikatoren für die Erkennung von Des-
information. Schließlich wurden 15 als desinformativ eingestufte Videos in Bezug auf
Art und Grad der Desinformation, potenzielle Zielgruppe, Ton des Videos, Professionali-
tät, Selbstbeschreibung sowie Feindbilder vertiefend analysiert, um Strategien und Nar-
rative hinter der deutschsprachigen Desinformation auf YouTube darzustellen.
Die Studie zeigt, dass YouTubes Empfehlungsalgorithmen sehr wenige
themenbezogene Treffer und eine geringe Vielfalt an Anbietern sichtbar machen:
• Es werden häufig immer wieder dieselben Videos und Kanäle empfohlen. Neben
Videos einzelner Kanäle werden fast ausschließlich Videos desselben Kanals angezeigt.
• Öffentlich-rechtliche und etablierte Medienanbieter werden dabei
überdurchschnittlich oft sichtbar gemacht.
• Die Konzentration auf einzelne Videos und Kanäle führt dazu, dass nur wenige
thematisch passende Empfehlungen angezeigt werden. Je weiter Nutzende der
Empfehlungskette folgen, desto unwahrscheinlicher ist es, dass ein Video zum
ursprünglichen Thema empfohlen wird.
Im Allgemeinen verbreiteten die untersuchten YouTube-Empfehlungen kaum
desinformative Inhalte, auch wenn diese durchaus vereinzelt sichtbar
gemacht wurden:
• In der Gesamtschau stammten nur 6 Prozent der untersuchten empfohlenen Inhalte
aus potenziell desinformativen Kanälen.
• Zu den Themen Covid-19-Pandemie und Klimawandel enthielten die Empfehlungen
zu 14 bis 15 Prozent potenziell desinformative Inhalte und somit deutlich mehr als
zum Thema Migration.
• Ausgehend von desinformativen Startpunkten enthielten die analysierten
Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte im Vergleich
zu neutralen Startpunkten.
• Werbung wurde dabei auch vor desinformative Videos geschaltet – insgesamt sogar
häufiger als vor Inhalten ohne Desinformation.
• Die qualitative Inhaltsanalyse zeigte, dass Desinformation auf YouTube in vielgestaltiger
Form auftritt. Auch wenn diese Videos inhaltlich und stilistisch sehr divers sind, eint sie
die meist rechtspopulistische Ideologie sowie ein begrenztes Spektrum an Feindbildern.
Abstract
3
Die Analysen weisen darauf hin, dass die Erkennungsmechanismen für Desinformation
auf YouTube insgesamt gut funktionieren, auch wenn diese verbessert werden können.
Denn desinformative Videos bleiben in einigen Fällen unentdeckt und können durch
nachfolgende Empfehlungen an den Nutzenden gebracht werden. Erschwerend kommt
hinzu, dass verschiedene Kanäle ständig neue Inhalte mit vielfältiger Zielgruppenanspra-
che produzieren und gelöschte Desinformation wieder hochladen. Hier könnte eine
Demonetarisierung desinformativer Videos es für Produzierende unattraktiver machen,
solche Inhalte einzustellen. Denn häufig werden Werbeanzeigen vor problematische
Inhalte platziert, die den Werten der Werbetreibenden widersprechen.
4
The study „Recommendations in times of crisis“ examines whether YouTube’s recommendati-
on algorithms promote disinformation content on the platform and the extent to which a va-
riety of channels and offers are represented. Starting with 90 videos or search terms on the
Covid-19 pandemic, climate change and refugees, the following recommendations were auto-
matically recorded. A selection of the recorded recommended videos was then manually
coded to uncover evidence of disinformation. Finally, 15 videos that were judged to be disinfor-
mative were analyzed in depth with regard to the type and degree of disinformation, potential
target groups, tone of the video, professionalism, selfdescription, and propagated enemies in
order to reconstruct the strategies and narratives behind the German-language disinformati-
on on YouTube.
The study shows that YouTube‘s recommendation algorithms display very few
topic-related results and a limited range of providers:
• The same videos and channels are recommended repeatedly. Next to videos of specific
channels, almost exclusively videos of the same channel are displayed.
• Public and established media providers are visible more often than average.
• The concentration on individual videos and channels results in the fact that only a few
thematically matching recommendations are displayed. The further users follow the
recommendation chain, the less likely they are to encounter videos on a topic relating
to their original thematic interest.
In general, YouTube’s recommendations studied did not disseminate disinformation
very often, even if it was made visible in some cases:
• Across all topics, only 6 percent of the videos came from potential disinformation channels.
• On the topics of the Covid-19 pandemic and climate change, the recommendations
contained 14 to 15 percent disinformation content, which is more than on the topic
of migration.
• Following disinformative starting points, the analysed recommendation trees
contained substantially more potentially disinformative content compared to
neutral starting points.
• Advertisements appeared even more often in front of disinformative videos
than in front of videos without disinformation.
• The qualitative content analysis showed that disinformation appears on YouTube
in many different forms. Even if these videos are very diverse in content and style,
they nevertheless share the same right-wing ideology and display a limited spectrum
of enemies.
The analyses indicate that the detection mechanisms for disinformation on YouTube
are in general quite effective even if there is room for improvement in some cases disinfor-
mation videos remain undiscovered and could be brought to the user by subsequent recom-
mendations. The many channels that constantly produce new content with a wide range
of target groups and upload deleted disinformation, do not make this task easy. At the same
time, demonetarization of disinformation videos could make it less attractive for producers
to post such content. All too often, advertisements are placed at the beginning of problema-
tic content that contradicts the goals and values of the advertising company.
5
Wolfgang Wodarg, Attila Hildmann, Ken Jebsen – waren diese Namen vorher nur wenigen
ein Begriff, eroberten sie mit ihren kontroversen YouTube-Videos während der Covid-
19-Pandemie die deutschen Wohn- und Kinderzimmer. Das Recherchenetzwerk Correctiv1
bezeichnete YouTube als die Plattform, auf der während der Pandemie am häufigsten
Falschinformationen zum Virus und dessen Folgen veröffentlicht wurden. Einhergehend
mit der ersten Pandemie in der Geschichte, bei der soziale Medien eine gewichtige Rolle
für die Verbreitung von Informationen spielen, erkennt die Weltgesundheitsorganisation
(WHO) gar eine „Infodemie“2 , bei der Desinformation Leben kosten kann.
YouTube als Informationsquelle
Das Videoportal YouTube, das bereits vor 15 Jahren gegründet wurde, entwickelt sich für
immer mehr Menschen zu einem wichtigen Informationsmedium für Politik, Wissen-
schaft und Zeitgeschehen. Laut der aktuellen ARD/ZDF-Onlinestudie 20203 nutzt über
die Hälfte der deutschen Bevölkerung ab 14 Jahren YouTube mindestens monatlich
(55%) – weit mehr als zum Beispiel der populäre Streamingdienst Netflix (33%) auf sich
vereinen kann. Vor allem jüngere Zielgruppen im Alter von 14 bis 29 Jahren nutzen You-
Tube verstärkt, um sich über das politische und gesellschaftliche Zeitgeschehen zu infor-
mieren4. Zwar wird Musik als Themenfeld auf YouTube laut der ARD/ZDF-Onlinestudie
am häufigsten nachgefragt. Die Themenfelder „Wissen“, „Gesundheit“ und „Politik“
folgen jedoch dicht darauf.
Knapp ein Fünftel5 der deutschen Bevölkerung gibt außerdem an, während der Covid-
19-Pandemie über Videoplattformen wie YouTube Informationen zu Corona zu beziehen.
In Bezug auf die Verlässlichkeit der hier veröffentlichten Corona-Berichterstattung ist
die Bevölkerung jedoch gespalten. Laut der WDR-Studie zur Glaubwürdigkeit der Medi-
en6 hält ein ähnlich großer Anteil der deutschen Bevölkerung diese für gut (12%) und für
schlecht (14%). Dies reflektiert die beschriebenen Warnungen vor massiven Desinforma-
tionskampagnen während der Corona-Krise von Gesundheitsinstitutionen und Journa-
lismus-Watchdogs wie Correctiv, mit denen vermutlich eine große Zahl der Bürger innen
und Bürger in den letzten Monaten in Berührung kam. YouTube bleibt also ein umstrit-
YouTube zwischen
Informationsmedium und
Desinformationsverdacht
1
1 Correctiv (2020): Coronavirus: Die Stunde der fragwürdigen Youtube-Doktoren.
https://correctiv.org/faktencheck/hintergrund/2020/04/09/coronavirus-die-stunde-der-fragwuerdigen-youtube-doktoren.
2 WHO, UN, UNICEF, UNDP, UNESCO, UNAIDS, ITU, UN Global Pulse, and IFRC (2020): Managing the COVID-19 infodemic: Promoting healthy behaviours and mitigating the harm from misinformation and
disinformation. https://www.who.int/news/item/23-09-2020-managing-the-covid-19-infodemic-promoting-healthy-behaviours-and-mitigating-the-harm-from-misinformation-and-disinformation
3 ARD/ZDF/Kantar (2020): ARD/ZDF-Onlinestudie 2020. https://www.ard-zdf-onlinestudie.de/files/2020/2020-10-12_Onlinestudie2020_Publikationscharts.pdf
4 Mediengewichtungsstudie 2020. https://www.die-medienanstalten.de/fileadmin/user_upload/die_medienanstalten/Themen/Forschung/Mediengewichtungsstudie/Vielfaltsbericht_MGS.pdf
5 Die Medienanstalten/Kantar (2020) Informationsverhalten während der Corona Pandemie. Ergänzender Schwerpunkt zur Mediengewichtungsstudie 2020-I. https://www.die-medienanstal-ten.de/
fileadmin/user_upload/die_medienanstalten/Themen/Forschung/Mediengewichtungsstudie/die_medienanstalten_studie_informationsverhalten_corona_pandemie.pdf
6 Infratest dimap/WDR (2020): Glaubwürdigkeit der Medien 2020. https://www.infratest-dimap.de/umfragen-analysen/bundesweit/umfragen/aktuell/glaubwuerdigkeit-der-medien-2020/
6
tenes Medium, das besonders während Krisenzeiten und bei komplexen Themen immer
wieder in der Kritik steht7. YouTubes CEO Susan Wojcicki beschrieb diese Stimmung ge-
genüber der New York Times so: „Alle sind die ganze Zeit wütend auf dich“8.
Algorithmische Empfehlungen als Motor der Nutzung
Bei der Bewegung auf der Plattform spielen Empfehlungsalgorithmen eine gewichtige
Rolle. Sie bestimmen, was den Nutzenden als nächstes Video oder als Empfehlung ne-
ben dem aktuellen Video angezeigt wird, sowie welche Videos auf der Startseite präsen-
tiert werden. Algorithmische Empfehlungen haben somit einen Einfluss auf die Sicht-
barkeit der Video-Angebote – sie haben die Macht, bestimmten Videos entweder ein
Millionenpublikum oder aber nur eine Handvoll Aufrufe zuteilwerden zu lassen. Da-
durch entscheiden sie mit, welche Reichweite Inhalte erfahren, und ob möglicherweise
Nutzerinnen und Nutzer mit Inhalten in Kontakt kommen, die sie nicht gesucht haben.
Die Algorithmen werden von YouTube sorgfältig gesteuert und weiterentwickelt. Ziel ist
dabei stets, wie auch bei anderen Internetplattformen, eine möglichst lange Verweil-
dauer der Nutzenden auf der Plattform zu erreichen9. Wie jedoch die Algorithmen ihre
Entscheidungen treffen und welche Faktoren diese in welchem Ausmaß beeinflussen,
bleibt bisher unklar. YouTube veröffentlichte hierzu bisher keine genauen Informationen.
Somit sind Interessierte und YouTube-Produzenten auf „Reverse Engineering“-Untersu-
chungen10 angewiesen, bei denen ausgehend von den beobachteten Ergebnissen auf
die Funktionsweise der Algorithmen geschlossen wird. Bisherige Studien11 konnten kei-
nen signifikanten Einfluss von Aufrufen, Likes oder Kommentaren für sich allein genom-
men auf die Wahrscheinlichkeit einer algorithmischen Empfehlung feststellen. Trotz-
dem wird deutlich, dass bestimmte Inhalte bevorzugt werden – beispielsweise
topaktuelle Themen oder bestimmte YouTube-Formate. Ein weiterer Impuls für die Al-
gorithmen ist das bisherige Nutzungsverhalten der User, also beispielsweise abonnierte
Kanäle oder das zuletzt angesehene Video. Algorithmen erstellen anhand der Nut-
zungshistorie Prognosen, wie attraktiv verschiedene Videos sein könnten und ordnen
ihre Empfehlungen entsprechend. Zusammen fassend lässt sich also festhalten, dass so-
wohl Video- und Kanaleigenschaften als auch das Nutzungsverhalten in die Empfehlun-
gen eingehen.
Algorithmen können jedoch nur auf das Material zurückgreifen, das auf der Plattform
bereits verfügbar ist. Sind beispielsweise wenig qualitativ hochwertige Videos zu einem
bestimmten Thema verfügbar, können die Algorithmen solche auch nicht sehr oft be-
vorzugt empfehlen12. Dementsprechend beziehen Empfehlungen Nutzung und Angebot
7 Avaaz (2020): Why is YouTube Broadcasting Climate Misinformation to Millions. YouTube is driving its users to climate misinformation and the world’s most trusted brands are paying for it. Hg. v. Avaaz.
8 Wakabayashi, D: (2019): The Most Measured Person in Tech Is Running the Most Chaotic Place on the Internet https://www.nytimes.com/2019/04/17/business/youtube-ceo-susan-wojcicki.html
9 Covington, P.; Adams, J.; Sargin, E.: Deep Neural Networks for YouTube Recommendations. https://static.googleusercontent.com/media/research.google.com/de//pubs/archive/45530.pdf
10 Gielen, M.; Rosen, J. (2016): Reverse Engineering The YouTube Algorithm: Part I.
https://www.tubefilter.com/2016/06/23/reverse-engineering-youtube-algorithm/.
11 Rieder, B.; Matamoros-Fernández, A.; Coromina, Ò. (2018): From ranking algorithms to ‘ranking cultures’: Investigating the modulation of visibility in YouTube search results. In: Convergence: The Interna-
tional Journal of Research into New Media Technologies 24 (1), S. 50–68.
12 Dutta, A.; Beriwal, N.; van Breugel, L. M.; Sachdeva, S.; Hiranya, S.; Nelson, U. et al. (2020): YouTube as a Source of Medical and Epidemiological Information During COVID-19 Pandemic: A Cross-Sectio-
nal Study of Content Across Six Languages Around the Globe. In: Cureus 12 (6). https://www.cureus.com/ar ticles/32049-youtube-as-a-source-of-medical-and-epidemiological-information-during-
1
7
dynamisch aufeinander. Welche Inhalte dabei sichtbar werden und inwieweit auch Ver-
schwörungsmythen und Manipulation – also Desinformation – algorithmisch verbreitet
werden, hängt somit von mehreren Faktoren ab. Die Priorisierung und Funktionsweise
der Empfehlungsalgorithmen spielen jedoch bei der Verbreitung von YouTube-Videos
unbestritten eine wichtige Rolle.
Datenbasierte Bewertung von Information und Desinformation auf YouTube
Im Mittelpunkt der durchgeführten Studie stand die Frage, ob algorithmische Empfeh-
lungen in Bezug auf Informationen in Krisenzeiten verlässliche Quellen oder Desinfor-
mation enthalten.
Auf Grundlage einer Literaturrecherche wurde Desinformation als Berichterstat-
tung definiert, die entweder nachweislich falsch oder aus dem Zusammenhang
gerissen und dadurch irreführend ist. Desinformation wird außerdem intentional
verbreitet, was sie beispielsweise von journalistischen Fehlern unterscheidet13.
Als wichtigster Orientierungspunkt für die Feststellung von desinformativer Be-
richterstattung dienten die Recherchen professioneller Faktenprüfer. Hinweise
auf die Intentionalität der Falschinformationen lieferten die stilistischen und rhe-
torischen Eigenschaften der Videos, die in einer vertiefenden qualitativen Analy-
se ausgewertet wurden. Dabei wurde auch der Kanalkontext miteinbezogen.
Eine weitere zentrale Frage der Studie betraf die Vielfalt der empfohlenen Videos,
um die Eignung und Qualität von YouTube als Informationsquelle besser einzu-
schätzen. Publizistische Vielfalt wird in diesem Kontext als Angebotsvielfalt
betrachtet, aus dem eine Nutzungsvielfalt ausgehen könnte.14 Gemessen wird
Vielfalt anhand des Vorkommens verschiedener Anbietertypen, verschiedener
Themenaspekte innerhalb der Berichterstattung zu einem Thema und verschie-
dener geäußerten Meinungen innerhalb eines Videos. Dadurch werden sowohl
strukturelle als auch inhaltliche Vielfaltskriterien betrachtet.
Betrachtet man die Kanalanbieter auf YouTube, so stellt sich die Frage, welche
Angebote als journalistisch gelten sollen. Denn die Plattform YouTube hat neue
Formen des Journalismus hervorgebracht – sowohl von professionellen als auch
von Laienjournalisten15 Hier wird ein pragmatischer Ansatz verfolgt: Als journalis-
tisch wurden Anbieter klassifiziert, die sich also solche selbst nach Außen darstel-
len und regelmäßig berichterstatten.
13 Siehe z.B. Generaldirektion Kommunikationsnetze, Inhalte und Technologien, Europäische Kommission (2018): A multi-dimensional ap-proach to disinformation. Report of the independent High
level Group on fake news and online disinformation. https://op.europa.eu/de/publication-detail/-/publication/6ef4df8b-4cea-11e8-be1d-01aa75ed71a1
14 Lobigs, F., Neuberger, C. (2018): Meinungsmacht im Internet und die Digitalstrategien von Medienunternehmen. Neue Machtverhältnisse trotz expandierender Internet-Geschäfte der traditionellen
Massenmedien-Konzerne. Berlin https://www.kek-online.de/fileadmin/user_upload/KEK/Publikationen/Gutachten/Meinungsmacht_im_Internet_ALM51_web_2018.pdf
15 Frenzel, M. (2018): Perspektiven von Journalismus auf YouTube. In: Haarkötter H., Wergen J. (Hrsg.) Das YouTubiversum. Wiesbaden, S. 107-129.)
1
8
Als Untersuchungsfelder wurden neben der Corona-Krise als Vergleich der Klimawandel
und die sogenannte „Flüchtlingskrise“16 ausgewählt. Diese drei Themen werden seit un-
terschiedlich langer Zeit in der Öffentlichkeit und somit auch auf YouTube diskutiert.
Alle drei Themen dominierten den deutschen öffentlichen Diskurs für eine bestimmte
Zeit und wurden als politische Krisen gerahmt. Da sie sich außerdem drei sehr
unterschiedlichen Bereichen zuordnen lassen – Medizin, Naturwissenschaften, Gesell-
schaft –, treten unterschiedliche Akteure auf und es werden unterschiedliche Argumen-
tationsmuster benutzt. Schließlich unterscheiden sich die drei Themen darin, wie einig
sich Expertinnen und Experten in Bezug auf den gesicherten Wissensstand sind. Daher
ist es bei manchen Themen wie Migration schwieriger, eindeutig falsche Darstellungen
zu identifizieren. Aus dem Vergleich der erhobenen Empfehlungen zu den drei Kri-
senthemen können somit Schlüsse gezogen werden, wie effektiv YouTube es sowohl in
Bezug auf die Zeit, seit der die Themen auf der Plattform präsent sind, als auch in Bezug
auf die Eindeutigkeit des wissenschaftlichem Konsenses, schafft, die Sichtbarkeit von
Desinformation zu reduzieren.
Um die verschiedenen Forschungsfragen zu beantworten, wurde ein dreistufiger
Studienaufbau gewählt.17 In einem ersten Schritt wurde ein Webtool18 eingesetzt, das
speziell dafür programmiert wurde, automatisch auf YouTube die Empfehlungen
ausgehend von einem Startpunkt zu erfassen. Als Startpunkt wird ein Suchbegriff oder
ein Video bezeichnet, welche in dieser Studie dafür genutzt wurden, um im Nachgang
die algorithmisch erzeugten Empfehlungen aufzuzeichnen. Diese Startpunkte wurden
auf Grundlage eines Literaturreviews bewusst gewählt. Insgesamt wurden pro Thema
30 Startpunkte ausgewählt, von denen jeweils 15 als Suchbegriffe und 15 als Startvideos
definiert wurden. Außerdem bestand ein Drittel der Startpunkte aus Suchbegriffen oder
Videos, die als desinformativ eingeschätzt wurden, z.B. die in Verschwörungstheorien
häufig benutzten Begriffe Corona Fehlalarm, Umvolkung oder Klimaschwindel. Ausge-
hend von diesen Startpunkten wurden über drei Empfehlungsschleifen die ersten sieben
Videos aufgezeichnet, die als nächster Beitrag empfohlen wurden. Durch den Abruf von
90 Empfehlungsbäumen (ausgehend von jeweils einem Suchbegriff oder einem Startvi-
deo) wurden insgesamt Videos an 33.914 möglichen Positionen innerhalb der Empfeh-
lungsbäume aufgezeichnet. Zahlreiche Videos finden sich an mehreren Positionen von
unterschiedlichen Empfehlungsbäumen, werden also mehrfach in unterschiedlichen Kon-
texten vorgeschlagen. Insgesamt wurden 8.070 unterschiedliche Videos von 1.783 unter-
schiedlichen Kanälen erfasst. Die Auswertungen im Bericht fokussieren auf deutschspra-
chige Videos und auf Kanäle, von denen mindestens ein deutschsprachiges Video
veröffentlicht wurde. Die Aufzeichnung der Empfehlungen erfolgte in einer möglichst
nicht-personalisierten Form. Auch wenn eine Nutzung ohne jegliche Personalisierung in
der Realität kaum vorkommen sollte, hilft dieser Ansatz, die Logik hinter der algorithmi-
schen Verbreitung von Inhalten zu verstehen.
1
16 Der Begriff der „Flüchtlingskrise“ ist politisch umstritten, da rechtspopulistische Akteur den Begriff nutzen und prägen, um Migrationsbewegungen als „Krise“ darzustellen. Der Zweck bzw. das
Resultat hiervon ist, ein Gefühl von kulturellem Niedergang zu erzeugen und migrationsfeindliche Argumentationslinien zu verbreiten. Obwohl der Begriff in der Alltagssprache weit verbreitet ist,
wird er in diesem Bericht in Anführungszeichen gesetzt, um eine Distanz zu dieser Ver wendung zu illustrieren (s. auch Karakayali, S. (2018). The Flüchtlingskrise in Germany: Crisis of the Refugees,
by the Refugees, for the Refugees. Sociolog y, 52(3), 606–611.)
17 Eine ausführliche Darstellung der methodischen Vorgehensweise findet sich im Anhang.
18 Der eingesetzte Webcrawler basierte auf Vorarbeiten von Guillaume Chaslot, siehe AlgoTransparency: https://www.algotransparency.org/
9
In der zweiten Projektphase wurden pro Krise 70 Videos ausgewählt, die durch Projektmit-
arbeiterinnen und -mitarbeiter manuell vercodet wurden. Hierzu wurden alle Videos an-
hand eines vorher abgestimmten Codeplans als desinformativ oder nicht desinformativ
eingestuft.
Als Indikatoren für Desinformation wurden herangezogen: professionelle Faktenprüfun-
gen, die Position zum wissenschaftlichen Konsens sowie die Einhaltung journalistischer
Arbeitstechniken. Das Projekt schloss mit einer dritten Phase, in der eine Auswahl von 15
desinformativen Videos in einer qualitativen Inhaltsanalyse untersucht wurde. Anhand
von detaillierten Notizen von zwei Codierern, die alle Videos mehrfach sichteten, sowie
weiteren Hintergrundrecherchen wurde Desinformation im Hinblick auf verschiedene
Dimensionen analysiert.
Der Bericht ist in vier Kapitel gegliedert und schließt mit einer Schlussbetrachtung. Die
nachfolgenden Kapitel zeigen, dass YouTubes Empfehlungen zu komplexen Themen
recht wenig themenrelevante Ergebnisse sichtbar machen. Möchte man sich zu einem
bestimmten Thema informieren, so führen die Algorithmen häufig weg vom
Ursprungsthema und schlagen Videos vor, die ohne Bezug zum vorherigen Video sind.
Desinformative Inhalte werden dabei nicht besonders stark verbreitet. Vielmehr zeigte
sich, dass die Empfehlungsalgorithmen in den letzten Jahren daraufhin optimiert worden
sind, desinformative Videos weniger oft zu berücksichtigen. Die wenigen empfohlenen
desinformativen Videos führen jedoch in eine äußerst vielfältige eigene Welt, wo mit
unterschiedlichsten Formaten und Argumentationsweisen – immer mittels Rückgriff auf
dieselben Feindbilder – irreführende und falsche Behauptungen aufgestellt werden.
1
10
Die Untersuchung von potenziell desinformativen Inhalten auf YouTube erfolgt – wie
bereits beschrieben – in drei Schritten: mittels einer automatisierten Erfassung von
Empfehlungen ausgehend von vordefinierten Startvideos und Suchbegriffen zu der Co-
vid-19-Pandemie, dem Klimawandel und der sogenannten „Flüchtlingskrise“, mittels ei-
ner vertiefenden quantitativen Inhaltsanalyse ausgewählter Videos und schließlich mit-
tels einer qualitativen Memoing-Analyse einer kleinen Stichprobe von desinformativen
Videos zu den drei Themen. Im Folgenden sollen die Auswertungsbasen der einzelnen
Datensätze vorgestellt und ein erster Blick insbesondere auf die Struktur der automa-
tisch erfassten Daten geworfen werden.
Da sich die Studie mit der Verfügbarkeit von Informationsangeboten auf YouTube ausei-
nandersetzt, beschränkt sich die Analyse der automatisch erfassten Empfehlungen auf
die deutschsprachigen Inhalte und auf die Kanäle, die diese veröffentlicht haben. Diese
umfassen insgesamt 8.070 Videos, die zusammen von 1.783 Kanälen hochgeladen und
33.914 Mal empfohlen wurden (vgl. Abb. 1).
Der Service von YouTube basiert auf verschiedenen selbstlernenden Algorithmen, die
das Video-Angebot steuern und bewerben. Zwei für die alltägliche Nutzung der Platt-
form besonders wichtige Algorithmen sind der Such- und der Empfehlungsalgorithmus.
Algorithmische Sichtbarkeit:
Struktur der erfassten
Empfehlungen
2
Anzahl der relevanten Empfehlungen
Deutschsprachige Videos
Deutschsprachige Kanäle
Quantitative Inhaltsanalyse
Qualitative Memoing-Analyse
33.914
8.070
1.783
210
15
davon klassifiziert
davon klassifiziert
jeweils 70 Videos pro Thema
jeweils 5 Videos pro Thema
Videos zu Covid-19-Pandemie
Videos zu Klimawandel
Videos zu „Flüchtlingskrise“
6.822
741
403
372
295
Abb. 1: Übersicht zu den Datenbasen der Auswertungen
11
Ersterer bestimmt, welche Suchergebnisse Nutzenden angezeigt werden, wenn sie ei-
nen Suchbegriff in die Suchleiste auf YouTube eingeben. Der Empfehlungsalgorithmus
wiederum steuert, welche Videos automatisch abgespielt werden, wenn ein geschautes
Video zu Ende ist bzw. welche Videos auf der Empfehlungsleiste rechts neben den Vi-
deos angezeigt werden. Für die Auffindbarkeit von Inhalten sind Empfehlungen vermut-
lich relevanter als Suchergebnisse: Zumindest gibt YouTube selbst an, dass die meiste
Nutzung auf YouTube durch Empfehlungen generiert ist20.
Um die Empfehlungen auf YouTube zu erfassen, startete das eigens dafür programmierte
Erfassungstool mit bewusst gewählten Suchbegriffen und Startvideos. Dadurch sollten
zwei unterschiedliche Typen der Nutzung in die Analyse einbezogen werden: eine gezielte,
bewusste Nutzung von Informationsangeboten und eine passive Nebenbei-Nutzung aus-
gehend von einzelnen Videos. Das Erhebungsdesign führte dazu, dass das Tool sowohl Su-
chergebnisse als auch Empfehlungen aufzeichnete. Im Anschluss an Start-Suchbegriffe
wurden zuerst 258 deutschsprachige Videos vom Suchalgorithmus vorgeschlagen. In der
Folge sowie im Anschluss an Startvideos wurden darüber hinaus insgesamt 7.816 Videos
erhoben, die die Funktionsweise des Empfehlungsalgorithmus spiegeln.
Der Vergleich dieser zwei – zugegebenermaßen ungleichen – Datenmengen lässt eine
typische Eigenschaft des Empfehlungsalgorithmus zum Vorschein kommen, und zwar
die geringe Treffgenauigkeit der Empfehlungen (vgl. Abb. 2). Bei den Suchergebnissen
ließ sich die überwältigende Mehrheit der Videos (89%) einem der drei untersuchten
Themen zuordnen. Bei den Empfehlungen war dies nur für elf Prozent der erfassten Vi-
deos der Fall. Während bei der Suche also eine hohe Treffgenauigkeit der Ergebnisse an-
gestrebt wird, haben Empfehlungen die Funktion Inhalte vorzuschlagen, die möglichst ge-
nau die Interessen der Nutzenden abbilden – auch jenseits eines konkreten Themas.
Auch bezüglich der Video-Parameter unterschieden sich die von den zwei Algorithmen
empfohlenen Videos deutlich. Die Videos in den Empfehlungen haben eine deutlich grö-
ßere Reichweite (1,1 Mio. Aufrufe in Durchschnitt gegenüber 160.000 Aufrufe) und grö-
ßeres Engagement (16.000 Likes & Dislikes im Durchschnitt gegenüber 3.900) als die
Suchergebnisse.
2
Abb. 2: Themen der Suchergebnisse und Empfehlungen im Vergleich
20 Solsman, J. E. (2018) YouTube‘s AI is the puppet master over most of what you watch. https://www.cnet.com/news/youtube-ces-2018-neal-mohan/
Suchergebnisse
Empfehlungen
Covid-19-Pandemie Klimawandel Flüchtlinge andere Themen
Videos: Suchergebnisse n=258, Empfehlungen n=7.813
4%
34%
4% 3% 89%
11%27%28%
12
21 YouTubes Blog-Beitrag: „Building a better news experience on YouTube, together” vom 09.07.2018 https://blog.youtube/news-and-events/building-better-news-experience-on
2Für die weitere Analyse der Daten wurden alle Kanäle, die mehr als fünf Mal empfohlen
wurden, manuell unter Berücksichtigung des Kanalimpressums, der hochgeladenen Ka-
nalvideos sowie zusätzlicher Quellen wie z.B. Recherchen von professionellen Fakten-
prüfern klassifiziert. Insgesamt konnten so 42 Prozent aller Kanäle und 85 Prozent aller
Videos klassifiziert werden (vgl. Abb. 1). Beide Teilmengen – sowohl die Suchergebnisse
als auch die Empfehlungen – enthalten viele Videos von traditionellen Medienakteuren,
öffentlich-rechtlich wie privat, gemäß YouTubes Richtlinie zur Bevorzugung
„autoritativer Quellen“21 (vgl. Abb. 3). Der Empfehlungsalgorithmus bewirbt etwas mehr
Videos von Privatpersonen, was auf eine größere Vielfalt der angezeigten Anbieter im
Vergleich zu Suchergebnissen hindeuten kann.
Blickt man auf die Quellen der wenigen Videos mit Bezug zu den drei untersuchten The-
men, fällt auf, dass der Anteil an klassischen Medienanbietern bei den Videos mit Bezug
zur Covid-19-Pandemie und zur sogenannten „Flüchtlingskrise“ recht hoch ist ( jeweils
54 und 60 %, vgl. Abb. 4). Die Hervorhebung seriöser Quellen ist Teil der offiziellen Stra-
tegie von YouTube, so dass dieses Ergebnis wenig überrascht. Der geringere Anteil an
Medienangeboten beim Thema Klimawandel hängt wahrscheinlich mit der generellen
Verfügbarkeit solcher Inhalte zusammen, die eventuell in größeren Mengen von Kanä-
len von Privatpersonen veröffentlicht werden. Der höhere Anteil an Videos von öffentli-
chen Institutionen zu den zwei naturwissenschaftlich geprägten Themen Covid-19-Pan-
demie und Klimawandel im Vergleich zum Thema Migration ist schließlich durch deren
aktive Kommunikation in der Krise bedingt.
Abb. 3: Kanaltypen der Suchergebnisse und Empfehlungen im Vergleich
Suchergebnisse
Empfehlungen
Öffentlich-rechtliche Anbieter Private Medien Institutionen und Unternehmen Privatpersonen
Klassifizierte Videos: Suchergebnisse n=251, Empfehlungen n=6.571
41% 24%
39%
7%
9%
28%
19%33%
13
Abb 4: Kanaltypen der themenbezogenen Videos
Die erfassten Daten zeigen also bereits auf den ersten Blick, dass der Empfehlungsalgo-
rithmus insgesamt und insbesondere bei Krisenthemen seriöse Quellen hervorhebt. Da-
bei werden jedoch nur sehr wenige Thementreffer angezeigt. In den nächsten Kapiteln
erfolgt eine differenzierte Analyse der empfohlenen Videos und Kanäle mit Blick auf
Desinformation und Informationsvielfalt. Dabei werden auch die Ergebnisse der vertie-
fenden quantitativen und qualitativen Inhaltsanalysen vorgestellt.
2
Covid-19-Pandemie
Klimawandel
Flüchtlinge
Öffentlich-rechtliche Anbieter Private Medien Institutionen und Unternehmen Privatpersonen
36%
23%
27%
18%
6%
33%
12%
14%
9%
34%
57%
31%
Themenbezogene Videos: Covid-19-Pandemie n=403, Klimawandel n=372, Flüchtlinge n=295
14
Meinungs- und Medienvielfalt sind Grundsteine für den demokratischen Diskurs und die
freie Meinungsbildung. Auch in den sozialen Medien sind vielfältige Angebote wichtig,
insbesondere da diese für junge Zielgruppen in immer stärkerem Maße als Informations-
quelle für das politische und gesellschaftliche Zeitgeschehen fungieren. Soziale Netzwer-
ke schreiben sich die Offenheit für eine möglichst hohe Zahl an Perspektiven und Einstel-
lungen ganz besonders auf die Fahnen und beziehen aus dieser Vielfalt gleichsam ihre
Legitimation. So schreibt YouTube prominent an erster Stelle in der Unternehmensbe-
schreibung auf ihrer Website: „Unsere Mission ist es, allen eine Stimme zu geben und ih-
nen die Welt zu zeigen. Wir sind der Meinung, dass jeder die Chance haben sollte, seiner
Stimme Ausdruck zu verleihen.“22 Plattformen wie YouTube sind prinzipiell offen für jeden,
egal ob es sich um einen multinationalen Konzern oder Privatpersonen mit außerge-
wöhnlichen Hobbies handelt. Doch wird diese Vielfalt auch von den Empfehlungsalgorith-
men auf YouTube abgebildet?
Um diese Frage zu beantworten, wurden die Videobeiträge, die auf YouTube empfohlen
werden, im Hinblick auf Vielfalt von Anbietern und Meinungen analysiert. Dazu wurden
zum einen die automatisch erfassten Videos und Kanäle ausgewertet und zum anderen
die manuell vercodeten Videos betrachtet.
3.1 Im Gravitationsfeld der starken Kanäle
Werden die erfassten Video-Kanäle auf YouTube betrachtet, so fällt auf, dass die Empfeh-
lungsalgorithmen vor allem Videos desselben Kanals empfehlen, ohne Rücksicht auf das
Thema der Videos. Welche Videos innerhalb desselben Kanals von den Algorithmen ausge-
wählt werden, variiert. Es können thematisch ganz anders gelagerte Beiträge als nächstes
Video empfohlen werden, die jedoch vom selben Anbieter veröffentlicht wurden. Dies
führt zu dem Ergebnis, dass zwar 83 Prozent der Kanäle nur maximal zehn Mal empfohlen
wurden, jedoch einige wenige Kanäle außerordentlich häufig in den Empfehlungen auf-
tauchten. Auf nur 61 Kanäle entfallen so 69 Prozent aller Empfehlungen.
Algorithmische Vielfalt:
Welche Angebote und
Anbieter machen
Empfehlungen sichtbar?
3
22 https://www.youtube.com/about/
15
In einigen Fällen waren sogar alle sieben untersuchten Empfehlungen, ausgehend von
einem bestimmten Video, weitere Veröffentlichungen desselben Kanals. Insgesamt hatten
zehn Kanäle, z.B. SWR Landesschau Baden-Württemberg, Verstehen Sie Spaß? oder Alexander
Lehmann, eine Selbstempfehlungsrate von 100 Prozent. Das heißt, dass alle Empfehlun-
gen, die auf ein Video dieses Kanals folgten, wieder Videos desselben Kanals waren.
Weitere oft empfohlene Kanäle hatten geringere Selbstempfehlungsraten, sodass neben
dem eigenen Kanal auch andere Kanäle empfohlen wurden. Insgesamt hatten jedoch
88 Kanäle eine Selbstempfehlungsrate von über 50 Prozent.
3
Abb. 5: Anzahl der Empfehlungen pro Kanal
Welche Faktoren die Wahrscheinlichkeit beeinflussen, dass ein Kanal sich selbst empfiehlt,
lässt sich schwer ermitteln. Im Allgemeinen empfehlen die Algorithmen fast ausschließ-
lich Kanäle mit mehreren tausend Abonnenten. Unter den zehn Kanälen mit den meisten
Empfehlungen finden sich mit zwei Ausnahmen Kanäle, die von klassischen Medienanbie-
tern produziert werden. Sie alle haben mehrere hunderttausend Abonnenten – mit Aus-
nahme des Ausreißers Universität Konstanz.
1.041
Anzahl untersuchter Kanäle
232
436
6277 1369
245 55 6
Durchschnittliche Empfehlungen pro Kanal
Kanäle n=1.783, Empfehlungen n=33.914
16
Die Anzahl der Abonnenten oder der hochgeladenen Videos scheint jedoch nur begrenzt
Einfluss auf die Selbstempfehlungsrate zu haben, oder auf die Wahrscheinlichkeit, emp-
fohlen zu werden. Unter den Kanälen, die in 75 Prozent der Fälle oder mehr sich selbst wei-
terempfohlen haben, finden sich sowohl Kanäle mit 2.000 Abonnenten als auch solche
mit einer Abonnentenzahl von über 10 Millionen. Auf Basis der Anzahl der Empfehlungen
eines Kanals, die über alle Empfehlungsbäume hinweg aufgezeichnet wurden, sowie Ka-
naleigenschaften wie Aktivität oder Popularität wurde eine Korrelationsanalyse durchge-
führt. Diese zeigte, dass weder die Anzahl der Abonnenten, noch die Anzahl hochgelade-
ner Videos, Aufrufe, Beitrittsjahr oder die durchschnittliche Anzahl der Aufrufe pro Video
darüber bestimmen, ob ein Kanal oft empfohlen wird. Einzig die Aufrufe aller empfohle-
nen Videos pro Kanal korrelierten schwach (aber signifikant) mit der Anzahl der Empfeh-
lungen. Die Entscheidung, ob ein Kanal empfohlen wird, hängt also kaum von den hier
betrachteten Kanaleigenschaften ab.
3.2 Öffentlich-rechtliche und klassische Medien werden priorisiert
Betrachtet man die Kanäle nach Typ, so fällt auf, dass vor allem Kanäle etablierter Medi-
en – sowohl öffentlich-rechtliche als auch private – sich selbst oft weiterempfehlen. Im
Schnitt besteht ca. ein Viertel der erfassten Empfehlungen eines etablierten öffentlich-
rechtlichen oder privaten Medien-Kanals wieder aus Videos desselben Kanals (öffent-
lich-rechtlich: 27%; privat: 25%). Bei Kanälen von Privatpersonen werden im Durchschnitt
nur in 12 Prozent der Fälle Videos desselben Kanals angezeigt, mit einigen Ausnahmen
wie z.B. dem YouTuber Luca mit einer Selbstempfehlungsrate von 88 Prozent.
3
Kanal Empfehlungen Videos Abonnenten Selbstempfeh-
lungsrate
auto motor und sport 1666 620 307.000 77%
Galileo 1612 1043 3.000.000 71%
NDR Doku 1385 799 608.000 54%
ARTEde 1258 712 800.000 33%
Bares für Rares 1253 366 447.000 48%
Universität Konstanz 1038 157 23.500 9%
WDR Doku 955 531 472.000 44%
WELT Nachrichtensender 807 538 631.000 29%
maiLab 728 210 1.100.000 75%
DER SPIEGEL 678 463 857.000 43%
Tab. 1: Übersicht der zehn am häufigsten empfohlenen Kanäle
17
Bei öffentlichen Institutionen wie Ministerien oder Universitäten verweisen sogar nur
acht Prozent der Fälle auf denselben Kanal. Die große Ausnahme ist hier der Kanal der
Bundesregierung. Ausgehend vom Video der Fernsehansprache der Bundeskanzlerin zur
Covid-19-Pandemie23 wurden in den folgenden Empfehlungsschleifen ausschließlich
andere Videos des YouTube-Kanals der Bundesregierung empfohlen.
Auch in anderen Ländern25 wurde festgestellt, dass beispielsweise während der Corona-
Krise vor allem professionelle Nachrichtenkanäle empfohlen wurden. Dies passt zu der
offiziellen Strategie von YouTube, „vertrauenswürdige“ Quellen stärker zu priorisieren26.
Seit 2018 verfolgt das Unternehmen die explizite Strategie, besonders in Krisensituatio-
nen „zuverlässige“ Quellen und journalistische Institutionen prominenter anzuzeigen.
Abgesehen von der Selbstempfehlungsrate fällt auf, dass öffentlich-rechtliche Kanäle
häufig gegenseitig aufeinander verweisen. Hierzu passt, dass öffentlich-rechtliche Ka-
näle bei den Selbstempfehlungen in der Gesamtschau auf allen Ebenen der Baumstruk-
tur, also in der ersten, zweiten und dritten Empfehlung nach dem Ursprungsvideo, ähn-
lich häufig empfohlen werden – und zwar in ca. 40 Prozent der Fälle. Die Algorithmen
scheinen also öffentlich-rechtliche Kanäle stets ausreichend zu berücksichtigen, egal
von welchem Video die Empfehlung ausgeht.
23 Bundesregierung: Kanzlerin hält TV-Ansprache zur Coronapandemie: https://www.youtube.com/watch?v=caUFMAipVYI
24 Weiterempfehlungen von Videos desselben Kanals
25 z.B. Marchal, N (2020): “People who seek junk content, because they find it entertaining or are simply curious, will always find it” [Interview].
https://sciencemediahub.eu/2020/07/16/nahema-marchal-people-who-seek-junk-content-because-they-find-it-entertaining-or-are-simply-curious-will-always-find-it/.
26 YouTube Blog-Beitrag: „Building a better news experience on YouTube, together” vom 09.07.2018 https://blog .youtube/news-and-events/building-better-news-experience-on
3
Durchschnittlicher Prozentsatz der Anzahl der Weiterempfehlungen von
Videos desselben Kanals
27% 25% 12% 8%
Basis: Kanäle, die mindestens ein Video auf
deutsch veröffentlicht haben (n=1.783)
27
Abb. 6: Durchschnittliche Selbstempfehlungsrate pro Kanaltyp24
Öffentlich-
rechtliche Anbieter Private
Medien Privat-
personen Institutionen
und Unternehmen
Kanäle n=1.783
18
Neben YouTubes expliziter Priorisierung von etablierten Nachrichtenmedien spielt
wahrscheinlich ebenso eine Rolle, dass vor allem öffentlich-rechtliche Sender in den
letzten zwei Jahren intensiv in ihre Social Media-Angebote investiert haben. Seit den
Änderungen des Rundfunkstaatsvertrags 2019, die diesen Sendern erlauben, soziale
Medien auch mit eigens dafür entwickelten Formaten zu bespielen, bauten viele Sender
ihre digitalen Angebote aus27. Ein Leuchtturmbeispiel, dessen Formate auch in den hier
erfassten Empfehlungen häufig auftauchten, ist das Online-Medienangebot Funk von
ARD und ZDF, das seit 2016 mit unterschiedlichsten Formaten wie maiLab, Y-Kollektiv
oder MrWissen2go auf YouTube präsent ist. Einige dieser Funk-Kanäle haben eine
Selbstempfehlungsrate von über 50 Prozent.
In der Gesamtschau ist die Kanalvielfalt in den untersuchten Empfehlungen als
eingeschränkt zu bewerten. Die starke Präsenz öffentlich-rechtlicher Anbieter deutet
darauf hin, dass zumindest traditionell qualitative Angebote leicht auffindbar bleiben.
Im Folgenden soll die Vielfaltsfrage auch in Bezug auf Themen und Meinungen geprüft
werden.
27 Laufer, D (2019): Neue Spielregeln für Streamer, Google und Falschmeldungen. https://netzpolitik.org/2019/neue-spielregeln-fuer-streamer-google-und-falschmeldungen/
3
Abb. 7: Selbstempfehlung von öffentlich-rechtlichen Kanälen
über die verschiedenen Empfehlungsebenen
Weiterempfehlung von öffentlich-rechtlichen Kanälen
Ebene 1
Ebene 3
Ebene 2
26
Ebene 1
Ebene 2
Ebene 3
19
3.3 Schnelle Wechsel, wenig Beständigkeit: Themen in Empfehlungen
Jeder Nutzende von YouTube kennt sie vermutlich – die scheinbaren Dauerbrenner-
Videos, die unabhängig vom eigenen Informationsbedürfnis oder Themeninteresse im-
mer wieder empfohlen werden. Anstatt eine Vielfalt an Videobeiträgen, passend zum
jeweiligen Suchinteresse oder ursprünglichem Video, zu präsentieren, scheinen YouTu-
bes Algorithmen häufig auf wenige ausgewählte Videos zu setzen, die Nutzerinnen
und Nutzer auf der Plattform halten sollen28. So wurde beispielsweise das Video „Relati-
vitätstheorie für Laien“ der Universität Konstanz gleich 857 Mal und das Video der Un-
terhaltungsshow auto motor und sport „E10? V-Power? Benzinpreis? Die 8 größten
Sprit- Irrtümer – Bloch erklärt #80 | auto motor und sport“ 537 Mal über die gesamte
Untersuchung hinweg empfohlen, ausgehend von unterschiedlichen Startvideos oder
Suchbegriffen. Dies war allerdings nur für sehr wenige Videos der Fall – nur ein Prozent
aller aufgezeichneten Beiträge wurde 20 Mal oder mehr empfohlen. Der allergrößte Teil
von fast drei Viertel der erfassten Videos (72%) wurde nur ein bis zwei Mal über alle
Empfehlungsbäume hinweg empfohlen.
Nach welchen Kriterien diese Top-Videos ausgewählt werden, bleibt in unserer Untersu-
chung jedoch offen. Auch andere Studien29 konnten keine spezifischen Faktoren identifi-
zieren, die YouTubes Algorithmen signifikant beeinflussen. So finden sich unter den
zehn am häufigsten empfohlenen Videos die unterschiedlichsten Kanaltypen – von der
Universität Konstanz über den NDR Doku-Kanal oder der populären Unterhaltungssen-
dung Bares für Rares bis hin zu einem Unternehmen, der GLS Bank. Auch thematisch
reicht das Spektrum von Physik über Vergleiche von Automobilkraftstoffen bis hin zu
Fehlern bei Scankopierern. Unter den 50 meistempfohlenen Videos taucht darüber hin-
aus nur ein Video auf, das einen thematischen Bezug zu einem der drei untersuchten
Themen hat.
Naheliegend wäre darüber hinaus, dass vor allem besonders häufig gesehene Videos
empfohlen werden. Doch auch dies scheint nur eingeschränkt der Fall zu sein. Beispiels-
weise gibt es unter den zehn Videos, die am häufigsten empfohlen wurden, zwei Videos
mit unter einer Million Aufrufen, was im Vergleich eher wenig erscheint. Eine Korrelati-
onsanalyse, die untersuchte, ob die Anzahl der Empfehlungen mit weiteren Parametern
zusammenhängt, bestätigte dies. Weder die Anzahl der Aufrufe noch die Anzahl der
Likes oder Dislikes hatte einen statistisch signifikanten Einfluss darauf, ob ein Video
empfohlen wurde. Dasselbe gilt für das Veröffentlichungsdatum. So gibt es unter den
zehn am häufigsten empfohlenen Videos aktuelle Beiträge aus dem Jahr 2020, aber
auch zwei Beiträge, die schon 2014 auf der Plattform hochgeladen wurden.
28 Roth C; Mazières, A.; Menezes, T. (2020): Tubes and bubbles topological confinement of YouTube recommendations. In: PLoS ONE 4 (15).
29 Rieder et al. (2018)
3
20
Die Hervorhebung einiger weniger Videos in den Empfehlungen korrespondiert mit
den starken Unterschieden zwischen den wenigen oft empfohlenen Kanälen und den
vielen wenig sichtbaren Kanälen. Hier wird die Vielfalt der YouTube-Angebote durch
die Empfehlungsalgorithmen eher eingeschränkt. Bei der Themenverteilung in den
vorgeschlagenen Videos kommt aber auch eine Themenvielfalt zustande, die über die
ursprünglichen Themen der Startpunkte hinausgeht. Alle Startpunkte in der Erfassung
der Empfehlungsbäume waren zu gleichen Teilen einem der drei Themen, also Flüchtlin-
ge, Covid-19-Pandemie oder Klimawandel, zugeordnet. Je weiter man sich jedoch von
diesen Startpunkten entfernt, also je weiter man den von ihnen ausgehenden Empfeh-
lungen folgt, desto seltener wird ein Video im jeweiligen Themenfeld vorgeschlagen.
Bereits in der zweiten Ebene, also ein Klick nach dem jeweiligen Startvideo, behandeln
nur noch sieben bis elf Prozent der empfohlenen Videos das ursprüngliche Thema.
Themen „verdünnen“ sich somit überaus schnell, eine bestimmte „Themenblase“
bildet sich so gut wie nicht. Startet man in einem bestimmten Themenkosmos, ist
die Chance recht hoch, dass man diesen, wenn man den Empfehlungen YouTubes folgt,
recht schnell wieder verlässt.
Exemplarisch zeigt die untenstehende Abbildung für den Empfehlungsbaum ausge-
hend vom Suchbegriff „Corona Entstehung“, inwieweit auch in den darauffolgenden
Empfehlungen noch Videos mit Themenbezug vorzufinden sind. Es zeigt sich, dass
diese nur in einzelnen Ästen weiterverfolgt werden.
1.
Empfehlungsebene
2.
Empfehlungsebene
3.
Empfehlungsebene
Corona-Krise Klima-Krise Flüchtlings-Krise
28%
11%
8%
0
24%
11%
5%
0
21%
n=740
n=5.119
n=4.612*
n=830
n=5.731
n=5.047*
n=827
n=5.695
n=4.910*
1
Abb. 7 Anteil der themenbezogenen Empfehlungen pro Themenfeld und Ebene
Empfehlungsbaum/Netzwerk ausgehend von desinformativem Startpunkt
(Corona Schiffmann)
54
3
Abb. 8: Anteil der themenbezogenen Empfehlungen pro Themenfeld und Empfehlungsebene
Abb. 9: Empfehlungsbaum ausgehend vom Suchbegriff „Corona Entstehung“
1. Empfehlungsebene
2. Empfehlungsebene
3. Empfehlungsebene
n=740
n=5.119
n=4.612*
n=830
n=5.731
n=5.047*
n=827
n=5.695
n=4.910*
Covid-19-Pandemie Klimawandel Flüchtlinge
Empfehlungen: n=33.511
* auf der 3. Ebene nur Empfehlungen ausgehend von Startvideos berücksichtigt
1.
Empfehlungsebene
2.
Empfehlungsebene
3.
Empfehlungsebene
Corona-Krise Klima-Krise Flüchtlings-Krise
28%
11%
8%
0
24%
11%
5%
0
21%
7%
3%
0
n=740
n=5.119
n=4.612*
n=830
n=5.731
n=5.047*
n=827
n=5.695
n=4.910*
1
Abb. 7 Anteil der themenbezogenen Empfehlungen pro Themenfeld und Ebene
1.
Empfehlungsebene
2.
Empfehlungsebene
3.
Empfehlungsebene
Corona-Krise Klima-Krise Flüchtlings-Krise
28%
11%
8%
0
24%
11%
5%
0
21%
7%
3%
0
n=740
n=5.119
n=4.612*
n=830
n=5.731
n=5.047*
n=827
n=5.695
n=4.910*
1
Abb. 7 Anteil der themenbezogenen Empfehlungen pro Themenfeld und Ebene
21
Einerseits werden unabhängig vom ursprünglichen Rezipienteninteresse stets diesel-
ben Videos empfohlen, die die Algorithmen durchgehend bevorzugen. Andererseits
scheinen die Algorithmen häufig den Kanal über das Thema zu priorisieren. Empfehlun-
gen präsentieren daher eher ein anderes Video desselben Kanals anstatt ein Video im
selben Themenfeld. Veröffentlicht ein Kanal also nicht monothematisch, so ist die Wahr-
scheinlichkeit relativ hoch, dass ein Video mit anderem Themenschwerpunkt als
Vorschlag angezeigt wird.
Der Blick auf das Veröffentlichungsdatum der empfohlenen Videos zeigt, dass nicht –
wie zu erwarten gewesen wäre – vor allem aktuelle und frisch veröffentlichte Videos
empfohlen werden. Auch ältere Beiträge, die teilweise über fünf Jahre alt sind, werden
durchaus noch angezeigt. Wie oben festgestellt, beeinflusst auch das auf der Plattform
vorhandene Angebot die Auswahl der Empfehlungen. So wurden auf dem Höhepunkt
der internationalen Fluchtbewegungen und der gesellschaftlichen Debatte darüber in
den Jahren 2015 und 2016 viele Videos zu dieser Thematik veröffentlicht. Entsprechend
häufig treten Empfehlungen aus diesen Jahren im Themenbereich Flüchtlinge/Migrati-
on in Erscheinung. Im Gegenteil dazu entwickelte sich die Corona-Krise erst im Laufe
des Jahrs 2020 zu einem global bestimmenden Thema. Dementsprechend wurden alle
Videos zu diesem Themenkomplex im Jahr 2020 veröffentlicht. Viele der empfohlenen
Videos zum Klimawandel wiederum zeugen von der Relevanz dieses Themas im Herbst
2019. Somit findet sich in den empfohlenen Videos eine Vielfalt an älteren und neueren
Beiträgen, welche die jeweilige zeitliche Entwicklung verschiedener gesellschaftlicher
Debatten widerspiegeln.
Die Auswertung der 210 manuell vercodeten Videos zeigt, dass die wenigen themenbe-
zogenen Videos in den untersuchten Empfehlungen nicht sehr vielfältig sind. Hier konn-
ten pro Krise jeweils 10 bis 14 Subthemen identifiziert werden, die die Videos themati-
sieren. Über alle Subthemen hinweg machen bei Corona- und Klima-Videos die drei
häufigsten Themen über 50 Prozent der analysierten Videos aus, was auf eine starke
thematische Fokussierung des Angebots hinweist. Bei der „Flüchtlingskrise“ sind es
44 Prozent. Dies deutet auf eine breitere thematische Streuung hin.
3
Abb. 10: Veröffentlichungsdatum der erfassten Videos nach Thema
2014-01
2014-03
2014-05
2014-07
2014-09
2014-11
2015-01
2015-03
2015-05
2015-07
2015-09
2015-11
2016-01
2016-03
2016-05
2016-07
2016-09
2016-11
2017-01
2017-03
2017-05
2017-07
2017-09
2017-11
2018-01
2018-03
2018-05
2018-07
2018-09
2018-11
2019-01
2019-03
2019-05
2019-07
2019-09
2019-11
2020-01
2020-03
2020-05
2020-07
"Flüchtlingskrise" Co rona-Krise Klimakr ise
Covid-19-Pandemie Klimawandel Flüchtlinge
Themenbezogene Videos: seit 2014 n=1.049
22
Die identifizierten Subthemen können weiterhin in Ursachen, Folgen und Maßnahmen
der Krisen unterteilt werden. Der Blick auf die Verteilung innerhalb dieser drei Kategori-
en zeigt, dass sich die drei Themen in ihren Schwerpunkten sehr unterscheiden. Wäh-
rend die Videos über die Covid-19-Pandemie und über Fluchtbewegungen zur Hälfte
inhaltlich die jeweiligen Maßnahmen behandeln, stehen beim Klimawandel die
Ursachen der Krise im Fokus.
Abschließend lässt sich festhalten, dass YouTube zwar viele unterschiedliche Themen
vorschlägt, die aber oft nichts mit dem ursprünglichen Informationsinteresse zu tun
haben. Diese scheinbare Themenvielfalt wird von der Beobachtung gebrochen, dass in
den Empfehlungen immer wieder dieselben Anbieter, Videos und Meinungen dominie-
ren. Dies wirft die Frage auf, wie wertvoll Themenvielfalt in den empfohlenen Videos ist,
wenn diese Themen trotzdem stets aus demselben Blickwinkel betrachtet werden.
Insbesondere bei den Thema Klimawandel und Covid-19-Pandemie zeigt sich zudem
eine Fokussierung auf einige wenigen Subthemen.
3.4 Meinungsstark unterwegs: Meinungsvielfalt im Fokus
Werden nur wenige themenrelevante Videos in Empfehlungen angezeigt, stellt sich die
Frage, inwieweit diese das ganze Spektrum an Meinungen, das zu einem Sachverhalt
existiert, wiedergeben können. Meinungsvielfalt ist ein hohes Gut in der journalisti-
schen Praxis30. Dementsprechend wurde bei der quantitativen Vercodung ausgewählter
YouTube-Videos zu den drei Themenkomplexen Covid-19-Pandemie, Klimawandel und
Fluchtbewegungen dokumentiert, ob im Video eine Meinung, mehrere Meinungen oder
keine Meinung präsentiert wurde. Zu zwei der Themen, Corona-Krise und Klimawandel,
wurde in der überwältigenden Mehrheit der Videobeiträge jeweils nur eine Sichtweise
abgebildet. Das ist bei diesen zwei stark polarisierten Themen mit eindeutigem wissen-
schaftlichem Konsens an sich nicht überraschend. Denn eine klare Positionierung ge-
3
Abb. 11: Subthemen der Videos im Vergleich zwischen den Krisen
30 Zerback, T. (2013). Publizistische Vielfalt. Demokratischer Nutzen und Einflussfaktoren. Konstanz: UVK Verlagsgesellschaft
Ursachen
Folgen
Maßnahmen
Sonstiges
Quantitativ vercodete Videos: n=210, pro Thema n=70Covid-19-Pandemie Klimawandel Flüchtlinge
24%
48%
21%
6%
42%
37%
10%
9%
27%
51%
16%
6%
23
mäß der Empfehlungen von RKI und WHO wäre nicht sehr vielfältig und trotzdem in-
mitten der Pandemie durchaus erwünscht. Die starke Positionierung der Videos
überrascht bei YouTube nicht, da es sich selbst als Plattform und nicht als Publikations-
medium definiert. YouTube sieht seine Mission ausdrücklich darin, jedem die Chance zu
geben, „seiner Stimme Ausdruck zu verleihen“31 und so in Videos seine persönliche Mei-
nung kund zu tun.
Der Anteil an Videos mit nur einer Meinung bei der sogenannten „Flüchtlingskrise“ ist
jedoch deutlich geringer als bei den anderen zwei Themen. Knapp die Hälfte der Videos
in diesem Themenbereich beinhaltet zwei oder mehr Perspektiven. Dies ist vermutlich
darauf zurückzuführen, dass Migration unter den drei Themenbereichen derjenige ist,
der in Politik, Gesellschaft und Wissenschaft am umstrittensten ist. Als soziales und ge-
sellschaftliches Thema gibt es hierzu weniger häufig harte Zahlen und eine eindeutige
wissenschaftliche Meinung – anders bei einem medizinischen Thema wie die Corona-
Krise oder einem häufig naturwissenschaftlich diskutierten Thema wie dem Klimawan-
del. So zeigt beispielsweise der ARD-DeutschlandTREND für das Morgenmagazin vom
Januar 202032, dass die deutsche Bevölkerung bezüglich der Frage gespalten ist, ob
Deutschland weniger Flüchtlinge aufnehmen solle (40%) oder nicht (53%). Diesem
gespaltenen Diskurs scheinen viele Videos Rechnung zu tragen.
Vor allem etablierte Medien, private Sender sogar tendenziell noch etwas häufiger als
öffentlich-rechtliche Anbieter, scheinen in besonderem Maße das Ziel der Abbildung eines
diversen Diskurses zu verfolgen. Dies könnte daran liegen, dass private Medien beispiels-
weise bei kontroversen Themen wie dem Umgang mit Geflüchteten weniger davor
zurückschrecken, auch provokanten Meinungen Raum zu geben. Wie zu erwarten ist in
Videos von Privatpersonen meist nur eine Meinung vertreten. Auch öffentliche Institutio-
nen und Unternehmen betonen meist eine Sichtweise, was vermutlich an der Intention
dieser Videos liegt. Solche Angebote dienen jedoch den Zwecken der jeweiligen Organisa-
tion und haben entsprechend keinen journalistischen Anspruch. Insbesondere die Videos
von potenziell desinformierenden Kanälen bilden nur eine Meinung ab: Deren Videos ent-
halten in 81 Prozent der untersuchten Fälle eine einzige Meinung.
31 https://www.youtube.com/about/
32 Infratest dimap (2020) ARD-DeutschlandTREND Januar 2020 https://www.daserste.de/information/politik-weltgeschehen/morgenmagazin/politik/deutschlandtrend-2019-januar-102.html
3
Abb. 12: Meinungsvielfalt nach Thema
Covid-19-Pandemie
Klimawandel
Flüchtlinge
Eine Meinung Mehrere Meinungen Keine Meinung
Quantitativ vercodete Videos: n=210, pro Thema n=70
73%
70%
46%
20%
29%
48%
7%
1%
6%
24
Im Allgemeinen ließ sich beobachten, dass Vielfalt in den Empfehlungen von YouTube
teilweise eingeschränkt wird. Häufig werden immer wieder dieselben Kanäle und
Videos empfohlen. Dabei scheinen besonders öffentlich-rechtliche Angebote vom
Algorithmus bevorzugt behandelt zu werden. Die empfohlenen Videos entfernen sich
schnell vom ursprünglichen Thema eines Videos. Es wird eine große Bandbreite an ver-
schiedensten Themen angezeigt, die nichts mit dem eigentlichen Informationsinteresse
zu tun haben. Möchte man sich über ein Thema informieren, wäre es also schwierig,
hierzu viele themenbezogene Beiträge finden zu können. Auch mit Blick auf die Mei-
nungsvielfalt sind die empfohlenen Videos nicht sehr divers. Insbesondere die Angebote
von potenziell desinformierenden Kanälen und von Privatpersonen behandeln die drei
untersuchten Themen meist aus nur einer Perspektive.
Wenn die Informationsvielfalt nicht immer gewährleistet ist, so stellt sich auch die
Frage: Enthalten Empfehlungen auch klar desinformative Inhalte?
Quantitativ vercodete Videos: Öffentlich-rechtliche Anbieter n=43, private Medien n=28*, Institutionen und Unternehmen n=26*,
Privatpersonen n=41*, potenziell desinformative Kanäle n=72
*ohne potenziell desinformative Kanäle
3Abb. 13: Meinungsvielfalt nach Kanaltyp*
Eine Meinung Mehrere Meinungen Keine Meinung
Öffentlich-rechtliche Anbieter
Private Medien
Institutionen und Unternehmen
Privatpersonen
Potenziell desinformierende Kanäle
42%
29%
71%
73%
81%
58%
64%
15%
23%
16%
7%
15%
4%
3%
25
In den letzten Jahren wurde die Verbreitung von Desinformation auf sozialen Netzwerken
zunehmend als Problem erkannt. Als Reaktion auf starken gesellschaftlichen und politi-
schen Protest wenden sie sich der Erkennung, Moderation und Entfernung von desinfor-
mativen oder gefährlichen Inhalten verstärkt zu. So hat YouTube mehrere Richtlinien33 u.a.
zu Hassrede, schädlichen oder gefährlichen Inhalten oder Betrug veröffentlicht, die bis zur
Sperrung eines Accounts führen können. Zu Beginn der Covid-19-Pandemie wurden diese
Richtlinien angepasst und verstärkt durchgesetzt. Laut eigenen Angaben34 hat YouTube
im zweiten Quartal 2020 11,4 Millionen Videos von der Plattform entfernt – ein klarer An-
stieg im Vergleich zum ersten Quartal, in dem nur 6,1 Millionen Videos entfernt wurden.
Davon wurden fast 30 Prozent von der Plattform genommen, weil sie als irreführende
oder betrügerische Inhalte erkannt wurden. Außerdem wurde nach eigenen Angaben35
der Empfehlungsalgorithmus dahingehend angepasst, dass er desinformative Inhalte
weniger oft empfiehlt.
Inwieweit es YouTube gelingt, desinformative Videos in den Videoempfehlungen zu ver-
meiden, war eine Kernfrage in dieser Studie. In der Analyse der automatisiert erfassten
Videos wurde folglich der Schwerpunkt darauf gelegt, den Anteil von Desinformation
über die verschiedenen Empfehlungsebenen zu untersuchen.
4.1 Jenseits des Rampenlichts: Wie sichtbar ist Desinformation in den Empfehlungen?
Offenbar gelingt es YouTubes Empfehlungsalgorithmus relativ gut, desinformative Inhalte
eher selten zu berücksichtigen – wenn auch festzuhalten ist, dass solche Videos noch im-
mer empfohlen werden. Von den insgesamt erfassten und klassifizierten 6.822 Videos
hatten 415, also sechs Prozent, laut angewandter Klassifikation36 einen potenziell desinfor-
mativen Charakter. Diese Videos wurden insgesamt 975 Mal empfohlen, womit sie drei
Prozent aller klassifizierten Empfehlungen ausmachen. Dies muss in dem Kontext be-
trachtet werden, dass beim Studiensetup ein Drittel aller Startpunkte als desinformativ
definiert worden waren. Würde der Empfehlungsalgorithmus also Desinformation genau-
so oft wie Videos ohne Desinformation empfehlen, wäre ein Anteil an desinformativen
Videos von 33 Prozent zu erwarten gewesen. Da nur Kanäle als überwiegend desinforma-
tiv oder überwiegend verlässlich klassifiziert wurden, die häufiger als fünf Mal in den
Promoting Disinformation?
Umfang und Fundorte der
Falschinformation
4
33 YouTube: Richtlinien und Sicherheit. https://www.youtube.com/intl/de_be/about/policies/#community-guidelines
34 YouTube Transparency Report https://transparencyreport.google.com/youtube-policy/removals?total_removed_videos=period:Y2020Q2;exclude_automated:all&lu=total_removed_videos
35 YouTube Blog (2019) Continuing our work to improve recommendations on YouTube. https://blog.youtube/news-and-events/continuing-our-work-to-improve
36 Die Klassifikation als „potenziell desinformativ“ erfolgte über den jeweiligen YouTube-Kanal. Insgesamt wurden 741 YouTube-Kanäle, die viele Follower haben bzw. bekannt sind und solche, die häufig in
den Empfehlungen auftauchten, von Projektmitarbeitenden einzeln gesichtet und anhand der bisher veröffentlichten Videobeiträge als potenziell desinformativ oder nicht desinformativ eingestuft.
Diese Klassifikation wurde den erfassten YouTube-Empfehlungen zugeordnet.
26
Empfehlungen auftauchten und somit rund 20 Prozent der Videos nicht klassifiziert wur-
den, kann nicht ausgeschlossen werden, dass unter den erfassten Videos und Empfehlun-
gen einige desinformative Videos nicht berücksichtigt wurden. Zusammengefasst kann also
festgehalten werden, dass der YouTube-Algorithmus ohne Personalisierungseffekte zumin-
dest unter Laborbedingungen Desinformation selten anzeigt. Auch andere Studien37 kamen
zu dem Ergebnis, dass vor allem YouTubes jüngste Anpassungen am Algorithmus dazu füh-
ren, dass weniger Desinformation als früher angezeigt wird.
Wird der Anteil der desinformativen Videos an allen erfassten Videos mit thematischem
Bezug zu einem der drei ausgewählten Themen betrachtet, so fällt auf, dass dieser Anteil
bei der Corona-Pandemie (14%) und dem Klimawandel (15%) mehr als doppelt so hoch wie
bei allen anderen nicht themenrelevanten Videos ist. Bei den Videos über die Flüchtlings-
debatte ist der Anteil dagegen geringer als bei den zwei wissenschaftlichen Themen (8%),
was auch damit zusammenhängen könnte, dass die gesellschaftliche Debatte und somit
auch die meisten empfohlenen Videos bezüglich ihres Veröffentlichungsdatums zeitlich
am weitesten zurückliegen. Das deutet darauf hin, dass YouTube bei älteren Inhalten Des-
information effektiver aus den Empfehlungen heraushalten kann. Dazu passt, dass sich
bei den zehn am häufigsten empfohlenen Videos zur Corona-Krise – die neuesten Videos
in der Analyse – gleich drei desinformierende Beiträge finden. An Platz eins landet dabei
mit überdurchschnittlich vielen Empfehlungen ein Beitrag des potenziell desinformieren-
4
Videos: klassifiziert n=6.822, Covid-19-Pandemie n=403, Klimawandel n=372, Flüchtlinge n=295
Startpunkte: n=90
37 Marchal, N.; Au, H.; Howard, P. N. (2020): Coronavirus News and Information on YouTube: A Content Analysis of Popular Search Terms. Hg. v. University of Oxford (COMPROP Data Memo 2020.3). Online
verfügbar unter https://comprop.oii.ox.ac.uk/research/coronavirus-information-youtube/.
Abb. 14: Anteil an potenziell desinformativen Videos
Videos zu Covid-19-Pandemie
Videos zu Klimawandel
Videos zu „Flüchtlingskrise“
Alle empfohlenen Videos
Alle Startpunkte
14%
15%
8%
6%
33%
27
den Kanals RPP Institut. YouTube hat zwar zu Beginn der Corona-Pandemie, als sich Be-
richte über potenziell lebensgefährliche Falschinformationen häuften, besonders schnell
reagiert und zum ersten Mal eine spezielle Richtlinie38 zu Covid-19 formuliert. Ebenso gibt
es Beschränkungen für die Monetarisierung bei bestimmten Inhalten zur Covid-19-Pande-
mie39. Dennoch scheinen diese zusätzlichen Regelwerke bisher in der praktischen Umset-
zung nicht immer zu greifen, da hier etwas mehr potenziell desinformative Videos im Ver-
gleich zu anderen Themen empfohlen werden.
Wird der Vergleich zwischen Such- und Empfehlungsalgorithmus wieder aufgenommen,
stellt sich heraus, dass der Suchalgorithmus deutlich wirkungsvoller als der Empfehlungs-
algorithmus die Verbreitung von Desinformation hemmt. In allen drei Themenfeldern
wurde ausgehend von einem Startvideo auf der ersten Empfehlungsebene deutlich mehr
Desinformation angezeigt als bei der Untersuchung von Suchbegriffen. Jedoch war der
Umfang von Desinformation auch hier auf niedrigem Niveau.
In der Studie wurden Empfehlungen nicht-personalsiert erhoben. Die Ergebnisse beziehen
sich also auf ein Nutzungsverhalten, das dem Algorithmus kaum Informationen über Inte-
ressen und Präferenzen liefert. Denkbar wäre es, dass personalisierte Empfehlungen unter
Umständen höhere Anteile an Desinformation enthalten würden. Zumindest deuten Un-
tersuchungen darauf hin, dass personalisierte Empfehlungsumgebungen Desinformation
viel stärker fördern, als die hier verwendeten anonymen Browserverläufe40.
Wird jedoch mehr Desinformation angezeigt, wenn danach gezielt gesucht wird? Hierzu
können die Empfehlungen, die von neutralen Startpunkten ausgehen, mit denjenigen
verglichen werden, die von desinformativen Startpunkten ausgehen.
4
38 YouTube: Richtlinie zu medizinischen Fehlinformationen über COVID-19. https://support.google.com/youtube/answer/9891785?hl=de
39 YouTube: Informationen zur Monetarisierung von Inhalten zu COVID-19. https://support.google.com/youtube/answer/9803260?hl=de
40 Hussein, E.; Juneja, P.; Mitra, T. (2020): Measuring Misinformation in Video Search Platforms: An Audit Study on YouTube. In: Proc. ACM Hum.-Comput. Interact (4).
Klassifizierte Videos: Suchergebnisse n=251,
Klassif. Videos Empfehlungsalgorithmus: 6.571
Abb. 15: Anteil an Desinformation bei Suchergebnissen und Empfehlungen im Vergleich
Anteil an Desinformation auf
1. Empfehlungsebene Anteil an Desinformation auf
1. Empfehlungsebene Anteil an Desinformation auf
1. Empfehlungsebene
Covid-19-Pandemie Klimawandel Flüchtlinge
Empfehlungen
Suchergebnisse
10%
7%
13%
5%
12%
4%
28
Der Vergleich pro Thema zeigt: Es bestehen deutliche Unterschiede, je nachdem, ob Desin-
formation als Ausgangspunkt dient oder nicht (Tabelle 2). Potenziell desinformative Inhal-
te werden sehr selten empfohlen, wenn der Startpunkt keine Desinformation enthält. Für
alle drei Themen gilt, dass der Anteil der potenziell desinformativen Empfehlungen ausge-
hend von desinformativen Startpunkten (Videos und Suchbegriffen) deutlich höher liegt,
als bei neutralen Startpunkten – wenn auch auf niedrigem Niveau. Bei Empfehlungen, die
von desinformativen Startpunkten zum Klimawandel ausgehen, liegt der Anteil jedoch
bei ganzen 10 Prozent.
Der Blick auf die Empfehlungen als Netzwerkstruktur zeigt ebenso, dass insbesondere die
Empfehlungsbäume zu den desinformativen Corona- und Klimawandel-Startpunkten
recht viele potenziell desinformative Empfehlungen enthalten (vgl.Tabelle 2). Würden
Nutzende einem desinformativen Suchbegriff folgen oder ein desinformatives Startvideo
sehen, ist insbesondere bei diesen zwei Themen die Chance recht groß, dass sie in desin-
formativen Blasen oder Äste enden. Zwei solche „Äste“ mit desinformativen Empfehlun-
gen sind überraschenderweise auch in den Empfehlungsbäumen zum Klimawandel zu
finden, die von neutralen Startpunkten ausgehen. Würden Nutzende also gezielt nach
desinformativen Inhalten suchen, so besteht durchaus die Möglichkeit, dass ihnen solche
empfohlen wurden.
4
Tab. 2: Anteil der potenziell desinformativen Empfehlungen nach Startpunkttyp
Ausgehend von … Covid-19-
Pandemie
n=10.597
Klima-
wandel
n=11.571
Flüchtlinge
n=11.746
neutralen Startpunkten 1% 1% 1%
desinformativen Startpunkten 7% 10% 5%
allen Startpunkten 3% 4% 2%
29
4
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Corona-Krise Klima-Krise „Flüchtlings-Krise“
Ausgehend von
neutralem
Startpunkt
Ausgehend von
desinformativem
Startpunkt
30
Kanäle mit Videos zu Covid-19-Pandemie: 159; Klimawandel: 180; Flüchtlinge: 116
Abb. 16: Empfohlene Kanäle der drei Krisen als Netzwerkstruktur
Covid-19-Pandemie
Ausgehend von neutralem
Standpunkt
Ausgehend von desinformativem
Standpunkt
Klimawandel
Flüchtlinge
30
Anzahl
Empfehlungen
Anzahl
Videos
Selbstempfeh-
lungsrate
Anzahl
Abonnenten
Horst Lüning 245 135 0% 140.000
EIKE - Europäisches Institut für
Klima und Energie 122 72 0% 13.900
RPP Institut 84 45 31% 115.000
Kai Stuht Creative Caravan 64 30 13% 27.300
Achgut.Pogo 62 32 34% 63.000
Lehrer MaPhy 53 39 24% 61.500
RT Deutsch 46 37 6% 385.000
GD-TV Schwäbisch Gmünd 40 28 30% 60.400
Laut Gedacht 28 24 0% 54.900
Jürgen Höller 27 19 37% 38.900
4
Tab. 3: Die zehn meistempfohlenen potenziell desinformativen Kanäle
Eine mögliche Erklärung für diese Verteilung ist der im dritten Kapitel beschriebene Ka-
naleffekt. Wie dargestellt empfiehlt YouTube häufig andere Videobeiträge desselben Ka-
nals. Veröffentlicht der Ausgangskanal vor allem desinformative Videos, so ist aufgrund
des Kanaleffekts die Wahrscheinlichkeit groß, dass auch andere desinformative Videos
als nächstes empfohlen werden. Bei einzelnen Kanälen könnte dies also dazu führen,
dass eine Desinformationsblase entsteht. In der vorliegenden Analyse traf dies z.B. auf
den Kanal Tichys Einblick des Journalisten Roland Tichy zu. Gleichzeitig ist anzumerken,
dass der Kanaleffekt nur bei einigen wenigen „starken“ Kanälen auftritt. Für die Mehr-
zahl der empfohlenen Kanäle – auch für die als desinformativ klassifizierten – gilt: Sie
wurden nur einige wenige Male insgesamt empfohlen und können für sich alleine keine
allzu große Sichtbarkeit generieren.
31
Der Blick auf die zehn erfolgreichsten potenziell desinformativen Kanäle zeigt, dass der
Kanaleffekt nicht allein deren Sichtbarkeit in Empfehlungen erklären kann. So haben
beide Kanäle mit den meisten empfohlenen Videos und Empfehlungen pro Kanal eine
Selbstempfehlungsrate gleich Null. Der Kanal, der sich am häufigsten selbst weiteremp-
fiehlt – Tichys Einblick –, hat mit 15 Empfehlungen sogar weniger als der Durchschnitt
aller Kanäle (19 Empfehlungen pro Kanal im Schnitt). Die obere Liste enthält trotzdem vier
Kanäle mit einer Selbstempfehlungsrate von über 30 Prozent, was auf einen gewissen
Kanaleffekt hinweist.
Einige der desinformativen Videos in der Analyse haben sehr hohe Aufrufzahlen. Die drei
populärsten potenziell desinformativen Videos42 haben beispielsweise jeweils 4,6 Millio-
nen, 3,3 Millionen und 2,8 Millionen Aufrufe. Empfohlen wurden diese drei Videos zusam-
men jedoch nur insgesamt 24 Mal. Schaut man sich die zehn meistempfohlenen Videos
im Themenfeld Corona-Krise an, fällt auf, dass das meistempfohlene Video mit insgesamt
45 Empfehlungen ein Desinformations-Video darstellt, ebenso wie das Video an fünfter
Stelle43. Auch im Themenfeld Flüchtlinge steht an erster und siebter Stelle ein desinforma-
tives Video44.
Für die meisten Videos gilt jedoch, dass Empfehlungen nicht die Treiber der hohen Zu-
schauerzahlen sind. So stellt sich die Frage, wie YouTube-User auf diese Videos stoßen.
Hier vermutet eine aktuelle Recherche von Correctiv45, dass desinformative Inhalte auf
YouTube vor allem auf anderen Social Media-Plattformen und Messengerdiensten verbrei-
tet werden, wo dann durch einen Link auf YouTube verwiesen wird. Somit scheinen für
desinformative Videos diese anderen, weniger gut öffentlich sichtbaren Verbreitungswe-
ge relevanter zu sein als der Empfehlungsalgorithmus der Plattform. Eine weitere Mög-
lichkeit ist die Verbreitung über direkte Abonnements der jeweiligen Kanäle, die nicht
über Empfehlungen gesteuert ist46. Nutzerinnen und Nutzer folgen zudem Kanälen, de-
nen sie vertrauen, und prüfen deren Inhalte möglicherweise weniger kritisch auf Falschin-
formation oder Verzerrung.
Es ist somit festzuhalten, dass potenziell desinformative Videos insgesamt nicht beson-
ders oft auf YouTube empfohlen werden, zumindest ausgehend von einer nicht-personali-
sierten Empfehlung. Unter den themenbezogenen Videos insbesondere zu der Covid-
19-Pandemie und dem Klimawandel und im Anschluss an desinformative Startpunkte
finden sich jedoch Bereiche, in denen Desinformation präsent ist und von den Nutzenden
durchaus entdeckt werden kann.
42 Salomes Kanal: Das Bibelrätsel 1 Mythos Moses 2 Jenseits von Eden 3 Der Zorn Gottes 4 Der Mann aus Nazareth; RT Deutsch: Trotz Verbot: 18-Jähriger aus München besteigt Cheops-Pyramide und liefert
beeindruckende Aufnahmen; RT Deutsch: Opfer von rituellem Missbrauch: „Ich wurde als Kind hunderte Stunden lang vergewaltigt.“.
43 RPP Institut: Corona & die Krise der Medien - Journalistin redet Klartext (Gabriele Knabbe); Kai Stuht Creative Caravan: Bodo Schiffmann - Ist Corona tödlich oder die Gen-Impfung? - Ungeschnitten 07
44 SommerFilms: Ehemalige Flüchtlingshelferin Christiane Soler -- die Lügen der Politiker (Initiative an der Basis); Hayek Club Münsterland: Vera Lengsfeld: Lügen im Zuge der Flüchtlingskrise
45 Correctiv (2020): Datenanalyse: Nutzer finden fragwürdige Corona-Informationen vor allem auf Youtube und verbreiten sie über Whatsapp. https://correctiv.org/faktencheck/hintergrund/2020/05/12/
datenanalyse-nutzer-finden-fragwuerdige-corona-informationen-vor-allem-auf-youtube-und-verbreiten-sie-ueber-whatsapp.; Knuutila, A.; Herasimenka, A.; Au, H.; Bright, J.; Nielsen, R. K.;
Howard, P. N. (2020): COVID-related misinformation on YouTube: The spread of misinformation videos on social media and the effectiveness of platform policies. In: Data Memo Oxford, UK: Project on
Computational Propaganda (6). https://comprop.oii.ox.ac.uk/wp-content/uploads/sites/93/2020/09/YouTube-misinfo-memo.pdf.
46 Marchal, N. (2020): “People who seek junk content, because they find it entertaining or are simply curious, will always find it” https://sciencemediahub.eu/2020/07/16/nahema-marchal-people-who-
seek-junk-content-because-they-find-it-entertaining-or-are-simply-curious-will-always-find-it/.
4
32
4.2 Desinformation unter der Lupe
Nach der automatischen Erfassung der YouTube-Empfehlungen wurde eine Auswahl der
aufgezeichneten Videos (n=210) noch einmal intensiver manuell nach desinformativen
Inhalten oder Hinweisen untersucht. Ein Drittel dieser Videos wurde aus dem Video-Pool
ausgewählt, die automatisch als desinformativ erkannt wurden. Die restlichen zwei Drit-
tel entsprechen der Verteilung der Kanaltypen in der gesamten Stichprobe.
Um zu entscheiden, ob ein Video keine Desinformation enthält, teilweise Desinformation
enthält oder eindeutig desinformative Inhalte verbreitet, wurden mehrere Indikatoren
hinzugezogen. Zum einen wurde überprüft, ob Videos Falschinformationen berichteten,
die von professionellen Faktenprüfern wie Correctiv oder dem Tagesschau-Faktenfinder
widerlegt wurden. Zum anderen wurde die Unterscheidung nach Unterstützung bzw. Ab-
lehnung des wissenschaftlichen Konsenses zu einem Themenfeld herangezogen, die auch
in anderen Studien47 erfolgreich als Distinktionsmerkmal genutzt wurde. Schließlich dien-
te die Umsetzung journalistischer Arbeitsprinzipien wie Quellentransparenz, Ausgewo-
genheit, das Hinzuziehen von Experten, ein sachlicher Stil oder die Wiedergabe verschie-
dener Perspektiven als Orientierungshilfe bei der Bestimmung von Desinformation.
Anhand dieser Kriterien wurden die Videos in die drei Kategorien nicht desinformativ, teil-
weise desinformativ und desinformativ eingeteilt. Ca. zwei Drittel der Videos wurden als
verlässliche Quellen eingeordnet, was die ursprüngliche Auswahlverteilung spiegelt. Tat-
sächlich zeigt sich, dass fast alle der automatisch erkannten desinformativen Videos auch
manuell als desinformativ eingestuft wurden. Zählt man die als desinformativ und als
teilweise desinformativ eingeordneten Videos zusammen, ergibt sich eine Quote von 81
Prozent richtig klassifizierten Videos auf Ebene der Empfehlungen, ausgehend von der
Klassifizierung der Kanäle. Einige Videos, die aufgrund des Kanals als potenziell desinfor-
mativ markiert wurden, wurden manuell als neutral codiert (19% falsch-positive Klassifi-
kationen). Jedoch wurden auch einige als nicht-desinformativ klassifizierte Videos manu-
ell als (teilweise) desinformativ erkannt (17% falsch-negative). Insgesamt zeigt sich, dass
die Einteilung aufgrund der Klassifikation der Kanäle einen validen Indikator für den In-
halt der veröffentlichten Videos darstellt. Somit kann davon ausgegangen werden, dass
die in der vorherigen Auswertung als potenziell desinformativ klassifizierten Videos zum
größten Teil tatsächlich und auch unter genauerer Betrachtung desinformative Inhalte
enthalten.
47 Allgaier, J. (2019): Science and Environmental Communication on YouTube: Strategically Distorted Communications in Online Videos on Climate Change and Climate Engineering. In: Frontiers in
Communication 36 (4), S. 1–15. https://www.frontiersin.org/articles/10.3389/fcomm.2019.00036/full.
4
33
Der Vergleich zwischen den Krisen zeigt, dass Videos über den Klimawandel häufiger des-
informierend waren. Bei Videos über Flüchtlinge war es wiederum etwas schwieriger als
bei den anderen zwei Themen, die Einordnung vorzunehmen. Das liegt sicher auch an der
grundsätzlichen gesellschaftlichen Spaltung bezüglich dieses Themas und auch daran,
dass hier häufiger Meinungen geäußert werden und seltener um wissenschaftliche Be-
weise gestritten wird.
Die Einordnung der Kanaltypen wurde für die 210 Videos überprüft und auch nicht klas-
sifizierte Kanäle wurden hierzu eingeordnet. Ein Blick auf die Kanaltypen der Videos
zeigt: Desinformation wird in der überwältigenden Mehrheit der Fälle von YouTube-Ka-
nälen verbreitet, die als privat klassifiziert wurden. Das lag zum Teil auch daran, dass es
aufgrund fehlender Impressumsangaben nicht möglich war, den Hintergrund der Ak-
teure einzuschätzen. Einige wenige der desinformativen Videos wurden aber auch von
Kanälen veröffentlicht, die als Medienanbieter zu klassifizieren sind, wie z.B. RT Deutsch-
land, Tichys Einblick oder Achgut.Pogo.
Wie gut waren die einzelnen Indikatoren dafür geeignet, desinformative Inhalte zu
identifizieren? Die Haltung zum wissenschaftlichen Konsens war insgesamt ein guter
Indikator und konnte 86 Prozent der Fälle richtig klassifizieren. Die Verteilung in den
drei Themenbereichen zeigt, dass die Haltung zu wissenschaftlichem Konsens eindeutige
4
Abb. 17: Bewertung als Desinformation nach Thema
Abb. 18: Bewertung als Desinformation nach Kanaltyp
Quantitativ vercodete Videos: Journalistische Anbieter n=84, Privatpersonen n=97, Institutionen und Unternehmen n=29
Covid-19-Pandemie
Klimawandel
Flüchtlinge
Journalistische Anbieter
Privatpersonen
Institutionen und Unternehmen
Quantitativ vercodete Videos: n=210, pro Thema n=70
Keine Desinformation Teilweise Desinformation Desinformation
Keine Desinformation Teilweise Desinformation Desinformation
66%
63%
70%
82%
53%
66%
14%
13%
14%
11%
16%
14%
20%
24%
16%
7%
31%
21%
34
Desinformationsfälle bei wissenschaftlichen Themen besser als bei politischen
Themen anzeigt. Das liegt daran, dass es bei der Corona-Krise und dem Klimawandel
grundsätzlich leichter fällt, den Konsens zu bestimmen.
Weiterhin wurde untersucht, ob die Videos Aussagen enthielten, die von Faktencheck-
Organisationen wie Correctiv oder dem Faktenfinder der Tagesschau als falsch bewertet
wurden. Wie zu erwarten, wurden geprüfte Falschaussagen in nur relativ wenigen
Videos nachgewiesen, genauer in 35 der manuell codierten Videos. Faktenprüfer bewer-
ten häufig nur die prominentesten Falschaussagen und können angesichts der Ge-
schwindigkeit, mit der neue Falschaussagen im Diskurs auftauchen, ins Hintertreffen
geraten. Professionelle Falschaussagenprüfung eignet sich nach dieser Auswertung be-
sonders gut dafür, eindeutige Desinformation zu erkennen. Hier verbreiteten 79 Prozent
der desinformativen Videos überprüfte Falschinformationen. Bei den teilweise desinfor-
mativen Beiträgen war es dagegen selten möglich, diese mit einem klaren Faktencheck
zu begründen. Nur drei Prozent dieser Videos enthielten widerlegte Behauptungen. Die
Daten umreißen einen Graubereich an potenziell desinformativen Inhalten, die aber
schwer greifbar sind.
Dennoch ist interessant zu beobachten, dass bei der Klimakrise rund ein Viertel der Vi-
deos eine überprüfte Falschaussage enthielt und somit wahrscheinlich fast alle der vor-
her als möglicherweise desinformativ eingeordneten Videos eine solche Aussage
enthielten. Dies könnte daran liegen, dass beim Klimawandel der klarste wissenschaftli-
che Konsens existiert. Bei der Corona-Krise entwickelt sich die Wissenschaft ständig
weiter, weshalb es für Faktenchecker schwer sein kann, stets den neuesten Wissens-
stand abzubilden. Bei der sogenannten „Flüchtlingskrise“ gibt es wie oben beschrieben
in Wissenschaft und Gesellschaft unterschiedliche Interpretationen und Auffassungen
der Fakten, weshalb auch dort möglicherweise viele desinformative Aussage nicht kom-
plett überprüft werden können.
Schließlich wurden die Videos auf die Einhaltung anerkannter journalistischer Arbeits-
techniken geprüft, beispielsweise ob Experten zu Wort kamen, Quellen genannt wurden
oder eine ausgewogene Berichterstattung stattfand. Insgesamt wurden sechs verschie-
dene Kategorien48 codiert, die zur Entscheidungsfindung herangezogen wurden, ob Vi-
deos als desinformativ gelten sollten. Wurde maximal ein Kriterium eingehalten, wurde
ein verdächtiges Video als desinformativ bewertet. Bei bis zu drei journalistischen Krite-
rien galt das Video als teilweise desinformativ. Insgesamt zeigt die Erfassung anerkann-
ter journalistischer Arbeitstechniken, dass desinformierende Inhalte diese nicht sehr
gut umsetzen. Gleichzeitig zeigt der hohe Anteil an eindeutig oder teilweise desinfor-
mativen Videos (zusammen 66 Prozent der Fälle), die zwischen ein und drei dieser Krite-
rien umsetzen, dass viele Produzenten von Desinformation zumindest den Anschein
erwecken wollen, journalistisch zu arbeiten.
48 Im einzelnen: 1) Expert*in mit anerkannter Qualifikation; 2) Quelle/Verweise genannt; 3) Mehrere Quellen genannt; 4) Sachlicher Stil/Trennung Fakt und Meinung;
5) Verschiedene Positionen/Sprechergruppen und ausgewogene Berichterstattung; 6) Kennzeichnung von Werbung, Finanzierung, Verantwortliche, Interessenskonflikte
4
35
4.3 Werbefinanzierte Desinformation
Ob Falschinformationen über Anzeigen mitfinanziert werden, ist eine kontrovers disku-
tierte Frage, die zuletzt durch eine Untersuchung von Avaaz nochmals ins Rollen ge-
bracht wurde49. Im Prinzip müssen Kanäle, die Werbung schalten möchten, „werbe-
freundlich“ sein und sich an zahlreiche Richtlinien halten50. Weiterhin gibt YouTube
sogar an, Inhalte „ohne pädagogischen Wert“ nicht mit Werbung zu bespielen. Während
der Corona-Pandemie wurde zudem zuerst Werbung für alle auf die Pandemie verwei-
senden Inhalte gesperrt51. Erst nach einiger Zeit durften ausgewählte Kanäle auch bei
diesen Inhalten Werbung schalten. Dennoch sind weiterhin in Bezug auf Covid-19 Inhal-
te von einer Monetarisierung ausgeschlossen, die beispielsweise verstörende Aufnah-
men oder medizinische Falschmeldungen enthalten52. Ganz explizit wird Kanälen gera-
ten, alle Fakten im Video durch seriöse Quellen zu überprüfen.
In der Realität scheinen diese Beschränkungen jedoch nur wenig zu wirken. Dies wird
deutlich, wenn die quantitativ vercodeten 210 Videos nach Platzierung von Werbung un-
tersucht werden. Auffällig ist, dass vor desinformativen Videos mehr Werbung als vor
nicht desinformativen Inhalten geschaltet wird.
Die Studie von Avaaz beobachtete ähnliche Effekte bei Videos mit klimabezogener Des-
information. Dies widerspricht den offiziellen Vorgaben von YouTube, dass beispielswei-
se Videos, in denen irreführende Praktiken, Betrug oder Hassreden sowie schädliche und
gefährliche Inhalte auftauchen, von der Monetarisierung ausgeschlossen werden.
So taucht bei 31 bis 40 Prozent der (teilweise) desinformativen Videos offizielle YouTube-
Werbung auf, entweder als Werbespot zu Beginn des Videos oder als Unterbrechung
zwischendurch. Von den nicht desinformativen Videos wird ungefähr ein Drittel mone-
tarisiert.
49 Avaaz (2020): Why is YouTube Broadcasting Climate Misinformation to Millions. YouTube is driving its users to climate misinformation and the world’s most trusted brands are paying for it.
https://secure.avaaz.org/campaign/en/youtube_climate_misinformation/
50 Für eine Übersicht siehe: https://suppor t.google.com/youtube/answer/1311392?hl=de
51 Coronavirus-Update: Support und Ressourcen für unsere Creator: https://blog.youtube/intl/de-de/creator-and-artist-stories/coronavirus-update-support-und/
52 Informationen zur Monetarisierung von Inhalten zu COVID-19: https://support.google.com/youtube/answer/9803260?hl=de
4
Abb. 19: Monetarisierung bei Videos mit und ohne Desinformation im Vergleich
Quantitativ vercodete Videos: keine Desinformation n=139, teilweise
Desinformation n=29, Desinformation n=42
Keine Desinformation
Teilweise Desinformation
Desinformation
Offizielle YouTube-Werbung Eigene Werbung Keine Werbung
35%
31%
40%
3%
24%
7%
63%
59%
55%
36
Monetarisierung hängt jedoch stark vom Kanaltyp ab. Während öffentlich-rechtliche
Kanäle erwartungsgemäß fast nie Werbung enthalten, monetarisieren private Medien die
meisten ihrer Videos. Sehr oft schalten Werbung auch Kanäle von Privatpersonen, in denen
sich Desinformation besonders oft findet. Die meisten Anzeigen sind dabei offizielle YouTu-
be Anzeigen, die zentral von der Plattform vor dem Video oder als Unterbrecherwerbung
ausgespielt werden. Eigene im Video integrierte Werbeformen waren deutlich seltener zu
finden und das ausschließlich bei privaten Medienanbietern und bei Kanälen von Privat-
personen.
Bei der Untersuchung der YouTube-Algorithmen auf den Umgang mit desinformativen
Inhalten entsteht ein durchaus ambivalentes Bild. Beim Empfehlungsalgorithmus
scheint es YouTube relativ gut zu gelingen, desinformative Inhalte selten zu bewerben.
Die in Politik und Gesellschaft häufig geäußerte Befürchtung53, dass soziale Medien wie
YouTube durch ihre automatisierten Empfehlungen Desinformations- und Radikalisie-
rungsspiralen in Gang setzen, bei der Nutzerinnen und Nutzer sogar ausgehend von
unverfänglichen Inhalten bei fragwürdigen Videobeiträgen enden können, scheint sich
also weniger zu bewahrheiten. Das „rabbit hole of extremism“54 konnte in dieser Studie
nicht nachgewiesen werden. Höhere Anteile an Desinformation waren vor allem bei
den Themen Covid-19-Pandemie und Klimawandel zu beobachten – aber auf niedrigem
Niveau – sowie zum Teil in Empfehlungsbäumen, die einen desinformierenden Start-
punkt hatten.
Viel weniger sorgfältig scheint bei der algorithmischen Auswahl von Werbeplätzen und
der Vermeidung von Desinformation vorgegangen zu werden. So stellt sich vor allem
für Werbetreibende die Frage, inwieweit sie sich auf diesen Algorithmus verlassen
wollen, um nicht mit problematischen Inhalten in Verbindung gebracht zu werden.
53 z.B. Lobo, S. (2019): Hass ist Geld. https://www.spiegel.de/netzwelt/web/verschwoerungstheorien-auf-youtube-hass-ist-geld-a-1261017.html. Oder O‘Callaghan, D.; Greene, D.; Conway, M.;
Carthy, J.; Cunningham, P. (2015): Down the (White) Rabbit Hole: The Extreme Right and Online Recom-mender Systems. In: Social Science Computer Review 33 (4), S. 459–478.
54 Tufekci, Z. (2018): YouTube, the Great Radicalizer. https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html.
4
Abb. 19: Monetarisierung nach Kanaltyp
Öffentlich-rechtliche Anbieter
Private Medien
Institutionen und Unternehmen
Privatpersonen
Offizielle YouTube-Werbung Eigene Werbung Keine Werbung
49%
84%
5%
2% 49%
8%
95%
12%
100%
Quantitativ vercodete Videos: Öffentlich-rechtliche Anbieter n=43,
private Medien n=41, Institutionen und Unternehmen n=29, Privatpersonen n=97
37
Um ein besseres Verständnis der Vielfalt von potenziellen Fehlinformationen in YouTube
Videos zu bekommen, wurden in einer qualitativen Inhaltsanalyse exemplarisch jeweils
fünf Videos pro Themengebiet aus dem Korpus der als potenziell desinformierend einge-
stuften Videos zur Einzelanalyse ausgewählt. Die Auswahl der Videos bezog sich hierbei
vor allem auf das breite Spektrum an Videoformaten, die auf YouTube auffindbar sind und
bildet exemplarisch auf YouTube gängige Formate sowie einige Formen von Desinformati-
on ab.
Die untersuchten Videos kommen von unterschiedlichsten Produzenten und sind sehr
vielfältig in Bezug auf Format, Genre und Stil. Es gibt also nicht nur eine Art oder mehrere
klar definierte Kategorien von Desinformation, die sich festen Kriterien zuordnen lassen.
Desinformation findet sich stattdessen in verschiedenem Ausmaß und diversen Ausprä-
gungen in den unterschiedlichsten Videoformaten. Eine gewisse Übereinstimmung gibt
es jedoch bei den Intentionen und Feindbildern, die den Videos zugrunde liegen.
5.1 Desinformative Vielfalt: Formate und Zielgruppen
Es wurde insgesamt ein sehr breites Spektrum an Videoformaten und Inhalten vorgefun-
den. Hier findet sich eine Bandbreite von sehr kurzen Videos, die nur wenige Minuten lang
sind (das kürzeste in der Stichprobe dauert 3:57 Minuten bis hin zu wesentlich längeren
Videos (das längste Video in der Stichprobe dauert 1:40:59 Minuten: Video F5).
Auch die potenziellen Zielgruppen der untersuchten Videos sind vielfältig: von Videos, die
von jungen „Creators“ für eine vorwiegend auch junge Zielgruppe produziert werden (z.B.
Video K1, K5, F3) bis zu Videos für eine breite Öffentlichkeit (z.B. Video F2, C5) oder für ältere
(und vielleicht gebildetere) Zielgruppen (wenn etwa Kultursendungen imitiert werden,
z.B. Video F4).
In der Stichprobe wurden vor allem für YouTube typische Videoformate wie Videoblogs,
Videoessays und Videokommentare berücksichtigt, bei denen in erster Linie eine Spreche-
rin oder ein Sprecher zu sehen ist. Innerhalb dieser Kategorie variieren diese jedoch zum
Teil beträchtlich, z.B. in Hinblick auf Professionalität, Emotionalität und Art und Weise der
Selbstpräsentation. So finden sich schnell und einfach produzierte Videos niedriger Quali-
tät, in denen sich die Produzenten über Webcams, Smartphone- oder Laptopkameras
selbst filmen und Informationen einblenden (z.B. C2). In anderen Videos werden die Spre-
cherinnen und Sprecher wesentlich professioneller und aufwändiger in Szene gesetzt (z.B.
K3, F1). In weiteren Videos werden zusätzlich auch Text, Bilder, Videos und Animationen
eingeblendet und zum Teil mit Musik unterlegt (z.B. K1, F3). Teilweise wirken die Videos
Hinter den Spiegeln – Zentrale
Erzählungen und Strategien
von desinformativen Videos
5
38
sehr schnell produziert, etwa als ob die Protagonisten direkt „aus dem Bauch heraus“
drauf lossprechen (z.B. C1), andere sind ausgiebiger arrangiert und vorbereitet und folgen
einem detaillierten Skript, bei dem auch Hintergründe und Einblendungen genau vorge-
zeichnet wurden (z.B. K1, K5, F3).
In der Stichprobe finden sich des Weiteren Videoformate im Stil von Interviews (K2, C4),
journalistischen Dokumentationen (F5), satirischen Infotainment (K5), professionellen
Nachrichten (F2) oder Kulturformaten (F4) präsentieren55. Dementsprechend gibt es auch
eine große Vielfalt beim „Ton“ der untersuchten Videobeiträge: von heiter und beschwingt
(K5), über betont nüchtern und analytisch (K1, F3), seriös (K3, F4), journalistisch-aufkläre-
risch (F5, C5), aktivistisch-agitativ (C1, C2), bis zu emotional-aggressiv (K4, F1).
5.2 Desinformative Muster: Inhalte und Erzählungen
Insgesamt findet sich in den fünfzehn Videos eine große Bandbreite an potenziellen Des-
informationen. Diese unterscheiden sich thematisch und inhaltlich, in Grad und Schwere
der Abweichung von der Wahrheit sowie Intentionalität und Art der Präsentation. In der
Stichprobe konnten zwar keine professionellen und technisch aufwändigen Manipulatio-
nen – wie etwa eindeutige Bildfälschungen oder unter dem Einsatz von Machine Learning
erstellte Deepfake-Videos – gesichtet werden. Jedoch finden sich häufig (technisch) weni-
ger aufwändig gestaltete Beiträge im Graubereich von Desinformation, die zum Beispiel
Informationen auf bestimmte Art rekontextualisieren, polarisierende Stimmungsmache
betreiben, oder „alternative“ Erklärungen und Sichtweisen anbieten und bestimmte
Schlussfolgerungen suggerieren.
Die überwiegende Mehrheit der analysierten Videos lässt sich hierbei dem politisch rech-
ten Spektrum zuordnen. Der Grundton ist dabei fast durchgängig, einen „alternativen“
Blickwinkel auf einen bestimmten Sachverhalt anzubieten. In der analysierten Stichprobe
sehen sich viele YouTuber als rebellische Kämpferinnen und Kämpfer, die gegen eine ver-
meintliche „Meinungsdiktatur“ aufbegehren. Öffentlich-rechtliche Medien werden auffäl-
lig oft zitiert und meist diskreditiert, ebenso die sogenannten „Konzernmedien“ (wie Der
Spiegel, Frankfurter Allgemeine Zeitung, Die Zeit und weitere große deutsche Verlagshäu-
ser), sie zusammen die „Mainstream-“ oder „Systemmedien“ bilden.
Die meisten Videos gehen jedoch verhältnismäßig vorsichtig vor und werden beispiels-
weise als Analyse, Kommentar oder Meinung gekennzeichnet. Ebenso findet sich das Nar-
rativ, nicht eine bestimmte Meinung vorgeben, sondern „lediglich Fragen stellen“ zu wol-
len. Diese wiederum sind oft suggestiv und enthalten vorgezeichnete Implikationen.
Ein übergeordnetes Narrativ, das bei allen drei Themen vorkommt, ist eine Elite, die nach
eigenen Regeln und gegen das Wohl des Volkes, beziehungsweise der Bürgerinnen und
Bürger, agiert. Die Videoproduzenten präsentieren sich hierbei oft mit den Zuschauenden
5
55 Es sei hier erwähnt, dass bei der Sichtung der als potenziell desinformierend kategorisierten Videos wesentlich mehr Formate aufgetaucht sind, als hier aufgeführt sind, die jedoch aus Platz-
gründen keinen Eingang in diesen Teil der Studie gefunden haben, beispielsweise Imitationen von Talkshowformaten, Musikvideos, lange (pseudo)wissenschaftliche Vorträge und weitere Formate.
39
verbindend als gemeinsames WIR, das aus den einfachen ehrlichen Leuten besteht, und
das gegen SIE, die unanständigen und verkommenen Eliten positioniert wird, und von die-
sen unterjocht und gegängelt wird.
Klimawandel
Da es beim Thema Klimawandel einen vergleichsweise eindeutigen wissenschaftlichen
Konsens darüber gibt, dass der Klimawandel anthropogen, also vom Menschen verursacht
ist, lässt sich die Korrektheit der Aussagen in den ausgewählten Videos aus wissenschaft-
licher Sicht vergleichsweise gut einschätzen. Der größte Teil der Videos in der Stichprobe
widerspricht verhältnismäßig eindeutig der wissenschaftlichen Konsensdarstellung des
anthropogenen Klimawandels (K1, K2, K4). In der Regel wird eingeräumt, dass es zwar ei-
nen Klimawandel gibt, dieser aber nicht durch die Menschen verursacht werden würde,
da es klimaschädliche Gase wie CO2 und Klimaschwankungen auch schon vor dem Er-
scheinen des Menschen gegeben habe (z.B. in den Videos K1, K2, K4).
Beim Thema Klimawandel spielt insbesondere die Debatte um Wissenschaft, wissen-
schaftliche Expertise und die Wissenschaftlichkeit bestimmter Aussagen und Studien eine
große Rolle. Deshalb finden sich in vielen der Videos wissenschaftlich anmutende Darstel-
lungen und Schaubilder wie Klimakurven und Zahlentabellen, die jedoch in den wenigs-
ten Fällen eindeutig erklärt werden. Dazu ist in der Regel das Tempo der Videos zu hoch
und es wird nicht im Detail darauf eingegangen. Der Anschein von Wissenschaftlichkeit
wird so zwar gewahrt, die Inhalte wissenschaftlicher Studien aber fehlinterpretiert. Oft
findet eine starke Dekontextualisierung der aufgeführten Materialien statt. Darüber hin-
aus werden Studien von individuellen Klimaforschenden und insbesondere Berichte und
Empfehlungen vom Weltklimarat (IPCC) diskreditiert, zum Beispiel weil diese bestimmte
Aspekte angeblich nicht im Untersuchungsrahmen adressiert hätten. Limitierungen von
Studien werden generell diskreditierend ausgelegt. Stattdessen werden pseudo-wissen-
schaftliche Materialien und Erklärungen bemüht, die von Organisationen stammen, die
den wissenschaftlichen Konsens zum Klimawandel ablehnen (z.B. K1, K4).
In einigen Videos finden sich stark simplifizierende Darstellungen des Klimawandels, die
den wissenschaftlichen Darstellungen widersprechen, beispielsweise indem betont wird,
dass das klimaschädliche CO2 gut für das Wachstum von Pflanzen (z.B. K1) und dadurch
gut für die Natur insgesamt sei, oder dass eine Erwärmung unproblematisch sei, da die
Menschen immer schon vor Kälte geflohen wären und Wärme gesucht hätten. Die globale
Erwärmung, die aus dem Klimawandel resultiert, wäre deshalb insgesamt eher positiv zu
bewerten (z.B. K2). Diese Aussagen werden auch visuell unterstützt, Beispiel: attraktives
Paar in Badekleidung spaziert vor idyllischer Urlaubskulisse am Sandstrand und blauen
Meer. Darauf folgt eine Videoaufnahme von schmelzenden Eiszapfen über frühlingshaft
sprießenden Pflanzen, während die Sprecherin im Hintergrund sagt:
„Zwei Grad Celsius angemessen verteilt über den Planeten kann zu erfreulichen Urlaubs-
temperaturen in einigen Gebieten führen oder im gegenteiligen Extremfall drastische
Temperaturanstiege an eiskalten Orten bedeuten.“ (Video 1K, 8:17- 8:28)
5
40
5Die Konsequenzen des Klimawandels werden so verharmlost, den Klimawissenschaftlern
werden Unfähigkeit, Populismus, Böswilligkeit und insbesondere dem Weltklimarat Kor-
ruption, politische Motiviertheit und Ideologie unterstellt. Dabei wird ein großes Konvolut
an klimawandelskeptischen Materialien und Internetmaterialien aufgeführt, die jedoch
keinen wissenschaftlichen Kriterien entsprechen (z.B. K4). In der Wissenschaft herrsche
darüber hinaus Zensur, abweichende Wissenschaftler bekämen einen „Maulkorb“ ver-
passt und würden sanktioniert, eingeschüchtert und bedroht (z.B. K4). Außerdem wird in
mehreren Videos behauptet, dass im Namen des Klimaschutzes lediglich unbegründete
Maßnahmen verabschiedet würden, um die Bevölkerung zu unterdrücken (K1), eine sozia-
listische Planwirtschaft einzuführen (K4) und insbesondere um die Steuern für die Bürge-
rinnen und Bürger zu erhöhen (K1, K3, K5).
Erwähnenswert ist auch, dass zumindest in zwei Videos die globale Bevölkerungsexplosi-
on und Migration als ein Problem und mögliche Ursache des Klimawandels dargestellt
werden (K1, K3). In Video K1 wird so eine Verbindung zum Thema Flüchtlinge hergestellt.
Dazu wird eine migrationsfeindliche Website als Quelle eingeblendet, die Migranten als
eine der Ursachen für problematische Klimaveränderungen ausweist.
Die in den Videos erscheinenden Akteure präsentieren sich dabei oft als die rationaleren
und sachlicheren Wissenschaftler und Experten. Die „offiziellen“ Klimawissenschaftler
seien demgegenüber von der Regierung gelenkt, politisch motiviert oder einfach korrupt
und daher nicht objektiv. Auch den deutschen Medien wird vorgeworfen, nicht objektiv
über den Klimawandel zu berichten. Den Klimaschutzaktivistinnen wird unterstellt, sie
seien nicht in der Lage, die Wissenschaft des Klimawandels angemessen zu begreifen. In
einem Interview (K2) mit einem Protagonisten, der als wissenschaftlicher Experte für den
Klimawandel vorgestellt wird, präsentiert sich dieser beispielsweise als sachlicher, neutra-
ler und analytischer Experte, während „die Gegenseite“, personifiziert durch die Klimaak-
tivistin Greta Thunberg, als zu emotional und daher unsachlich dargestellt wird. Die Schü-
lerproteste gegen den Klimawandel seien zudem eine Form des „Schuleschwänzens“,
welches zu weiteren fachlichen Defiziten führen würde.
In mehreren Videos zum Klimawandel werden Feindbilder aufgebaut, die rhetorisch atta-
ckiert und zerpflückt werden. In Video K3 werden beispielsweise alle am Klimaschutz Inte-
ressierten zu einem Klischee des wohlhabenden und elitären Klimaschützers vereint. Die-
se elitären Klimaschützer würden dabei sehr viel vom einfachen, ehrlichen Volk verlangen,
sich selbst aber in keiner Weise an die von ihnen geforderten Standards halten. Weitere
Zerrbilder von klimaaktivistischen Bewegungen wie Fridays for Future finden sich in den
Videos K1, K2 und K5, in dem manche Klimaschützer zudem als potenziell gefährlich und
gewaltbereit dargestellt werden. Im Video K3 werden insbesondere grüne Politikerinnen
und Politiker ins Visier genommen, die ebenfalls Moral und Pflichtgefühl von der Bevölke-
rung einfordern würden, ohne ihren eigenen angeblich luxuriösen Lebensstil entspre-
chend zu ändern und sich selbst an die eingeforderten Vorgaben zu halten. Klimaschützer
werden so als moralisch korrupt, „hysterisch“ oder heuchlerisch dargestellt.
41
5Auf die allgemeinen Zerrbilder, Stereotype und Strohmänner folgen persönliche Angriffe
auf Individuen, um insbesondere die Klimaschutzbewegung, aber auch individuelle Wis-
senschaftler zu diskreditieren. In Video K3 werden beispielsweise die deutsche Klimaakti-
vistin Luisa Neubauer von Fridays for Future und eine US-amerikanische Politikerin
(Demokratin und Initiatorin des Projekts Green New Deal) an den Pranger gestellt.
Weitere persönlichen Attacken und Diskreditierungen betreffen ausgesuchte Mitglieder
des Weltklimarats und weitere Wissenschaftler (z.B. K4). Am meisten Aufmerksamkeit
und Häme bekommt jedoch die junge schwedische Klimaschützerin Greta Thunberg ab,
über deren mentale Gesundheit sich beispielsweise die Macher des Videos K5 belustigen.
Flüchtlingsdebatte
Beim Themengebiet Flüchtlinge findet sich eine wesentlich größere Vielfalt an Inhalten
und Botschaften als in den beiden anderen Themengebieten. Hier finden sich für YouTube
typische Formate, in denen sich zwei Sprecher beim Kommentieren von Entwicklungen
filmen (F1 und F3), journalistisch anmutende Formate (F2 und F5) sowie ein feuilletonisti-
scher Beitrag.
Die Herangehensweisen der zwei YouTube-typischen Videos unterscheiden sich deutlich.
In schwarz-weißen Aufnahmen zeigt Video F1 einen älteren YouTuber mit Hut auf einem
Bürostuhl vor weißem Hintergrund. Dieser nimmt sich eine WDR-Meldung über gezielte
Gewaltaktionen im Kölner Karneval vor, und liest diese im Wortlaut komplett vor. Angelb-
lich verfügt er zusätzlich über den Bericht eines befreundeten Augenzeugen, der von einer
koordinierten Gewaltaktion im Kölner Straßenkarneval berichtet habe. Der Bericht aus
dem „Mainstreammedien“ würde entscheidende Details verschweigen, nämlich dass die
Täter allesamt aus „dem islamisch geprägten Migranten-Milieu“ stammen würden und
die Opfer alle „sogenannte Biodeutsche“ wären (Video 1F, 5:05-5:43). Im Lauf des Videos
redet sich der YouTuber scheinbar in Rage und wiederholt erregt, dass es mehrere Hetz-
jagden auf Deutsche gegeben habe (für diese Behauptung konnte die Faktencheck-Orga-
nisation Correctiv58 allerdings keine Beweise finden ). Im Video gestikuliert er zunehmend
aufgebracht, wütend und emotional. Dabei vergisst er nicht zu erwähnen, welche Kanäle
man, außer seinem eigenen, noch abonnieren und dass man auch den Text seiner eigenen
Quelle weiter teilen und verbreiten solle.
Mehrere Unwahrheiten werden miteinander vermischt. Es wird einseitig spekuliert und
angeblich Schuldige werden ausgemacht und benannt. Bei dem YouTuber handelt es sich
um einen medienerfahrenen Agitator, der weiß, dass sich insbesondere negative Emotio-
nen online sehr stark verbreiten und weitere Reaktionen hervorrufen. In den Kommenta-
ren zu dem Video finden sich dementsprechend sehr viele Wut- und Hasskommentare.
Er geriert sich als entrüsteter Kommentator, der die vorgelesene „Nachricht“ kaum fassen
kann, um ihr dann die gewünschte Interpretation zu verleihen. Im Universum der sozialen
58 z.B. https://correctiv.org/faktencheck/2020/03 /09/karneval-in-koeln-polizei-kann-hetzjagden-von-migranten-auf-deutsche-nicht-bestaetigen/
42
5Medien und besonders unter Influencern ist „Authentizität“ eine wichtige Währung.
Diese „Authentizität“, gepaart mit Emotionalität (in diesem Fall starke Empörung), wird
hierbei oft als Glaubwürdigkeitsstrategie eingesetzt. Nicht selten ist diese Art von „Au-
thentizität“ jedoch sorgfältig inszeniert59.
Im Video F3 sieht man ebenfalls einen jüngeren, männlichen YouTuber, in schwarzer Leder-
jacke auf einem Bürostuhl sitzend. Dieses Video bildet in der Präsentation einen starken
Kontrast zum vorherigen Video. Es präsentiert sich im Stil einer nüchternen Analyse. Der
YouTuber erlaubt sich ein Minimum an Mimik und Gestik. Während des Kommentars wer-
den Bilder, Videos und Texte eingeblendet. Im Video wird dargelegt, dass nach der ersten
Flüchtlingswelle des Jahres 2015 nun eine Welle der Massenmigration aus Afrika geben
würde. Diese werde von den „Mainstreammedien“ verheimlicht. Es wird ein sehr stereoty-
pes negatives Bild von Afrika und der afrikanischen Bevölkerung gezeichnet, das auch
durch entsprechende Videoeinblendungen unterstützt wird. Das Video macht einseitig
Stimmung gegen Migration und Migranten, aber auch gegen migrationsfreundliche
NGOs und die „Mainstream-Medienlandschaft“. Auch dieser YouTuber greift gleich zu Be-
ginn des Videos diese für ihre angebliche Verlogenheit an, zitiert aber durchweg „Main-
streammedien“ als Quellen, um seine Aussagen zu belegen. Seine Aussagen widerspre-
chen zumindest in einigen Fällen den Inhalten der zitierten Artikel grundlegend. Die
Grundintention des Videos fasst er am Ende des Beitrags noch einmal selbst folgender-
maßen zusammen: „…keine weitere Migration aus Afrika nach Europa! Kein Taxi Service
von Afrika nach Europa! Das ist alles keine Lösung, die langfristig hält. Ich weiß das klingt
vielleicht nicht so schön wie zu sagen: ja ich bin total humanitär, ich nehme alle auf, aber es
ist wenigstens ein realpolitischer Vorschlag und es ist mir persönlich auch viel wichtiger.“
(Video F3, 10:40-10:55)
Zwei weitere Beiträge präsentieren sich in Gestalt journalistischer Professionalität (F2 und
F5). Bei Video F2 handelt es sich um einen der wenigen Beiträge in der Stichprobe, die
nicht direkt mit einem politisch rechten Hintergrund assoziiert werden. Es handelt sich
um ein kurzes Video in Form eines Nachrichtenbeitrags des deutschen Ablegers von Rus-
sia Today RT Deutsch. In dem hochprofessionell produzierten Beitrag geht es um eine Stu-
die des Medienwissenschaftlers Michael Haller, der im Auftrag der Otto-Brenner-Stiftung
den Umgang der deutschen Medien mit der „Flüchtlingskrise“ analysierte. Es wird darin
dargelegt, dass die Studie besagt, dass die deutschen Medien das Volk in rechts und links
gespalten, wenig zur Vermittlung zwischen beiden politischen Lagern beigetragen haben
und sich generell nicht für die Nöte, Sorgen und Sichtweisen der Bürgerinnen und Bürger
interessieren würden. Zudem wird im Beitrag unterstellt, dass die Bundesregierung, per-
sonifiziert durch Angela Merkel, die Medien zur migrationsfreundlichen Berichterstattung
angewiesen hätte, und die Bürger deswegen bereits das Vertrauen in die Medien verloren
hätten. Als Experte spricht daraufhin der Politikwissenschaftler Werner Patzelt, der als
Mitglied des Instituts für politische Wissenschaft der TU Dresden vorgestellt wird.
59 Frühbrodt, L., & Floren, A. (2019). Unboxing YouTube: Im Netzwerk der Profis und Profiteure. Frankfurt: Otto Brenner Stiftung.
43
5Patzelt suggeriert in seinem O-Ton, dass es die Journalisten in Deutschland zu weit getrie-
ben hätten, wenn ein großer Teil der Bevölkerung sich von ihnen getäuscht fühle, da die
Deutschen für gewöhnlich ein hohes Vertrauen in den Journalismus hätten. Die Tatsache,
dass sich Journalisten nun anfangen würden zu entschuldigen, könne als ein Schuldeinge-
ständnis gesehen werden, dass sie in der „Flüchtlingskrise“ nicht ihren professionellen
Pflichten nachgekommen wären.
Das Video gibt den Inhalt der Otto-Brenner-Studie sehr zugespitzt wieder. Diese wird
benutzt, um Stimmung gegen die deutschen „Mainstreammedien“ zu machen, ihnen
Gleichschaltung, politische Gesteuertheit und Lüge zu unterstellen. Weiter zugespitzt
wird die Darstellung durch einen Kommentar des scheinbar neutralen Experten Patzelt.
Werner Patzelt wurde jedoch immer wieder unterstellt, der AfD sehr nahezustehen,
weswegen die TU Dresden sich auch von ihm als Professor getrennt hat60. Auch wenn sich
der Beitrag als professionellen Journalismus ausgibt, werden keine Medien- oder wissen-
schaftlichen Quellen zitiert, die diese Aussagen hätten kontextualisieren können. Somit
wird nur scheinbar journalistisch gearbeitet61.
Beim zweiten journalistisch anmutenden Beitrag (F5) handelt es sich um einen langen
Beitrag (1:40:59 Minuten), der in Gestalt einer Dokumentation daherkommt. Er besteht
aus einem Reupload, der von einer rechten österreichischen Organisation unter dem Titel
„Die Wahrheit über die „Flüchtlingskrise“ | Unabhängig & Objektiv | Doku HD“ hochgela-
den wurde. Im Video lautet der Titel des Beitrags „Europa von Innen: Die Flüchtlingslüge“.
Derartige Umbenennungen werden verwendet, um von YouTube gesperrte Beiträge auf
der Plattform zu verbreiten.
Bei dieser sehr aufwändig produzierten Pseudodokumentation wird polarisierende Stim-
mungsmache gegen die Willkommenskultur in Deutschland im Sommer 2015 und vor
allem gegen das Management der „Flüchtlingskrise“ durch die Bundesregierung betrieben.
Außerdem werden die deutschen Medien scharf für ihre Berichterstattung über die „Asyl-
krise“ angegriffen, es wird ihnen Manipulation, Verklärung, Lüge und Täuschung vorgewor-
fen62. Vereinzelt finden sich auch abwertende Darstellungen und Stereotype über Flüchtlin-
ge, sowie eine sehr negative Darstellung von „linksextremen“ Gruppen, die auf der Seite der
Flüchtlinge stünden, ohne auf das Wohl ihrer Mitmenschen Rücksicht zu nehmen.
In dem Beitrag wird ein erheblicher Aufwand unternommen, um zu beweisen, dass die
deutschen Medien die Unwahrheit über die Flüchtlingssituation im Sommer 2015 berich-
tet hätten: „.. was sich nun in unseren Medien abspielt, ist eine neue Dimension der Verklä-
rung.“ (F5, 1:05). Das Video präsentiert sich selbst als unabhängiger, freier und kritischer
60 z.B. https://www.focus.de/politik/deutschland/dresdner-politikwissenschaftler-politischer-opportunismus-uni-trennt-sich-von-afd-experte-und-cdu-berater-patzelt_id_10207272.html
61 Wissenschaftliche Analysen zum Sender Russia Today (RT) kommen zu dem Ergebnis, dass es sich bei dem Kanal vorwiegend um ein Propagandainstrument des Kremls handelt, das o ft unterstellt,
dass die westlichen Medien nicht die Wahrheit sagen würden, z.B. „The idea that Western media lies is one of the main elements of RT’s agenda and significantly shapes the ideological foundation
of the channel“ […] „What we know from examining RT’s organizational behavior is that it indeed promotes an anti-West narrative through their daily news agendas.”
Elswah, M. & Howard, P.N. (2020): “Any thing that causes chaos”: The organizational behavior of Russia Today (RT). Journal of Communication, Volume 70, Issue 5, October 2020, S. 623–645
62 In diesem Zusammenhang lohnt es sich zu erwähnen, dass z.B. Wissenschaftler der Uni Mainz zu einem gegensätzlichen Ergebnis kommen, was die Berichterstattung der deutschen Medien in der
„Flüchtlingskrise“ betrifft: „Die Medienberichterstattung stellte die relevanten Fakten überwiegend korrekt dar“.
Maurer, M, Jost, P., Haßler, J. & Kruschinski, S. (2019): Auf den Spuren der Lügenpresse: Zur Richtigkeit und Ausgewogenheit der Medienberichterstattung in der „Flüchtlingskrise“. Publizistik, 64: S. 15
44
Journalismus und es werden etliche journalistische Techniken benutzt, um Glaubwürdig-
keit zu erzeugen: Korrespondenten berichten von diverse Hotspots der „Flüchtlingskrise“,
Augenzeugenberichte werden aus unterschiedlichen Perspektiven (z.B. Flüchtlinge, An-
wohner) eingefangen, es wird vor Ort recherchiert.
Die zentrale Botschaft des Videos ist, dass eine überzogene Willkommenskultur immer
mehr Flüchtlinge anlocke und diese dadurch in Gefahr bringen würde, obwohl die Bun-
desregierung im Management der Krise bereits versagt habe. Als Konsequenz würden die
Sozialsysteme überlastet, wodurch die deutschen Bürgerinnen und Bürger die Leidtragen-
den wären, wenn sie etwa durch Grenzschließungen Österreichs nun auch in ihrer Freiheit
eingeschränkt würden. Das Video arbeitet sich daraufhin an diversen Fällen des behördli-
chen Versagens ab und kritisiert die Bundesregierung massiv für angebliche Verfehlungen.
Zudem wird suggeriert, dass der „Wille des Volks“ im Kontext der „Flüchtlingskrise“ nicht
von der Bundesregierung wahrgenommen oder vertreten werden würde.
Die Aufnahmen vor Ort zeigen die Flüchtlinge, aber auch weitere Leidtragende der
„Flüchtlingskrise“. So kommen etwa Anwohner, die an Auffangstationen für Flüchtlinge
wohnen, zu Wort. Dabei wird suggeriert, dass dort, wo die Flüchtlinge sind, Schmutz, Ge-
walt, Unruhe, Kriminalität, Lärm und Gefahr vorherrschen würden. Darüber hinaus wür-
den die Anwohner von bedrohlichen linksextremen Gruppen behelligt, die sich zum
Schutz der Flüchtlinge immer wieder lautstark und pöbelnd dort versammeln würden. Er-
gänzend werden negative Darstellungen der Migranten gezeigt, die beispielsweise be-
trunken oder in bedrohlichen Massen auftauchen. Die Flucht nach Deutschland wäre zu-
dem wesentlich weniger schwierig als in vielen Medien dargestellt. Es wird beispielsweise
das Bild einer sehr alten Frau im Rollstuhl gezeigt, die sich unter den Flüchtlingen befindet.
Dazu sagt der Sprecher: „…Fünf Tage unterwegs, zwei davon in Wien, war nicht schwer das
Ganze. Klingt eher nach Urlaubsreise. Und wie gefährlich kann eine Reise sein, die selbst
diese alte Dame problemlos absolviert hat?“ (F5, 8:45-8:56).
Bei Video F4 handelt es sich um eine Art feuilletonistischen Beitrag: die Besprechung ei-
nes migrationsfeindlichen Buchs. Die weibliche Rezensentin stellt Autor und Werk vor,
man sieht sie vor einer Bücherwand und einem Transparent stehend. Das Format imitiert
den Stil einer Kultursendung im öffentlich-rechtlichen Fernsehen. Das Video erfüllt meh-
rere Funktionen: Es ist Eigenwerbung eines politisch rechts orientierten Verlags für das be-
treffende Buch, transportiert aber auch die polarisierende migrationsfeindliche Botschaft
des Buchs. Durch das Video sollen neue Zielgruppen angesprochen werden – z.B. aus den
gebildeteren Schichten und solche, die sich dafür halten. Das Buch, der Autor, der als „Ge-
burtstürke“ vorgestellt wird (F4, 1:54), sowie seine Botschaft, dass die von der Bundesre-
gierung geförderte Migration u.a. den Untergang der Mittelständler in Deutschland dar-
stellt, werden in der Buchbesprechung gelobt. Die Lektüre des Buchs wird empfohlen.
5
45
Covid-19-Pandemie
In der Stichprobe zum Thema Corona-Pandemie findet sich eine große Vielfalt an Protago-
nisten. Die Videos umfassen Einordnungen und Kommentare von einem ehemaligen Ma-
thematik- und Physiklehrer (C1), einem HNO-Arzt (C2), einem selbsternannten Lifecoach
(C3), einem selbsternannten Finanzmarkt-Experten (C4) und einem (ehemaligen) Journa-
listen (C5). Obwohl die Hintergründe der Protagonisten sehr unterschiedlich sind, kom-
men sie in den ausgewählten Videos alle zu einer ähnlichen Einschätzung: Der offiziellen
Bewertung der Corona-Krise durch die Bundesregierung und die deutschen Medien sei
nicht zu trauen, auch Behörden und Wissenschaftler sagten grundsätzlich nicht die Wahr-
heit über die derzeitige Situation63. Aufgrund ihrer Aktualität und der raschen Abfolge von
Entwicklungen sieht man vielen Videos an, dass diese verhältnismäßig schnell und in eher
niedriger Qualität produziert worden sind.
Ähnlich wie beim Klimawandel spielt auch bei der Kommentierung der Corona-Krise die
wissenschaftliche Bewertung der Ereignisse eine wichtige Rolle. Da es sich zu Beginn der
Corona-Krise im ersten Halbjahr 2020 jedoch um eine sehr dynamische Situation handel-
te, ist die Einordnung der wissenschaftlichen Korrektheit wesentlich uneindeutiger als
beim Klimawandel. In der Regel gab es zur Zeit der Produktion und Veröffentlichung der
Videos noch keinen breit geteilten wissenschaftlichen Konsens zur Informationslage über
das neuartige Coronavirus und die Erkrankung COVID-19. Die Lage der wissenschaftlichen
Ergebnisse, Befunde und Erkenntnisse dazu änderten sich laufend. Studienergebnisse
wurden zum Teil schon vor ihrer wissenschaftlichen Veröffentlichung in der Öffentlichkeit
diskutiert64.
In den untersuchten Videos herrscht jedoch einhellig die Meinung vor, dass die zum Bei-
spiel vom bundesbehördlichen Robert-Koch-Institut (RKI) veröffentlichten Daten zur Coro-
na-Pandemie falsch sind und nicht die tatsächliche Realität der Situation in Deutschland
widerspiegeln würden. Die von offizieller Seite bereitgestellten Daten, Zahlen, und Ver-
laufskurven werden in einer Reihe von Videos gezeigt und kommentiert (C1, C2, C3). Hier
werden sie zum Teil verbal (C1) oder auch visuell anschaulich (C2, C3) in Zweifel gezogen.
Im Video C3 hat der Protagonist des Videos zum Beispiel diverse Verlaufskurven auf
DIN-A4-Papier ausgedruckt und zum Teil von Hand Markierungen eingefügt. In verhältnis-
mäßig hoher Geschwindigkeit wird erklärt, warum diese Daten falsch wären. Für Laien ist
es vermutlich sehr schwer, den Wahrheitsgehalt der Aussagen zu bewerten. Da viele wis-
senschaftliche und medizinische Fachbegriffe, Daten, Graphiken und Zahlen verwendet
werden, entsteht in einigen Videos der Anschein einer wissenschaftlichen Auseinander-
setzung mit der Thematik.
63 Nocun, K. und Lamberty, P. (2020): Fake Facts. Wie Verschwörungstheorien unser Denken bestimmen. Köln: Quadriga, Kapitel 13
64 z.B. https://www.wissenschaftskommunikation.de/wer-kommuniziert-denn-da-38155/
https://www.wissenschaftskommunikation.de/open-science-aber-richtig-was-wir-aus-der-heinsberg-studie-lernen-koennen-40539/
https://www.wissenschaftskommunikation.de/corona-kommunikation-viel-licht-viel-schatten-40303/
5
46
Inhaltlich kommen die Protagonisten dieser Videos einhellig zu einer Einschätzung, die
der des RKI und der Bundesregierung diametral entgegengesetzt ist: Es wird behauptet,
es gäbe keine oder sehr viel weniger Corona-Tote als öffentlich angeben (C1), die Pandemie
sei bereits vorüber (C2), oder es gäbe keine überdurchschnittliche Sterblichkeit, so dass die
„Lockdown“-Maßnahmen der Bundesregierung sinn- und wirkungslos gewesen seien (C3).
Alle Videos suggerieren mehr oder weniger deutlich, dass es sich bei der Corona-Krise um
eine Verschwörung handle. Zwei Videos (C5, C3) stechen heraus, da sie eine umfassende
Erklärung dafür anbieten, wer hinter der Verschwörung steckt und was die Beweggründe
dafür sind.
Bei Video C5 handelt es sich um eine gespiegelte Version des Originalvideos, das vermut-
lich von YouTube gelöscht wurde. Das Originalvideo ist etwas verkleinert links unten im
Bild zu sehen. Über dem Video wurde rechts oben der Aufruf „Unbedingt TEILEN!“ ins Bild
montiert und rechts neben dem Video eine Foto-Montage eingefügt, in der Bill Gates als
finsterer Kapuzenmann zu sehen ist, an dessen Fingern die Bundeskanzlerin Angela Mer-
kel, Gesundheitsminister Jens Spahn, Virologe Christian Drosten und RKI-Präsident Lothar
Wieler als seine Marionetten hängen.
Im Video selbst ist ausschließlich der Protagonist des Videos zu sehen, hinter ihm eine Bü-
cherwand und die Titelseite des Deutschen Grundgesetzes. Gleich zu Beginn ruft er zur
weiten Verbreitung des Videos auf und versucht, Glaubwürdigkeit herzustellen: Er stellt
sich als Journalist und Inhaber eines Presseausweises mit 35-jähriger Berufserfahrung vor.
Insbesondere das deutsche Grundgesetz habe ihm ermöglicht, diesen Beruf in Deutsch-
land erfolgreich auszuführen. Es folgt das Narrativ, dass nun durch die Corona-Krise das
Grundgesetz in Gefahr wäre. Dahinter stecke die Bill und Melinda Gates Foundation, die
sich die Unterwerfung der Welt durch (Zwangs)Impfungen zum Ziel gesetzt habe. Durch
ihren enormen Reichtum wäre es Bill und Melinda Gates möglich, nicht nur die Weltge-
sundheitsorganisation (WHO), sondern auch sämtliche Impfprogramme und die deutsche
Bundesregierung dazu zu zwingen, verpflichtend Impfungen an den Bürgerinnen und
Bürgern durchzuführen. Es wird weiter behauptet, dass die Bürgerinnen ihre Grundrechte
verlieren würden, wenn sie sich der Impfpflicht widersetzen würden. Deshalb ruft der
Protagonist zum aktiven Widerstand auf.
Es wird weiter erklärt, die deutschen „GEZ und Konzernmedien“ würden den Pflichten des
professionellen Journalismus nicht nachkommen und die derzeit anstehenden Grund-
rechtsänderungen und viele weitere Missstände verschweigen, da sie ebenfalls bestochen
und gekauft worden wären65. Der Protagonist behauptet, dass man nur noch „Bürgerme-
dien“ wie seinem Kanal vertrauen könne, denn diese würden von den Bürgerinnen durch
„Crowdfunding“ finanziert (C5, 26:31).
65 Siehe hierzu auch die Videoinformation des Kanals, der das Video gespiegelt hat: „In diesem Themenmonat wird auch deutlich, dass die Mainstream-Medien ihren gesetzlichen Aufgaben bzw. ihrer
Kontrollfunktion nicht mehr nachkommen und sich regelrecht kaufen lassen.“
5
47
Das Video emotionalisiert stark. Der Sprecher redet schnell und umgangssprachlich, zum
Teil werden vulgäre Ausdrücke benutzt, um besondere Betroffenheit und emotionales En-
gagement sichtbar zu machen. Insbesondere werden immer wieder die besonders verletz-
lichen Kinder in Spiel gebracht, deren Zukunft bedroht wäre. Es werden Ängste geschürt,
viele widerlegte Unwahrheiten über Impfungen berichtet und auch historische Vergleiche
zur nationalsozialistischen Diktatur gezogen (heutzutage als „Gesundheitsdiktatur“).
Das Video mündet in einen emotionalen Appell, gegen die Corona-Schutzmaßnahmen
und die Bundesregierung zu demonstrieren und zu kämpfen. Hierbei wird, wie in vielen
weiteren Videos in der Stichprobe, ein dichotomes Freund-Feind-Schema propagiert: Man
dürfe sich nicht von außen spalten lassen, insbesondere von Fragen der politischen Aus-
richtung ob links oder rechts. Es gäbe einen gemeinsamen Feind, den man bekämpfen
müsse: die Bundesregierung, die die Bürgerinnen und Bürger verrate. Auch Beamte kön-
nen zu Freunden werden, wenn diese sich der Bewegung anschließen würden, ansonsten
würde sie sich mit schuldig machen.
Dieser Videoaufruf wurde im Netz sehr weit verbreitet und hat vermutlich zu einer Aus-
weitung der Teilnehmerschaft an Demonstrationen gegen Corona-Schutzmaßnahmen
geführt. Daraufhin haben sich einige Seiten und Reaktionsvideos ausführlich mit den un-
zähligen Unwahrheiten in dem Video auseinandergesetzt und diese richtiggestellt66.
Video C3 baut auf den Aussagen in Video C5 auf. Im Video sieht man einen Protagonisten
an einem Schreibtisch. Im ersten Teil des Videos werden die offiziellen Angaben zur Coro-
na-Krise in Zweifel gezogen. In Form der anekdotischen Beweisführung erzählt der Prota-
gonist etwa, dass er in einem großen Supermarkt die Kassiererinnen gefragt hat, ob sie
denn jemanden kennen würden, der oder die durch das Coronavirus erkrankt seien, was
diese verneinen. Daraus wird gefolgert, dass es so gut wie keine Erkrankungen dadurch
gäbe. Daraufhin wird eine Reihe von Behauptungen aufgestellt, die der wissenschaftli-
chen Sichtweise stark widersprechen, z.B. dass das Coronavirus künstlich in einem Labor
hergestellt worden wäre.
Der Protagonist geht hier vorsichtiger vor als derjenige in Video C5, da er die Behauptun-
gen immer anderen Akteuren in den Mund legt, unter anderem zwei Nobelpreisträgern.
Hinter den Lügen zum Coronavirus stecke die WHO, die wiederum von der Bill und Melin-
da Gates Stiftung bezahlt und gesteuert würde. Der Hintergrund wäre auch hier, dass Bill
und Melinda Gates die Unterjochung der Welt durch Impfungen planen würde und das
künstliche Virus wäre freigesetzt worden, so dass sich Pharmaindustrie und weitere Ak-
teure durch Bereitstellung eines Impfstoffs daran bereichern könnten. Auch in diesem Vi-
deo wird suggeriert, dass eine Impfpflicht kommen könnte, die zur Freiheitsberaubung
der Bürgerinnen und Bürger dienen könnte.
66 z.B. https://correctiv.org/faktencheck/2020/05/08/grosse-verschwoerung-zum-coronavirus-wie-ken-jebsen-mit-falschen-behauptungen-stimmung-macht/
https://www.swr3.de/aktuell/fake-news-check/faktencheck-ken-jebsen-kenfm-bill-gates-corona-100.html
Erwähnenswert ist hier beispielsweise ein Video von den FUNK-YouTubern Walulis , in dem der missbräuchliche Umgang mit journalistischen Quellen in diesem Video im Detail ausführlich dargestellt
wird. URL: https://www.youtube.com/watch?v=0EmH7hHaVNQ
5
48
Es folgt eine emotional gehaltene Tirade gegen das Impfen mit seinen vielen angeblichen
negativen Nebenwirkungen. Persönlich attackiert werden insbesondere Bill Gates, unter
anderem aber auch der Virologe Christian Drosten, der auch von Bill Gates gekauft sei. An-
stelle von Argumenten nennt arbeitet das Video mit Andeutungen, die vielen Wiederho-
lungen sollen aber sicherstellen, dass die Botschaft in den Köpfen der Zuseherinnen hän-
gen bleibt. Regelmäßig werden relativierende Nachsätze eingebaut, z.B. dass der YouTuber
sich selbst dazu keine Meinung anmaße, er kein Fachmann wäre.
Auch in diesem Video wird emotionalisiert und es werden Ängste geweckt. Durch zum Teil
vulgäre Sprache drückt der Sprecher seine (scheinbare) emotionale Empörung aus. Den in
der Szene bereits bekannten Falschmeldungen werden neue hinzugefügt. Die Videobe-
schreibung suggeriert dabei, dass es sich hierbei um Fakten handle67. Carsten Könneker68
schlägt zum besseren Verständnis der dynamischen Ausbreitung von Fehlinformationen
vor, derartiges Verhalten als „False News Value Effekt“ zu verstehen, der angewandt wird,
um die eigene Person durch die Verbreitung „überraschender“ und dem gesellschaftlichen
Konsens widersprechenden Neuigkeiten sozial zu erhöhen. Im letzten Teil des Videos wer-
den zum Abschluss die Bundesregierung und insbesondere Gesundheitsminister Jens
Spahns Expertise und Ausbildung verhöhnt und diskreditiert.
Die Ankündigung von YouTube, dass Falschinformationen über das Coronavirus, die der
Sicht der WHO widersprechen, zur Sperrung führen können, wird in einigen Videos the-
matisiert und als direkter Beweis für Betrug oder eine Verschwörung bewertet, denn nur
die Verschwörer und Betrüger hätten die Macht, eine derartige umfassende Zensurmaß-
nahme zu diesem Thema durchzuführen (C1, C2, C3, C5). Video C5 ist jedoch auch sechs
Monate nach der Veröffentlichung ohne Sanktionen in seiner Originalversion auf dem Ur-
sprungskanal zu sehen.
Bei Video C4 handelt es sich um einen leichten thematischen Ausreißer. In diesem als jour-
nalistischem Interview angelegten Video wird die Corona-Krise unter Gesichtspunkten
des globalen Finanzmarkts debattiert. Die Botschaft ist ähnlich eindeutig wie in den vor-
herigen Videos: Die Bevölkerung wird belogen und betrogen, bei der Corona-Krise handle
es sich um einen „finanz-faschistischen Coup und zwar international orchestriert“ durch
korrupte Finanzeliten und auch die WHO (C4, 0:11). Auch in diesem Video werden Ängste
geschürt und die Bevölkerung dazu aufgerufen, Vorräte anzulegen, da zum Beispiel die
Versorgung mit Medikamenten nicht mehr gewährleistet sei, oder sich auf erschreckende
Szenarien, wie etwa einen Bürgerkrieg, vorzubereiten. Die „Hysterie“ um Corona diene der
Enteignung der Bürger, um sie unter Kontrolle zu halten, die tatsächliche Gefahr ginge da-
bei nicht von einem Virus aus, sondern von einer korrupten internationalen Finanzelite,
die das globale Finanzsystem in der derzeitigen Endphase des Systems ausplündern wür-
de, und der Menschenleben dabei vollkommen gleichgültig seien.
67 „Diese neuen Fakten sind für Euch sehr WICHTIG! Bitte schreibt Eure Meinung in die KOMMENTARE und TEILT unbedingt dieses Video, damit möglichst viele diese Infos bekommen.“
68 Könneker, C. (2020): Wissenschaftskommunikation und Social Media: Neue Akteure, Polarisierung und Vertrauen. In: Schnurr, J. und Mäder, A. (Hrsg): Wissenschaft und
Gesellschaft: Ein vertrauensvoller Dialog - Positionen und Perspektiven der Wissenschaftskommunikation heute. Wiesbaden: Springer: S. 25-47.
5
49
Dieses Video wurde innerhalb von sieben Monaten mehr als zwei Million Mal angesehen,
was darauf hindeutet, dass verschwörungstheoretische und desinformative Videos auf
YouTube durchaus das Potential haben, sehr viele Menschen zu erreichen69. Diese Zahlen
können noch höher liegen, wenn Videos unter verschiedenen Versionen, Titeln oder Tags
auf unterschiedlichen Kanälen hochgeladen werden.
Interessant ist in diesem Zusammenhang auch die Selbstbeschreibung des Kanals, auf
dem dieses Video hochgeladen wurde:
Wir verstehen uns als Medium, das sich zur Aufgabe gestellt hat, Alternativen Meinun-gen
den Raum zu verschaffen, der im Mainstream oft fehlt. Wir sind ein notwendiger Teil der
freien Medien. Presse- und Meinungsfreiheit sind wichtige Säulen der Demokratie. Infor-
mationsvielfalt ist dafür Voraussetzung. Unsere Beiträge sind ein Angebot, Entwicklungen
innerhalb der Medien, Politik und Gesellschaft umfassend und vielseitig zu ergänzen. Un-
seren Interviewpartnern helfen wir, deren Einschätzungen und Thesen verbreiten können,
selbst wenn diese nicht unserer Meinung entsprechen. […] Investigativer Journalismus. Un-
abhängig. Kritisch. Kostenfrei - da durch euch crowdfinanziert!
(Selbstdarstellung YouTube Kanal Video C4)
Darunter folgt der explizite Aufruf, den Kanal finanziell zu unterstützen, sowie eine große
Bandbreite an möglichen Zahlungswegen.
In der Stichprobe präsentieren sich insgesamt acht Kanäle als „objektive“, „unabhängige“,
oder einfach nur „alternative“ journalistische Medienkanäle, die eine wichtige Gegenposi-
tion zu Darstellungen in den öffentlich-rechtlichen oder den „Mainstreammedien“ anbie-
ten würden (und dafür oft auch um Spenden aus der Bevölkerung bitten) (Verbreitungs-
kanäle der Videos K2, K3, F1, F2, F3, F5, C4, C5). Diese Videos und Kanäle, die für sich
reklamieren, Journalismus zu betreiben, werden in der Regel den Grundsätzen professio-
neller journalistischer Arbeit nicht gerecht. Im Umgang mit Quellen findet sich eine ein-
seitige und polarisierende Berichterstattung. Verwendete Quellen werden zwar angege-
ben, jedoch falsch, verzerrt oder auch extrem dekontextualisiert wiedergegeben (z.B. F2,
F3, C5). Dasselbe gilt für Videos, in denen dem Anschein nach wissenschaftlich argumen-
tiert wird, die vorgebrachten Argumente und Quellen gegenwärtigen wissenschaftlichen
Standards aber nicht entsprechen (z.B. K1, K2, K4, C1, C2).
Einheitliche Feindbilder
Insgesamt betrachtet lässt sich feststellen, dass bereits innerhalb der limitierten Stichpro-
be an desinformativen Videos eine große Bandbreite an Formaten, Stilen, rhetorischen
Strategien, Kanälen und Videoproduzenten vorzufinden ist. Betrachtet man abschließend
die oft stereotypisierten Feindbilder, die in den Videos geschaffen und angegriffen werden,
findet sich eine erstaunliche Verdichtung: 13 von 15 Videos attackieren die Bundesregie-
5
69 Dies ist selbst dann der Fall, wenn die Videos von YouTube gesperrt oder gelöscht werden, siehe: Knuutila, A.; Herasimenka, A.; Au, H.; Bright, J. & Howard, P.N. (2020): COVID-related misinformation on
YouTube. COMPROP Data Memo 2020.6, 21.09.2020.
50
rung (bzw. einzelne Politiker wie beispielsweise Bundeskanzlerin Angela Merkel oder Bun-
desgesundheitsminister Jens Spahn). Sieben von 15 Video greifen die öffentlich-rechtli-
chen Medien in Deutschland an, aber auch etablierte private Medien, die dann als
deutsche „Konzernmedien“ benannt werden. In sieben von 15 Videos werden wissen-
schaftlich arbeitende Organisationen (wie der Weltklimarat oder das Robert-Koch-Insti-
tut), aber auch individuelle Wissenschaftler (z.B. der Klimatologe Michael E. Mann, der
Ökonom Rajendra K. Pachauri oder der Virologe Christian Drosten) diffamiert. Sechs der 15
Videos zeichnen ein negatives stereotypes Bild von Migranten und fünf der 15 Videos dif-
famieren Organisationen und Individuen, die sich für den Klimaschutz engagieren (Greta
Thunberg und die Fridays for Future Bewegung). Durch die Corona-Krise werden zwei
neue Feindbilder geschaffen: Bill Gates, bzw. die Bill and Melinda Gates Foundation (3 Vi-
deos), und die WHO (3 Videos). Im Rahmen der „Flüchtlingskrise“ werden zudem „linksra-
dikale Gruppen“ (2 Videos) und Organisationen, die sich um Flüchtlinge kümmern (1 Vi-
deo), verleumdet.
Im Gegensatz zur großen Vielfalt von Formaten und Stilen von Desinformationen gibt es
also bezüglich der Feindbilder und Intentionen dieser Videos eine stärkere Einheit. Das be-
deutet, dass in diesen ein erheblicher Aufwand betrieben wird, um – auf unterschiedliche
Art und Weise und an verschiedene Zielgruppen adressiert – immer wieder die gleichen
Akteure anzugreifen. Das betrifft vorwiegend die Bundesregierung, öffentlich-rechtliche
und andere Medien sowie Wissenschaftler und wissenschaftliche Einrichtungen.
5.3 Akteure und Netzwerke hinter den potenziell desinformativen Videos
Die politische Ausrichtung und Gesinnung der Videos in der Stichprobe kommt vorwie-
gend aus dem politisch rechten Umfeld. Auch hier gibt es ein gewisses Spektrum an
rechtsgerichteten Positionen: von subtilen Aussagen und Beiträgen, die relativierend und
„durch die Blume“ rechtskonservative Ansichten und Weltbilder verbreiten und anschluss-
fähig machen (z.B. K3) bis hin zu Positionen, die mit rechtsradikalen Bewegungen sympa-
thisieren. So trägt einer der beiden Protagonisten in Video F5 ein T-Shirt mit dem Symbol
der Identitären Bewegung, die vom Bundesamt für Verfassungsschutz als „eindeutig
rechtsextremistisch“ eingestuft wird70.
Das Ausmaß von Aktivismus unterscheidet sich erheblich nach Thematik. Während in den
Videos zum Thema Klimawandel und Flüchtlingsdebatte vorwiegend zum Teilen der Vi-
deos und zu Spenden aufgerufen wird, wird in vier von fünf Videos zum Thema Covid-
19-Pandemie nachdrücklich gebeten, selbst aktiv zu werden. In drei Videos zu diesem The-
ma (C1, C2, C5) wird explizit dazu aufgerufen, an öffentlichen Demonstrationen gegen die
Corona-Schutzmaßnahmen und die Bundesregierung teilzunehmen und diesen Aufruf
weiter zu verbreiten. In einem weiteren Fall (C4) wird ein Weltuntergangsszenario herauf-
beschworen, Zuschauer werden in Folge dazu aufgefordert, sich mit Vorräten und Medika-
menten einzudecken und Geld in lebenserhaltende Dinge zu investieren, da dieses auf-
grund eines globalen und absichtlich herbeigeführten Finanzcrashs bald wertlos sein
70 z.B. https://www.zeit.de/politik/deutschland/2019-07/verfassungsschutz-identitaere-bewegung-rechtsextremismus-einstufung
5
51
würde. Im letzten Video (C3) zum Thema Corona-Pandemie wird gefordert, gegenüber
Äußerungen der Regierung, dem Robert-Koch-Institut und dem Virologen Christian Dros-
ten äußerst skeptisch zu sein, da diese lügen, um die Grundrechte der Bürgerinnen und
Bürger angeblich einzuschränken.
Am deutlichsten ist der Aufruf zum Aktivismus in Video C1, vor allem im zweiten Teil des
Videos. Der Produzent verweist in der Videobeschreibung auf Links außerhalb der YouTu-
be Plattform-Ökologie. Zum einen empfiehlt er seinen Kanal auf der Messenger Plattform
Telegram, die als unzensierter sicherer Hafen für Verschwörungstheoretiker aller Art, Ter-
roristen und Rechtsextreme gilt71. Außerdem wird zu einer privaten Website des Videopro-
duzenten verlinkt, auf der dieser erläutert, warum das Coronavirus nicht gefährlich sei, da-
für aber eine potenzielle Impfung gegen das Virus. Des Weiteren findet sich hier auch ein
Link zu einem Video auf der alternativen Videoplattform bitchute, die ebenfalls dafür be-
kannt ist, jedwede Inhalten, auch solche rassistischer, sexistischer und rechtsextremer Na-
tur, eine Heimat zu bieten, und sich so bewusst als unzensierte Alternative zu YouTube po-
sitioniert72.
Der Link der mit „WAS zu tun ist“ beschrieben ist, führt zu einem bitchute-Video mit dem
Titel: „KLARTEXT: JETZT ZEIGT, WIE ERNST ES EUCH IST! EINFACH NUR ZUHÖREN UND
LINKS BEACHTEN!“. In dem Video wird erklärt, wie die von Verschwörungsgläubigen als
„Schlafschafe“ betitelten Menschen, die bislang keinem Verschwörungsglauben anhängen,
davon überzeugt werden könnten, die „offizielle“ Sicht auf die Corona-Krise in Zweifel zu
ziehen und sie über die dahinterliegende Verschwörung „aufzuklären“. Unter dem Video
werden erläuternde Dokumente verlinkt, die von den Nutzenden ausgedruckt und weiter-
verbreitet werden sollen. Im Video heißt es dazu ausdrücklich, dass der Produzent hofft
und sich wünscht, dass sehr viele Menschen sich beteiligen.
Dieses Beispiel verdeutlicht einmal mehr, dass Desinformation nicht nur im Kontext einer
einzigen Plattform betrachtet werden muss, sondern es sich um ein transmediales Phäno-
men handelt, das viele unterschiedliche Medienplattformen und -kanäle betrifft. Eine
Regulierung von einzelnen Plattformen würde daher das Problem nicht lösen, sondern
lediglich auf andere Plattformen und Kanäle verlagern.
Die Produzentinnen und Produzenten der Videos in der Stichprobe sind zum Teil stark ver-
netzt und verweisen gegenseitig auf ihre Inhalte. Insbesondere unter den erfolgreicheren
YouTubern ist diese Praxis verbreitet, um die Abrufzahlen und den Bekanntheitsgrad ihrer
Inhalte zu steigern73. Verlinkung hilft den potenziell interessierten Zuschauern, die Videos
auch dann zu finden, wenn diese nicht vom YouTubes Algorithmus empfohlen werden.
71 z.B. https://www.br.de/nachrichten/netzwelt/messengerdienst-telegram-wo-die-verschwoerungstheorien-spriessen,S0HDUq1
72 z.B. https://www.rnd.de/medien/youtube-fur-nazis-was-ist-bitchute-55RQUWAMVNCZRJN5H5NOYBNM4U.html
https://www.independent.co.uk/news/uk/home-news/bitchute-far-right-youtube-neo-nazi-terrorism-videos-a9632981.html https://arxiv.org/abs/2004 .01984
73 https://sts.wisc.edu/wp-content/uploads/sites/328/2020/08/Chen-A-Critical-Appraisal-of-Diversity-in-Digital-Knowledge-Production-Segregated-Inclusion-of-Knowledge-Producers-on-YouTube.pdf
5
52
Die Videos in der Stichprobe teilen zudem auch ideologische Gemeinsamkeiten. Videopro-
duzenten, die den wissenschaftlichen Konsens zum Klimawandel nicht akzeptieren, ver-
weisen auf die Inhalte von anderen Kanälen, die ebenfalls behaupten, dass es keinen
menschengemachten Klimawandel gibt74. Junge rechte Influencerinnen und Influencer
verweisen gegenseitig auf ihre Inhalte und Aktionen75 und auch Verschwörungsgläubige
verweisen im Kontext der Corona-Krise ausdrücklich auf die Inhalte von anderen Kanälen,
die die Corona-Krise ebenfalls als Verschwörung darstellen.
Videos, die gegen die Richtlinien von YouTube verstoßen, können gelöscht werden, etwa
wegen Hassrede76 oder dem Verbreiten von medizinischen Fehlinformationen über das
neuartige Coronavirus und daraus resultierenden Krankheiten (COVID-19)77. Vernetzungs-
aspekte spielen auch hier eine wichtige Rolle, denn in etlichen untersuchten Videos wird
zur weiten Verbreitung und dem Teilen der Inhalte aufgerufen. Die Praxis, die jeweiligen
Videos abzufilmen, zu kopieren oder zu modifizieren und sie in unzähligen weiteren Versi-
onen und unter unterschiedlichen Titeln und Schlagworten auf YouTube wieder hochzula-
den, sorgt für den Fall, dass YouTube das Originalvideo löscht. Es handelt sich hierbei um
sogenannte Reuploads und die Praxis des Spiegelns von Videoinhalten, dem sogenannten
Mirroring. In einigen Videos wird ausdrücklich hierzu aufgerufen, um die von den jeweili-
gen Videoproduzenten als Zensurmaßnahme durch YouTube bezeichnete Einschränkung
zu umgehen (z.B. C2, C3, C4). In der Stichprobe finden sich zudem Videos, die nicht von den
Produzenten selbst hochgeladen wurden, sondern von anderen Kanälen, da die Originalvi-
deos von YouTube sehr wahrscheinlich gelöscht wurden (z.B. K4, F5). Oftmals werden auch
diese mit dem Aufruf versehen, diese weiter zu verbreiten und zu teilen: In Video C5 wur-
de dieser Aufruf beispielsweise fest als Bestandteil des Rahmens in das Video montiert.
Monetarisierung von Videos spielt zumindest in der Stichprobe vereinzelt eine Rolle, je-
doch lässt sich der genaue Anteil der durch vorgeschaltete Werbung monetarisierten Vi-
deos nur schwer bestimmen. Ein Grund dafür ist, dass in den Reuploads die Originalvideos
oft geschnitten wurden und so vor- oder zwischengeschaltete Werbung entfernt wurde
(z.B. in Video C5). Es gibt jedoch unzählige weitere Möglichkeiten, auf YouTube Geld zu ver-
dienen. Zum Beispiel dient eine Buchbesprechung als Marketingmaßnahme zum Verkauf
eines migrationskritischen Buchs (F4). In vielen Videos oder Videobeschreibungen wird
sehr ausdrücklich zu Spenden aufgerufen. Vergleichsweise oft finden sich Konto- oder
Paypal-Informationen, Links zu Profilen auf finanziellen Unterstützungsvermittlern wie
die Website Patreon, oder vereinzelt auch die Möglichkeit, Videoproduzenten direkt ano-
nym per Kryptowährung wie etwa Bitcoins oder Etherum finanziell zu unterstützen (z.B.
C4). Videokanäle, die Desinformationen verbreiten, scheinen zumindest in Teilen von einer
74 Hier ist beispielsweise darauf hinzuweisen, dass mehrere der Videos in der Stichprobe zum Thema Klimawandel (z.B. F2, F4) auf Beiträge des AFD-nahen Vereins EIKE verweisen, das den
wissenschaftlichen Konsens zum menschengemachten Klimawandel ab-lehnt und sich dabei als „wissenschaftliches“ Forschungsinstitut präsentiert:
z.B. https://www.sueddeutsche.de/politik/leugner-des-klimawandels-zweifelsfreie-zweifel-1.4695188
75 Rauchfleisch, A. und Kaiser, J. (2020): The German Far-right on YouTube: An Analysis of User Overlap and User Comments. Journal of Broadcasting & Electronic Media, 64:3, 373-396,
DOI: 10.1080/08838151.2020.1799690
76 https://support.google.com/youtube/answer/2801939?hl=de
77 https://support.google.com/youtube/answer/9891785
5
53
Unterstützergemeinschaft finanziell bezuschusst zu werden. Insbesondere für das poli-
tisch rechte Spektrum ist bekannt, dass Videoproduzentinnen und -produzenten auf You-
Tube von politisch motivierten und parteinahen Stiftungen, Vereinen und Organisationen
gefördert, finanziert und strategisch aufgebaut werden78.
Schon eine sehr limitierte Auswahl von desinformativen YouTube Videos weist darauf hin,
dass es eine große inhaltliche Vielfalt an Desinformation auf YouTube gibt. Es ist sehr
wahrscheinlich, dass sich in einer erweiterten Stichprobe weitere Ausprägungen finden
lassen. Dies deutet auf das Potential hin, auf YouTube ganz verschiedene Menschen mit
Desinformationen zu erreichen. Dass YouTube insbesondere von politisch rechten Akteu-
ren, Netzwerken und Verschwörungstheoretikern genutzt wird, um ihren Einfluss auszu-
weiten, wurde auch schon in der Vergangenheit oft kritisiert79. Offiziell wird von YouTube
immer wieder verlautbart, dass ein erheblicher Aufwand betrieben wird, um Fehlinforma-
tionen, Verleumdung und Hass auf der Plattform einzudämmen80, zuletzt insbesondere
zum Thema Coronavirus und Covid-1981. Gleichzeitig wurde aber festgestellt, dass Fehlin-
formationen zum Klimawandel82 oder zu Impfungen83 auf YouTube monetarisiert werden
können, so dass finanzielle Anreize zur Verbreitung von Desinformation gesetzt wurden.
Schon in dieser limitierten Stichprobe wurde zudem ersichtlich, dass manche der desinfor-
mativen Videos zwar gelöscht wurden, aber nach wie vor in unterschiedlichen Versionen
auf der Plattform verfügbar sind. Andere Videos, die gegen mehrere der Richtlinien von
YouTube verstoßen, sind seit dem Hochladen durch die Kanalbetreiber unbeschränkt ver-
fügbar und wurden nicht erkennbar sanktioniert. Das deutet darauf hin, dass die von You-
Tube angeführten Mechanismen zur Qualitätskontrolle nicht immer effektiv sind. Zum
anderen herrscht große Intransparenz darüber, welche Videos wann und warum sanktio-
niert werden und welche nicht, und auch welche Videos tatsächlich in der Praxis moneta-
risiert werden können und warum84. Vor diesem Hintergrund ist es zudem unwahrschein-
lich, dass Maßnahmen gegen die Verbreitung von „Desinformation“ auf einer einzelnen
Plattform wie YouTube für sich alleine erfolgversprechend sind. Viel eher handelt es sich
bei der Bekämpfung von „Desinformation“ um eine komplexe gesamtgesellschaftliche
Aufgabe, bei der jedoch den reichweitenstarken Online-Plattformen eine besondere Ver-
antwortung zukommt.
78 Stegemann, P. und Musyal, S. (2020): Die rechte Mobilmachung: Wie radikale Netzaktivisten die Demokratie angreifen. Berlin: Econ.
79 z.B. https://www.nytimes.com/column/rabbit-hole
Lewis, R. (2018): Alternative Influence: Broadcasting the Reactionary Right on YouTube. Data and Society Report. https://datasociety.net/library/alternative-influence/
80 z.B. https://blog.youtube/intl/de-de/inside-youtube/mein-halbjahres-update-fur-die-youtube-community/
81 z.B. https://blog.youtube/intl/de-de/news-and-events/youtube-weitet-faktenchecks-auf-deutschland-aus/
82 https://secure.avaaz.org/campaign/en/youtube_climate_misinformation/
83 Tokojima Machado DF, de Siqueira AF and Gitahy L (2020) Natural Stings: Selling Distrust About Vaccines on Brazilian YouTube. Frontiers in Communication 5:577941.
84 z.B. https://www.sciencemag.org/news/2020/11/antivaccine-videos-slip-through-youtube-s-advertising-policies-new-study-finds
5
54
YouTube bestimmt als audiovisuelles Informationsmedium immer mehr den alltäglichen
Medienkonsum, vor allem der jüngeren Bevölkerung. Als prinzipiell offenes soziales Netz-
werk, auf dem Inhalte größtenteils ohne vorherige Prüfung hochgeladen werden, können
auch desinformative Videos eine große Reichweite erreichen, was zuletzt Desinformati-
onskampagnen rund um die Corona-Krise eindrucksvoll gezeigt haben. Vor diesem Hinter-
grund hat sich die vorliegende Studie zum Ziel gesetzt, zu untersuchen, ob und wie durch
YouTubes Empfehlungsalgorithmen Desinformation gefördert wird. Gleichzeitig wurde
ein Augenmerk auf Vielfalt bei den empfohlenen Videos und deren Anbietern gelegt, um
die journalistische Qualität des Informationsangebots bei YouTube beurteilen zu können.
Als Untersuchungsfokus dienten die Themen Covid-19-Pandemie, Klimawandel und die
sogenannte „Flüchtlingskrise“, um Bereiche mit unterschiedlicher Aktualität und aus un-
terschiedlichen Themenfeldern mit einzubeziehen.
In der Studie wurde der Fokus vor allem auf den Empfehlungsalgorithmus gelegt, der in
der alltäglichen Nutzung von YouTube eine größere Rolle spielt. Im Allgemeinen wurde
dabei festgestellt, dass YouTubes Empfehlungen einige wenige Kanäle und Videos sehr
sichtbar machten, während die meisten anderen Angebote nur vereinzelt empfohlen
wurden. So wurden häufig dieselben Videos und Kanäle empfohlen, unabhängig vom
Thema der Startvideos. Im Anschluss an die Videos einiger Kanäle wurden außerdem
Videos desselben Kanals empfohlen, womit Nutzende zwar unterschiedliche Themen,
jedoch keine Anbietervielfalt entdecken konnten. Öffentlich-rechtliche und private
etablierte Medienanbieter scheinen dabei priorisiert zu werden. Diese Beobachtung
entspricht der offiziell Strategie von YouTube, seriöse Quellen hervorzuheben.
Betrachtet man die themenbezogenen Videos zu den drei untersuchten Krisen, so zeigte
sich, dass sich der Themenfokus immer weiter „verdünnt“, je weiter man den Empfehlun-
gen von YouTube folgt. Somit wurden vor allem Videos mit anderen Themeninhalten
empfohlen, wenn von einem Startpunkt mit Bezug zu den untersuchten Krisen ausgegan-
gen wurde. Die wenigen Videos über die Covid-19-Pandemie, den Klimawandel oder die
Fluchtbewegungen wurden von einigen wenigen Themenaspekten dominiert. Zudem
stand bei den meisten Videos jeweils nur eine Meinung im Vordergrund. Die untersuchten
Empfehlungen enthielten also eher wenige Inhalte, um sich zu den verschiedenen Aspek-
ten der untersuchten Krisen umfassend zu informieren.
Fazit und Handlungs-
empfehlungen
6
55
Desinformative Inhalte scheinen von YouTubes Empfehlungsalgorithmus nicht besonders
stark befördert zu werden – wenn auch trotzdem festzuhalten ist, dass Desinformation
vereinzelt in empfohlenen Videos auftaucht. Waren die Startpunkte der aufgezeichneten
Empfehlungsketten zu einem Drittel desinformierend, so fand sich insgesamt in nur sechs
Prozent der empfohlenen Videos Desinformation. Übertragen auf reale Nutzungsvorgän-
ge würde das bedeuten, dass selbst nach dem Abruf eines desinformativen Beitrags die
darauffolgenden Empfehlungen nur sehr wenige solche Videos enthalten. Bei den The-
men Covid-19-Pandemie und Klimawandel war dieser Anteil etwas höher. Dort war rund
jedes siebte empfohlene Video potenziell desinformativ. Die aufgezeichneten Empfehlun-
gen können allerdings die zum Teil sehr hohen Reichweiten einzelner desinformativen Vi-
deos nicht erklären. Hierzu scheinen andere Verbreitungsmechanismen zu wirken, die
plattformübergreifend wirken. Dementsprechend hatten einige desinformative Videos
sehr hohe Aufruf-Zahlen von mehreren Millionen. Einzelne desinformative Kanäle erhiel-
ten zudem sehr viele Empfehlungen, die auf andere Videos desselben Kanals verlinkten,
so dass hier Nutzende in eine potenzielle Desinformationsblase geraten könnten. Es fiel
zudem auf, dass Werbung vor desinformativen Videos scheinbar ohne Einschränkungen
geschaltet wurde.
Eine Auswahl der empfohlenen Videos wurde noch einmal intensiver auf Desinformation
untersucht. In diesem Zuge wurde die Klassifikation der Videoempfehlungen validiert und
als zutreffend bestätigt. Dabei wurde jedoch deutlich, dass man sich bei der Einstufung
von Videos als desinformativ nur bedingt auf Faktencheck-Artikel verlassen kann, da diese
nicht alle der kursierenden Falschinformationen prüfen können bzw. desinformative Vi-
deos häufig keine direkten Aussagen tätigen, sondern beispielsweise irreführende Zusam-
menhänge herstellen. Eine Prüfung der Videos nach deren Haltung zum wissenschaftli-
chen Konsens half bei der Klassifikation von Desinformation weiter.
Schließlich beschäftigte sich eine qualitative Inhaltsanalyse noch einmal tiefgehender mit
einer Auswahl der desinformativen Videos. Dabei trat eine große Vielfalt an Videoforma-
ten, Stilen, Genres und Anbietern zutage. Auch im Grad der Desinformation und dem dar-
an anschließenden Aufruf nach Aktivismus unterschieden sich die untersuchten Videos
deutlich. Vor allem beim Thema Flüchtlinge wurde eine größere Vielfalt an Formaten und
Botschaften festgestellt. Fast alle untersuchten Videos einte jedoch die dahinterstehende
Ideologie und deren Feindbilder. Die Akteure und Argumentationsstrategien lassen sich
überwiegend dem rechten Spektrum zuordnen. Die Videoproduzenten sind miteinander
oft gut vernetzt. Auch die Personen oder Gruppen, die in den Videos angegriffen werden,
ähneln sich durchgängig. Besonders häufig wurden die Bundesregierung, etablierte Medi-
en oder wissenschaftliche Akteure als Feindbilder präsentiert. Hiermit wird deutlich, dass
Desinformation auf YouTube weiter gedeiht und womöglich aufgrund ihrer vielfältigen
Erscheinungsformen schwer zu erkennen ist. Mit standardisierten Ansätzen lassen sich
diese zwar in den Empfehlungen einschränken, wie in dieser Studie gezeigt wurde. Jedoch
6
56
wird häufig erst durch eine intensive Auseinandersetzung mit dem Inhalt deutlich, ob
und warum es sich bei einem Video um Desinformation handelt.
Die Studie macht also deutlich, dass Desinformation ein ernstzunehmendes Problem
bleibt. Daran schließt sich nun die Frage an, wie auf desinformative Inhalte auf YouTube in
Zukunft reagiert werden sollte. Zwar arbeitet YouTube schon seit einigen Jahren an auto-
matisierten Erkennungsmechanismen, die desinformative Inhalte auf der Plattform iden-
tifizieren und sperren. Aufgrund der in dieser Studie festgestellten großen Vielfalt an des-
informativen Formaten ist diesen jedoch nur schwer automatisiert beizukommen,
weshalb diese Erkennungsalgorithmen weiter entwickelt und mehr Prüfschritte durch
Menschen eingesetzt werden müssen. Essenziell ist hierbei, dass YouTube bei der Weiter-
entwicklung der Algorithmen Transparenz gewährleistet und die Öffentlichkeit darüber
aufklärt, wie die Algorithmen arbeiten. Außerdem bleibt bisher oft unklar, was YouTube
genau aus welchen Gründen als Desinformation klassifiziert sowie warum manche Vi-
deos sanktioniert werden.
Diese Transparenz wird bisher nur in unzureichendem Maße hergestellt. Zwar veröffent-
licht YouTube Blogbeiträge, sowie regelmäßige Transparenzberichte nach dem europäi-
schen Verhaltenskodex zur Bekämpfung von Desinformation85, diese bleiben jedoch recht
abstrakt und gehen wenig auf die spezifische Arbeitsweise der Algorithmen oder auf die
dahinterliegenden Grundannahmen und Prioritätssetzungen ein. Somit bleibt nur das
„Reverse Engineering“ der Algorithmen, ähnlich wie in dieser Studie durchgeführt, um
mehr Informationen zu gewinnen. Außerdem kooperierte YouTube bislang wenig mit un-
abhängigen Wissenschaftlerinnen und Wissenschaftlern. Dementsprechend wird bei-
spielsweise von der Mozilla Foundation86 angemahnt, dass YouTube sich der Wissenschaft
gegenüber öffnen und freien Zugang zu Informationen hinter den Empfehlungsalgorith-
men gewährleisten solle. Nur wenn die Wissenschaft Zugang zu aussagekräftigen Daten
hat, aus denen sich repräsentativ großflächige Trends ablesen lassen, kann auch nachprüf-
bare Evidenz zu Empfehlungsalgorithmen zur Verfügung gestellt werden.
Überrascht hat in dieser Studie auch, dass desinformative Videos entgegen YouTubes Be-
teuerungen oft mit Werbung bespielt wurden87. YouTube verschafft diesen Akteuren also
teils lukrative Einnahmequellen und bestärkt sie möglicherweise weiter, mehr Content zu
produzieren. Eine Demonetarisierung von desinformativen Videos wäre ein erster Schritt,
um Desinformation weiter zu begrenzen. Der Empfehlungsalgorithmus scheint Desinfor-
mation erkennen und einschränken zu können, was in Bezug auf Werbung konsequent
weiter angewandt werden sollte. Auch Werbetreibende können diese Entwicklung beför-
dern, wenn sie zum Beispiel einfordern, dass ihre Werbung nicht vor desinformativen Vi-
6
85 Europäische Kommission: Code of Practice on Disinformation. https://ec.europa.eu/digital-single-market/en/code-practice-disinformation;
86 Geurkink, B. (2019): Our Recommendation to YouTube. https://foundation.mozilla.org/en/blog/our-recommendation-youtube/.
87 Zum Thema Impfgegner wurde in Brasilien ein ähnlicher Befund festgestellt: Tokojima Machado DF, de Siqueira AF and Gitahy L (2020)
Natural Stings: Selling Distrust About Vaccines on Brazilian YouTube. Front. Commun. 5:577941
57
6deos gezeigt werden darf. Die Wirtschaft kann somit selbst Druck auf YouTube ausüben,
die Ausspielung von Werbung entsprechend anzupassen.
Eine andere Strategie gegen die Verbreitung von Desinformation beinhaltet die Produkti-
on von passenden Formaten von etablierten, vertrauenswürdigen Akteuren. YouTubes Al-
gorithmen können nur auf das Material zugreifen, das sie auf der Plattform vorfinden.
Wenn also mehr qualitativ hochwertige Videos zur Verfügung stehen, werden diese auch
sichtbarer auf der Plattform und verdrängen zweifelhaftere Inhalte. YouTube selbst ver-
folgt seit einiger Zeit das Ziel, verlässliche Anbieter in den Empfehlungsalgorithmen sicht-
barer zu machen, weshalb sich diese beiden Strategien gut ergänzen würden. Somit rich-
tet sich auch ein Handlungsauftrag an die etablierten Medienanbieter sowie an die
Wissenschaftskommunikation, zielgruppen- und plattformgerechte Formate zu produzie-
ren, mit denen Desinformation indirekt bekämpft werden kann. Den öffentlich-rechtli-
chen Sendern ist dies mit ihrem Medienangebot funk bereits gelungen, das teilweise sehr
erfolgreich auf YouTube präsent ist. Dieses Angebot auszubauen und weitere Formate
auch für andere Zielgruppen anzubieten wird in den nächsten Jahren immer wichtiger
werden.
Neben der Produktion von qualitativ hochwertigen Inhalten muss Medienbildung, nicht
nur in jungen Bevölkerungsgruppen, weiter vorangetrieben werden. Die Kompetenz der
Bevölkerung, falsche von echten Nachrichten zu unterscheiden, kann am Ende den Aus-
schlag geben, ob Desinformation Auswirkung auf die Gesellschaft hat oder nicht. Die Fak-
tenchecker-Programme von Organisationen wie Correctiv oder öffentlich-rechtlichen Me-
dien wie die Tagesschau oder der Bayrische Rundfunk88 sind dabei ein wichtiger erster
Schritt, jedoch zeigen Untersuchungen, dass Debunking – also das Entlarven von Falschin-
formationen – viel weniger Verbreitung findet89 als Desinformation. Weitere Programme
im Bereich Medienkompetenz auf sozialen Netzwerken, auf die jeweiligen Zielgruppen
zugeschnitten, sind also weiterhin wichtig. Auch hier schließt sich jedoch weiterer For-
schungsbedarf an. Beispielsweise ist noch relativ unbekannt, wie Produzierende selbst
Journalismus und Quellen verstehen und benutzen, welche Inhalte sie damit produzieren
und wie die Rezeption von YouTube-Inhalten beispielsweise in Bezug auf Glaubwürdigkeit,
Nützlichkeit, Qualität oder Zusatzinformationen wie Verlinkungen aussieht.
Zuletzt stellt die Verbreitung von Desinformation auch eine Herausforderung für die Re-
gulierung dar. Im Bereich der klassischen Medien existieren bereits etablierte Rahmenord-
nungen und Gremien, wie z.B. der Deutsche Presserat, der die Einhaltung ethischer Stan-
dards und Verantwortung im Journalismus beaufsichtigt. Soziale Medien stellen die
Medienpolitik jedoch vor neue Herausforderungen, da deren Kommunikationsinhalte sich
nicht tradierten Kategorien zuordnen lassen. Mit dem neuen Medienstaatsvertrag sind ab
November 2020 alle Anbieter von journalistisch-redaktionell produzierten Onlineangebo-
ten zu politischen Themen verpflichtet, auf die Einhaltung journalistischer Sorgfaltspflich-
88 Siehe z.B. den BR24-Faktenfuchs oder den Tagesschau Faktenfinder.
89 Sängerlaub, A. (2017): Deutschland vor der Bundestagswahl: Überall Fake News?! Hg. v. Stiftung Neue Verantwortung.
58
6ten wie eine sorgfältige Recherche und Quellenauswahl zu achten (MStV, § 19).
Diese Regelung träfe zumindest auf einen Teil der in dieser Studie als desinformativ einge-
ordneten Kanäle zu, die sich selbst als journalistische Akteure darstellen, zu politischen
Themen Inhalte produzieren und diese teilweise durch Werbung finanzieren.
In der Praxis bleibt jedoch die Aufgabe weiterhin schwer, eine klare Grenze zwischen freier
Meinungsäußerung und Desinformation zu ziehen. Denn der Erhalt einer Vielfalt an Mei-
nungen und Perspektiven auf sozialen Medien sollte aus demokratietheoretischer Sicht
weiterhin oberstes Ziel der Regulierung sein.
59
Methodische Steckbriefe zu:
Phase I: Erfassung und Klassifikation von Empfehlungen Seite 61
Phase II: Quantitative Inhaltsanalyse inkl. Codeplan Seite 62
Phase III: Qualitative Inhaltsanalyse Seite 64
Anhang
60
Phase I: Erfassung und Klassifikation von Empfehlungen
Die YouTube-Empfehlungen (= nächstes Video sowie die weiteren unterhalb von diesem
angezeigten Videos in der rechten Spalte) wurden ausgehend von mehreren Startpunk-
ten zu den Themenfeldern „Flüchtlingskrise“, Klimawandel und Covid-19-Pandemie au-
tomatisch erfasst. Die Hälfte der Startpunkte umfassen thementypische Suchbegriffe,
die andere Hälfte sind bewusst gewählte Startvideos. Bei der Auswahl der Suchbegriffe
wurde darauf geachtet, dass möglichst alle relevanten Aspekte eines Themas abgedeckt
werden sollen. Die gewählte Suchbegriffe sollten darüber hinaus von Nutzenden oft ge-
braucht werden. Zu diesem Zweck wurden die Auswertungen von Google Trends mitein-
bezogen. Bei der Auswahl der Startvideos galt es zum einen eine große Vielfalt an Quel-
len zu berücksichtigen, also Medienanbieter, Kanäle von Privatpersonen und weitere
vorkommenden Kanaltypen. Zum anderen wurden bevorzugt populäre Kanäle gewählt,
die eine große Reichweite und viele Abonnenten haben. Ein Drittel aller Startpunkte -
also Suchbegriffe und Videos - waren zudem desinformativ, also entweder in Verschwö-
rungstheorien fest verankert wie z.B. Umvolkung oder Klimaschwindel, oder als Desin-
formation bereits durch Faktenchecks eingestuft. Insgesamt wurden 90
Empfehlungs bäume auf Basis von jeweils 15 Suchbegriffe und 15 Startvideos je Themen-
feld abgerufen. Der Datenabruf erfolgte zwischen 7. August 2020 und 24. August 2020
von unterschiedlichen Rechnern an den Standorten München und Augsburg. Die Erfas-
sung der Empfehlungen erfolgte durch einen durch Kantar Analytics modifizierten Web-
crawler mit einem anonymisierten Browser auf Basis des den Seiten zugrundeliegenden
Quellcodes.
Ergebnis war ein gerichteter Graph („Empfehlungsbaum“) je Startpunkt (Abb. 20). Zu
jedem Startpunkt wurden jeweils sieben empfohlene Videos abgerufen. Jeder dieser
Videos diente wiederum als Quellknoten für den erneuten Abruf. Insgesamt wurde eine
Suchtiefe von drei Ebenen umgesetzt. Pro Ebene wurden dabei 7 Videos erfasst.
Neben der eindeutigen Identifikationsnummer des Videos wurden Videotitel, Veröffentli-
chungsdatum, Kanal, Zahl der Abrufe, Zahl der Kommentare, Anzahl an Likes und Dislikes
sowie die Sprache des Videos auf Grundlage des Videotitels aufgezeichnet. In die weitere
Analyse wurden nur deutschsprachige Videos sowie Kanäle, die mindestens ein deutsch-
sprachiges Video veröffentlicht haben, einbezogen.
Die erfassten Videos wurden zusätzlich thematisch nach den drei Themenfeldern „Flücht-
lingskrise“, Klimawandel und Covid-19-Pandemie eingeordnet. Dafür wurde das Thema
auf Basis einer Schlagwortsuche mit thementypischen Ausdrücken identifiziert, um den
Empfehlungsbaum/Netzwerk ausgehend von desinformativem Startpunkt
(Corona Schiffmann)
54
Abb. 20: Schematische Darstellung eines Empfehlungsbaums
61
Themenbezug der Videos zu den drei Themenfeldern zu bestimmen. Zusätzlich wurden
Videos, die mindestens fünf Mal empfohlen wurden, auf Grundlage der Kanalinformation
klassifiziert. Die Kanäle wurden dabei als öffentlich-rechtliche Kanäle, private Medienan-
bieter, Kanäle von Privatpersonen, Kanäle von Institutionen, Organisation und Unterneh-
men sowie Kanäle mit „potenziell desinformativem Charakter“ einstuft. Letztere wurden
nach stichprobenartiger Sichtung der veröffentlichten Videos eines Kanals als möglicher-
weise desinformativ sowie unter Einbezug zusätzlicher Ressourcen wie z.B. Recherchen
von Faktenprüfern eingeordnet.
Phase II: Quantitative Inhaltsanalyse
Aus den erfassten Videos wurden insgesamt 210 Videos, 70 Videos pro Themenfeld, zur
manuellen Vercodung ausgewählt. Die Auswahl wurde im ersten Schritt nach festgeleg-
ten Quoten und innerhalb der Quoten im zweiten Schritt nach der Anzahl der Aufrufe
getroffen.
Über alle Themen bestand ein Drittel der ausgewählten Videos aus Beiträgen, die als
potenziell desinformativ klassifiziert waren. Die restlichen Videos waren als wahrschein-
lich unbedenklich eingestuft. Innerhalb dieser Gruppe wurden die Videos so gewählt, dass
die verschiedenen Kanaltypen entsprechend der Verteilung in allen erfassten Empfehlun-
gen in den gleichen Anteilen vorkamen. Die Unterschiede in der Verteilung der Kanalty-
pen pro Themenfeld wurden dabei berücksichtigt.
Die Videos wurden von drei Coderinnen und Codern vercodet, wobei pro Krise jeweils ein
Themenspezialist bestimmt wurde. Zur Überprüfung der Reliabilität der Codierung wurde
zu Beginn ein kleines Sample von allen Projektmitarbeitenden vercodet, die
errechneten Reliabilitätswerte waren zufriedenstellend. Die 210 Videos wurden im
September 2020 nach dem untenstehenden Codeplan vercodet. Faktenchecks wurden
beispielsweise auf Correctiv.org oder dem Tagesschau-Faktenfinder abgelesen. Zur Ein-
schätzung des wissenschaftlichen Konsenses wurde unter anderem die Bundeszentrale
für politische Bildung oder das Umweltbundesamt zurate gezogen.
Covid-19-
Pandemie
Klimawandel Flüchtlinge
Öffentlich-rechtliche Anbieter 15 13 15
Private Medien 15 5 21
Privatpersonen 31 45 21
Institutionen und Unternehmen 9 7 13
Tab. 4: Anzahl der ausgewählten Videos pro Kanaltyp und Krise
62
V1 Quelle
Journalistisch-redaktionelle
Medien
11 Öffentlich-rechtlich (inkl. funk)
12 Private Medien, inkl.
Bürgermedien und offene Kanäle
21 Politische Akteure
und Institutionen
22 Zivilgesellschaft / NGO
23 Unternehmen
24 Sonstige Organisationen
31 Privatpersonen/native Formate
32 Promis/Musiker
99 Sonstige Kanäle
V2 Monetarisierung
1 Werbung als Pre-Roll oder
Unterbrecherwerbung
eingeschaltet
2 Eigene Werbung innerhalb
des Videos
3 Keine Werbung eingeschaltet
V3 Themencodierung zu Covid-19-Pandemie
10 Problemdefinition
11 Medizinische Informationen
12 Entstehung/Ursprung
20 Folgen/Auswirkungen
21 Zahlen zur Ausbreitung und Prognosen
für Deutschland
22 Vergleich mit Verlauf in anderen Ländern
23 Nicht-medizinische Auswirkungen
der Pandemie
30 Maßnahmen
31 Individuelle Vorbeugemaßnahmen
32 Politische Maßnahmen
33 Medizinische Maßnahmen
34 Proteste gegen Maßnahmen
99 Sonstige Subthemen
V4 Themencodierung zu Klimawandel
10 Problemdefinition
11 Ursachen für Klimawandel
12 Aktuelle Situation in Deutschland
20 Folgen/Auswirkungen
21 Klima- bzw. umweltbezogene Folgen
22 Gesellschaftliche, wirtschaftliche,
politische und weitere den Menschen
betreffende Folgen
Codeplan der quantitativen
Inhaltanalyse
30 Maßnahmen
31 Politische Maßnahmen
32 Energiewende/erneuerbare Energien
33 Mobilitätswende
34 Haushalt/Alltag/Konsum
35 Landwirtschaft
36 Umweltschutz
37 Sonstige Handlungsempfehlungen
38 Proteste gegen Klimaschutzmaßnahmen
39 Proteste für Klimaschutzmaßnehmen
99 Sonstige Subthemen
V5 Themencodierung zu Flüchtlinge
10 Problemdefinition
11 Fluchtursachen/-gründe
12 Kriminalität/Gewalt
13 Einzelschicksale
20 Folgen/Auswirkungen
21 Auf der Fluchtweg nach Deutschland
22 Flüchtlingslager/-heime
23 Sonstige Folgen
30 Maßnahmen
31 Flüchtlingshilfe/Seenotrettung
32 Asylantrag/-prozess/-erfolg, Asylrecht
33 Abschiebung/Rückkehr
34 Weitere politische Maßnahmen
35 Politische Reaktionen inkl. Demos
36 Integration/Leben in Deutschland
99 Sonstige Subthemen
V6 Meinungsvielfalt
1 Eine Meinung präsentiert
2 Zwei verschiedene Meinungen präsentiert
3 Mehrere verschiedene Meinungen
präsentiert
4 Keine Meinung präsentiert
V7 Desinformation: Inhalte
Sonderfall Satire und Debunks: Codierung
nach Absicht/Intention
1 Überwiegend Unterstützung des
wissenschaftlichen oder gesellschaftlichen
Konsenses
2 Überwiegend Ablehnung/Leugnung
des wissenschaftlichen oder
gesellschaftlichen Konsenses
3 Unentschieden/ausgewogen
V8 Desinformation: Factchecking
1 Von Factcheckern geprüfte und als
falsch eingestufte Aussage
2 Aussagen (noch) nicht von
Factcheckern geprüft
V9 Desinformation: Journalistische Kriterien
Experte genannt
Quellenverweis
Mehrere Quellen genannt
Sachlicher Stil/Trennung von Fakt
und Meinung
Verschiedene Positionen kommen zu
Wort, Kennzeichnung von Werbung,
Sponsoring, Verantwortlichen oder
Interessenskonflikten
0 trifft nicht zu
1 trifft zu
Abschließende Bewertung
Auf Basis der Codierung von V7-V9
1 Keine Desinformation
2 Video mit potenziell irreführenden
Inhalten
3 Desinformation
4 Nicht eindeutig bewertbar
63
Phase III: Qualitative Inhaltsanalyse
Alle als potenziell desinformierend bewerteten Videos aus Phase I wurden gesichtet.
Fünfzehn Videos, die ein breites Spektrum an Themen und Formaten abbilden, wurden
zur weiteren detaillierten qualitativen Einzelfallanalysen ausgewählt.
In der detaillierten Einzelanalyse wurden ausgewählte Dimensionen wie Inhalt, poten-
zielle Zielgruppe, Gesinnung und Ton des Videos, Professionalität, Selbstbeschreibung,
Vernetzungsaspekte, Aufruf zu Aktivismus, Art und Grad der Desinformation und Ste-
reotype und Feindbilder fokussiert. Jedes der fünfzehn Videos (jeweils fünf pro Thema)
wurden von zwei geschulten Codierern unter Vorgabe von zu berücksichtigenden Di-
mensionen mehrfach gesichtet. Zur weiteren Analyse wurde ein Memoing-Forschungs-
design87 auf die Forschungsfrage, wie sich Desinformationen in YouTube Videos zu drei
unterschiedlichen Krisenthemen abbilden, angepasst: Dabei wurden detaillierte Noti-
zen zu jeder ausgewählten Dimension verschriftlicht, diese Notizen wurden in einem
weiteren Schritt vom jeweils anderen Codierer überprüft und in einem dritten Schritt in
einer gemeinsamen Überprüfung durch beide Codierer validiert, bis keine weiteren
Notizen und Erkenntnisse mehr hinzugekommen sind.
Das Dokument mit den Notizen zum Video wurde durch die Metadaten (Veröffentli-
chungsdatum, Zahl der Views, Zahl der Kommentar etc.) zu jedem Video und weiteren
Umfeldanalysen und Recherchen zu jedem Video (z.B. Kanalinformation und Hinter-
gründe, thematische Recherche und Bewertungen, Factchecks) ergänzt. Ein finales Do-
kument, dem ausgewählte Screenshots vom Video sowie ein automatisch generiertes
Transkript des Videos hinzugefügt wurde, bildete die Grundlage für die qualitative Ana-
lyse, sowie den Vergleich der Videos untereinander und die abschließende Bewertung.
87 Birks, M., Chapman, Y., and Francis, K. (2008): Memoing in qualitative research: probing data and processes. Journal of Research in Nursing, 13, 68–75. Allgaier, J. (2019): Science and
Environmental Communication on YouTube: Strategically Distorted Communications in Online Videos on Climate Change and Climate Engineering. Frontiers in Communication, 4:36.
64
Liste der analysierten Videos
Coronakrise (C1 – C5)
C1: Corona ist besiegt, Bestatter in Kurzarbeit. Warum?
Es wird weniger operiert (Kanal: MaPhy)
C2: Das Ende der Pandemie ... Bodo Schiffmann (Kanal: friesensteinTV)
C3: BITTE IMPFT MICH! (Kanal: Jürgen Höller)
C4: Ernst Wolff: #Corona und der herbeigeführte Crash (Kanal: eingeSCHENKt.tv)
C5: Ken FM: Bill Gates kapert Deutschland | Grossdemo Berlin am 1.8.20 |
Corona Panikmache Widerstand (Kanal: Nicola Steiner Westernreiten)
Klimakrise (K1 – K5)
K1: CLIMATE CHANGE - Just hot air..? - Part 1 (Kanal: Naomi Seibt)
K2: Die Greta-Frage: Klimakrise oder Panikmache? (JF-TV Interview mit
Sebastian Lüning) (Kanal: Junge Freiheit Verlag)
K3: Wieso schaden Klimaschützer der Umwelt? (Kanal: Tamara Wernli)
K4: Pariser Gipfel Die Klimalüge in 15 Minuten widerlegt, Oliver Janich
(Kanal: lothar lange)
K5: Gretas Hilferuf und deutscher Klimawahn | Laut Gedacht #142
(Kanal: laut gedacht)
„Flüchtlingskrise“ (1F – 5F)
F1: 500 Migranten jagten Deutsche! Die verschwiegenen Hetzjagden
von Köln (Kanal: Deutschland Kurier)
F2: „Flüchtlingskrise“: Studie entlarvt deutschen Nanny-Journalismus
(Kanal: RT Deutsch)
F3: Die MASSENMIGRATION aus Afrika wird kommen (Kanal: Neverforgetniki)
F4: »Umvolkung« – Ellen Kositza bespricht Akif Pirinçci! (Kanal: kanal schnellroda)
F5: Die Wahrheit über die „Flüchtlingskrise“ | Unabhängig & Objektiv | Doku HD
(Kanal: Österreichische Alternative)
65
Impressum
Herausgeber
Medienanstalt Berlin Brandenburg (mabb)
Kleine Präsidentenstraße 1
10178 Berlin
Tel.: +49 30.264 967 0
Fax: +49 30.264 967 90
mail@mabb.de
www.mabb.de
In Kooperation mit der Senatskanzlei Berlin, der Bayerischen Landeszentrale
für neue Medien (BLM), der Landesanstalt für Medien NRW und
der Medienanstalt Rheinland-Pfalz
Projektumsetzung
Dr. Sophia Schmid (Kantar, Public Division)
Wissenschaftliche Beratung und Umsetzung der qualitativen Memoing-Analyse
Dr. Joachim Allgaier (RWTH Aachen)
Koordination und inhaltliche Begleitung
Dr. Gergana Baeva (Medienanstalt Berlin Brandenburg)
Book
Full-text available
Journalists and editors who create content for social networks must align their workflows and their content with the conventions and logic of the platforms they use. Characteristics of platformization can be identified here. As contributors to the platforms, they become dependent on technical infrastructures and algorithms. How strong is the influence of platformization on Public Service Media journalism? This is the core question I am dealing with in this study. The empirical part of the study uses guided interviews to investigate the extent of the influence of platformization on journalistic action and editorial decisions in public service media editorial offices. The second aspect is devoted to the management of public service media interests in platform environments. A core thesis of the study is that public service media organizations must actively manage this field of innovation, also to ensure their future legitimacy in this area. PSM need a digital media ethics as well as new models of distributing public value content on commercial platforms and developing public service algorithms on their own platforms.
Article
Full-text available
Diversity is essential for democratic opinion-building. Ideally, the media provides a wide range of information and opinions on relevant social and political issues, on the basis of which citizens can form their own opinions. For media policy, it is therefore important to prevent certain groups or individuals from gaining too powerful an influence on opinion-building. The working paper reflects on the multidimensional concept of diversity from the perspective of communication science and considers its anchoring in democratic theory, derives initial ideas for benchmarks for the normative determination of optimal diversity from considerations of democratic theory, discusses the effects of media intermediaries on diversity, and concludes by showing how algorithmic recommendation systems can be theoretically designed to make a positive contribution to diversity.
ResearchGate has not been able to resolve any references for this publication.