In Algorithm we trust: Studie zum YouTube-Algorithmus

In Algorithm we trust: Studie zum YouTube-Algorithmus

Wie funktionieren Empfehlungen bei YouTube in Krisenzeiten? Werden bei Themen wie „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ desinformierende Videos empfohlen oder ermöglichen die Empfehlungen vertiefend informierte Meinungsbildung?

Diese Fragen untersucht die neue Studie „Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?“ der Medienanstalt Berlin-Brandenburg (Mabb), der Senatskanzlei Berlin, der Bayerischen Landeszentrale für neue Medien (BLM), der Landesanstalt für Medien NRW und der Medienanstalt Rheinland-Pfalz.

Anzeige

Anhand von systematischen Videoaufrufen wurde im Rahmen der Studie erforscht, inwieweit die nicht personalisierten Empfehlungen von YouTube dazu beitragen, dass Nutzerinnen und Nutzer auf Quellen und Informationen hingewiesen werden, die journalistische Sorgfaltspflichten einhalten und von wissenschaftlichem Konsens unterstützt werden.

„Die gute Nachricht ist: Der YouTube-Empfehlungsalgorithmus ist kein Desinformations-Katalysator. Lediglich sechs Prozent der empfohlenen Inhalte, die untersucht wurden, stammen aus potenziell desinformierenden Kanälen“, so Mabb-Direktorin Dr. Anja Zimmer.

Sie sagt: „Gleichzeitig deutet unsere Studie darauf hin, dass der Algorithmus selten Nischenangebote oder Themen vertiefende Inhalte empfiehlt. Etablierte Medienanbieter werden überdurchschnittlich oft sichtbar gemacht.“

In Algorithm we trust: Studie zum YouTube-Algorithmus
In Algorithm we trust: Studie zum YouTube-Algorithmus

Und weiter: „Dieser Aspekt sollte im Rahmen des Engagements zur Sicherung und Förderung von Meinungsvielfalt auf Medienplattformen diskutiert werden, da noch deutliches Potenzial für mehr Vielfalt in den Plattformen steckt. Die Herausforderung ist, den Nutzerinnen und Nutzern die Vielfalt der Informationsangebote und Perspektiven besser zu präsentieren. Und dabei noch weniger Desinformation zu empfehlen.“

Die wichtigsten Ergebnisse der Studie:

– YouTubes-Empfehlungsalgorithmus präsentiert kaum desinformierende Inhalte. Bei den kontrovers diskutierten Themen „Covid-19“, „Klimawandel“ und „Flüchtlinge“ als Startpunkt der Untersuchung wurden nur sechs Prozent der Videos, die der Algorithmus anschließend empfohlen hat, als potenziell desinformierend eingestuft.

– Gleichzeitig enthielten nur insgesamt elf Prozent der erfassten Empfehlungen Videos zu den als Startpunkt gewählten Themen „Covid19“, „Klimawandel“ und „Flüchtlinge“.

– 69 Prozent aller erfassten Empfehlungen bewerben Videos von nur 61 Kanälen. Diese umfassen viele öffentlich-rechtliche und etablierte private Medienanbieter. Auf Nischenprogramme und Inhalte weniger bekannter Anbieter wird sehr selten hingewiesen.

Die Studienergebnisse deuten somit darauf hin, dass YouTubes Empfehlungen weniger der inhaltlich vertiefenden, als vielmehr einer thematisch breiten Information der Nutzerinnen und Nutzer anhand etablierter Medienangebote und -anbieter dienen. Desinformatives bleibt oft außen vor.

PR Agent als Leser*in unterstützen?Besuchen Sie unser Bezahlangebot.
News verpasst? Unser Tipp: Den Updates von @PRAgentMedia in Social Media folgen.

© Fotos: Christian Wiediger (1), NordWood Themes (1), Unsplash / Quelle: BLM

Themen: , ,