Meinungsmacht durch Social Media

18.03.2022, ein Beitrag von

Meinungsmacht durch Social Media

Ruth Meyer, Direktorin Landesmedienanstalt Saarland

Facebook, Instagram, TikTok, Twitter, WhatsApp, YouTube, Xing und viele mehr – was vor 20 Jahren mit Knuddels und StudiVZ, mit regionalen Communities wie Gesichterparty oder thema­tischen Gruppen à la Netmoms begann und darauf ausgelegt war, Kontakte zu pflegen und gelegentlich alltägliche Informationen oder Fotos auszutauschen, hat sich längst gewandelt zu inhaltlich ausdifferenzierten, technisch feingetunten und digital multipel vernetzten Platt­formen, über die sich ganze Generationen zentral informieren, unterhalten und darstellen. Kein anderes Medium zuvor ist auch nur annähernd mit den Möglichkeiten dieser Kommunika­tionsplattformen vergleichbar, etwa was die Breite des Zugangs, das Verbreitungstempo oder die Reichweite anbelangt. Einfach, günstig, schnell und dank mobiler Endgeräte überall rund um die Uhr verfügbar. Damit haben die sogenannten „Sozialen Medien“ eine völlig neue Dimension für die Meinungsbildung eröffnet, die grundsätzlich überaus positiv zu bewerten ist.

Hinter Social Media, Blogging-Plattformen und Instant Messangern verbirgt sind aber auch eine Milliardenindustrie, die mittels Abonnements und Werbung, durch Klicks und Teilen, dank Algorithmen und Cookies innerhalb kürzester Zeit Informationen, Meinungen und Produkte gezielt und weltweit streuen bzw. abrufen kann. Zweifelsohne prägen diese Medien in hohem Maße und zunehmend die Meinungsbildung in unserer Gesellschaft. Und zweifelsohne sind sie ebenso hochinteressant für modernes Marketing wie für Manipulationsstrategien. Daher ist es wichtig, Fakten und Funktionalitäten rund um Social Media gezielt zu beschreiben, zu kontrollieren und zu regulieren und damit sicherzustellen, dass hier – analog der linearen Medien – Meinungsvielfalt gewahrt wird und gegebenenfalls Maßnahmen zur Entflechtung und Vielfaltsicherung greifen, um vorherrschende Meinungsmacht abzubauen.

Die Bezeichnung „Soziale Medien“ ist in vielfacher Hinsicht unzutreffend – der Charakter von Kommunikationsplattformen, ihrer Funktionsweisen und ihres Contents ist weitgehend alles andere als sozial, also gemeinnützig, tolerant oder feinfühlig. Nicht zuletzt bestätigen Studien wie die der Nichtregierungsorganisation Reset.tech[1]; genauso wie die Enthüllungen der Whistleblowerin Frances Haugen im Oktober 2021, wie wenig z.B. Facebook/Meta gegen Hass, Hetze und radikale Agitation auf seiner Plattform unternimmt. Und auch die Bezeichnung „Medien“ ist nur im weiteren Sinne zutreffend, stellt sie doch auf die Vermittlungsfunktion ab und wäre daher adäquater mit dem Fachbegriff „Medienintermediäre“ beschrieben. Die vorliegende Ausarbeitung verwendet verschiedene Begriffe parallel im beschriebenen Sinne. Sie gibt einen Überblick über aktuelle Daten und Studien und ordnet diese unter dem Gesichtspunkt der Meinungsmacht ein.

 

1. Repräsentanz in Social Media

Mehr als die Hälfte der Weltbevölkerung nutzt Social Media – das vermeldete der Branchen­dienst blog2social Anfang 2021[2]. Damit hat die Bedeutsamkeit von Social Media im Jahr 2021 ein neues Höchstmaß erreicht. Unstrittig ist, dass diese Medien unsere Meinung beeinflussen können. Aber wie wird wer hier beeinflusst? Die Frage beantworten aktuelle Nutzungsstatis­tiken und -entwicklungsstudien.

Laut Branchendienst WeAreSocial/Hootsuite[3] nutzten Anfang 2021 4,2 Milliarden Menschen rund um den Globus Facebook, Twitter & Co. – ein Plus von 1,3 Millionen pro Tag. Auch in Deutschland stieg die Anzahl der Social-Media-Nutzer:innen 2021 im Vergleich zum Vorjahr um 13 % auf 66 Millionen.[4] Das entspricht laut D21 Digitalindex 2020 einem Wert von mehr als drei Viertel der deutschsprachigen Bevölkerung.[5] Erstaunlich ist die Anzahl der Social Media-Accounts: durchschnittliche Deutsche verfügen über sechs verschiedene Konten und sind dort in der Regel eine Stunde und 24 Minuten pro Tag aktiv. WhatsApp und Facebook gehören mit 11,7 und 11,5 Stunden pro Monat zu den Plattformen mit der längsten Verweildauer. Auf Instagram verbringen die User im Schnitt 7,6 Stunden pro Monat.

Ein Blick auf die Zahl der monatlichen Nutzer:innen in Deutschland verrät, dass Facebook mit 32 Millionen vorne liegt, gefolgt von Instagram mit 21 Millionen. XING wird von 16 Millionen Personen aktiv genutzt, Pinterest von 13 Millionen und Reddit von 12,9 Millionen. Darauf folgen Twitter mit 12 Millionen und Telegram mit 7,8 Millionen Nutzer:innen.[6] Je älter, desto geringer ausgeprägt ist der Umgang mit Social Media. WhatsApp, YouTube und Facebook liegen bei Menschen jeglichen Alters vorne. Instagram ist nur bis zu einem Alter von ca. 50 Jahren relevant. Bildung und Berufstätigkeit sind weitere entscheidende Nutzungsfaktoren: Formal höher Gebildete sowie berufstätige Personen nutzen Social-Media-Angebote überdurchschnittlich stark.[7]

Laut aktueller ARD/ZDF-Online-Studie 2020[8] sind 94 % der deutschen Bevölkerung ab 14 Jah­ren zumindest gelegentlich im Internet unterwegs, das entspricht 66,4 Millionen Personen und einem Zuwachs von 3,5 Millionen. Die tägliche Zeit, die die Menschen im Netz verbringen, lag 2020 Jahr bei 204 Minuten (plus 11 Minuten).

Interessant werden die Zahlen im Hinblick auf Meinungsmacht, wenn man einen Blick auf die Nutzung des medialen Internets wirft. Dies beinhaltet z.B. das Ansehen von Videos, das Hören von Audios, Podcasts, Radiosendungen oder Musik über Streaming-Dienste, das Lesen von Zeitungen und Zeitschriften im Internet sowie das Lesen von Texten auf Onlineangeboten von Fernsehsendern und Social-Media-Angeboten. Laut ARD/ZDF-Online-Studie 2020 haben sich sowohl die Tagesreichweiten und die Nutzungsdauer um 6 Prozentpunkte im Vergleich zum Vorjahr gesteigert: 120 Minuten (plus 21 Minuten) täglich werden im Schnitt Videos, Audioin­halte oder Artikel im Netz konsumiert. Mittlerweile gibt die Hälfte der Befragten an, am Tag mindestens ein mediales Onlineangebot zu nutzen. Bei den 14- bis 29-Jährigen sind dies jedoch bereits neun von zehn Befragten, was einem Plus von 10 Prozentpunkten im Vergleich zu 2019 entspricht.

Und noch etwas ist sticht ins Auge, wenn man die Ergebnisse des Reuters Institute Digital News Report 2021[9] analysiert: Zwar sind die Nachrichten des linearen Programmfernsehens der am weitesten verbreitete Zugangsweg, um sich über das aktuelle Geschehen zu informieren, aber für immerhin 40 % (2020: 38 %) der Gesamtbevölkerung stellt das Internet bereits die Haupt­nachrichtenquelle dar und 10 % nennen Social-Media-Angebote als wichtigste Ressource (2020: 11 %). Im Internet kommen 31 % der erwachsenen Onliner am ehesten in Sozialen Medien mit Nachrichteninhalten in Kontakt. In der Altersgruppe der 18- bis 24-Jährigen sehen, lesen oder hören 52 % Nachrichten in Sozialen Medien.

Bereits 4 % der erwachsenen Onliner vertrauen auf Soziale Medien als alleiniger Ressource für Nachrichten; unter den 18- bis 24-Jährigen sind es schon 8 % – Tendenz steigend. Im Detail bezieht diese jüngere Kohorte ihre Nachrichten aktuell zu 25 % über Instagram, es folgen Facebook (18 %), WhatsApp (17 %) und YouTube (16 %). Die Hauptgründe für die nachrichten­bezogene Nutzung von Social Media sind individuell sehr unterschiedlich. Für Facebook gibt fast ein Drittel der Befragten an, Nachrichten dort überwiegend deshalb zu sehen, weil man unterwegs ist. Für die Nutzer:innen von Instagram stellen Nachrichten am ehesten eine kurzweilige und unterhaltsame Möglichkeit des Zeitvertreibs dar – dass somit viele Jungwähle­r:innen nur äußerst oberflächlich mit journalistischer Berichterstattung in Berührung kommen, ist ein bedenkliches Datum. Twitter-Nutzer:innen interessiert an Nachrichten vorwiegend die Diskussion und Kommentierung derselben. Durch aktives Liken oder Kommentieren beteiligt sich an der Nachrichtenberichterstattung in Social Media jedoch lediglich ein vergleichsweise geringer Anteil. Dabei ist zu beobachten, dass Nutzer:innen, die sich selbst im linken oder rechten Teil des politischen Spektrums verorten, anteilig eher Artikel teilen und kommentieren als Nutzer:innen, die sich der politischen Mitte zugehörig fühlen[10] – d.h., extreme Positionen bestimmen Reichweite und Diskurs überproportional.

 

2. Psychologie der Sozialen Netze

Sich anderen mitzuteilen, Freud, Leid und Lebenserfahrung zu teilen, zählt seit jeher zu den Triebfedern menschlicher Kommunikation. Teilnehmer:innen Sozialer Netzwerke per se einen narzisstischen Selbstdarstellungsdrang zu unterstellen, erscheint somit überhöht. Dennoch ist evident, dass die Mehrzahl der Posts im Netz sehr privaten und lapidaren Inhalts sind und allzu oft vorwiegend Neugierde und Voyeurismus befriedigen, darüber hinaus jedoch kaum meinungsbildende Relevanz entfalten.

Entlang der Maslowschen Bedürfnispyramide lassen sich vier psychologische Hauptgründe dafür ausmachen, dass Menschen auf Sozialen Netzwerken aktiv sind: Selbstverwirklichung, Wertschätzung, Liebe und Sicherheit.[11] Zudem spielen in diesem Zusammenhang zunehmend finanzielle Aspekte eine gewichtige Rolle mit Blick auf die enormen Verdienstmöglichkeiten, die sich etwa für Influencer:innen durch die digitalen Netze auftun. Werbung ist insbesondere auf Plattformen wie Instagram der hervorstechendste Inhalt.[12] Und auch außerhalb des professionellen Influencertums wird mancher Livestyle- oder Meinungstrend offensichtlich vorwiegend deshalb gepostet, um für sich selbst zu werben und die eigene „Marke“ zu stärken.[13] Wissen wir seit der Frauenbewegung der 1970er Jahre „Das Private ist politisch“, gilt für viele Social-Media-Nutzer:innen „Das Private ist öffentlich“ oder sogar „Das Private ist beruflich.“

Dass Likes, Kommentare oder Retweets die Ausschüttung von Dopamin anregen und ihr Ausbleiben entzugsähnliche Symptome nach sich zieht, ist ein vielfach beschriebener neuronaler Effekt.[14] Dies erklärt, warum unsere meisten Onlineaktivitäten allein darauf zielen, Aufmerksamkeit zu erzeugen. Als ebenso relevante Motivation sind soziale Vergleichsprozesse einzustufen: Gerade die meist mit Tools und Filtern bearbeiteten Fotos im Social Web stoßen solche Vergleiche an, die in der Folge zwangsläufig meist negativ ausfallen. Auch das hohe Maß an Zeit, die Menschen in Sozialen Netzwerken zubringen, sowie die damit verbundene Reiz­überflutung, verändern unser Verhalten und können psychische Krankheiten, insbesondere Depressionen, befördern.[15] Und nicht zuletzt ist die als FOMO (fear of missing out) betitelte Angst, in den Sozialen Netzwerken etwas zu verpassen, während man dort einmal nicht unterwegs sein kann, ein Medienphänomen unserer Zeit.

Das sogenannte „Clickbaiting“ stellt eine Manipulation dar, die sich die Psychologie der Sozialen Netzwerke zu Nutze macht, indem z.B. durch spektakuläre Schlagzeilen oder das unerlaubte Verwenden von Fotos Prominenter Seitenzugriffe und Klicks geködert werden. Dass Clickbaiting Persönlichkeitsrechte verletzt, hat Anfang 2021 der Bundesgerichtshof moniert.[16] Auch wurde Derwesten.de wegen massivem Clickbaiting vom deutschen Presserat mehrfach gerügt. Leser:innen werden hier mit unwahren Inhalten auf Seiten gelockt, um Werbeeinnahmen und Datenabgriffe zu generieren. Der Presserat erkannte in der Gestaltung der Überschriften eine Verletzung der journalistischen Sorgfaltspflicht nach Ziffer 2 des Pressekodex.[17] Solche Formen der Irreführung und Desinformation sind zwar kein Problem der Gattung Social Media per se, sondern vielmehr des Contents und der medialen Gestaltung. Die Frage, was eine Plattform zulassen darf und wo sie bzw. die Medienaufsicht einschreiten müssen, verdient daher weitere Diskussion und Konkretisierung. Dies verlangt nicht zuletzt auch der Medienstaatsvertrag.

Nicht zu verkennen ist im Jahrzehnt der zunehmenden sozialen Vereinsamung unserer Gesell­schaft, dass Zeitvertreib und Austausch wichtige positive Effekte sind, die Soziale Medien entlang der Quail’schen Bedürfniskategorien – Information, Unterhaltung, Integration, soziale Interaktion und persönliche Identität – erfüllen.[18] Und jenseits aller psychologischen Phäno­mene kann man nicht hoch genug schätzen, wie sehr politische Haltungen, Diskussionen und Proteste in Sozialen Netzwerken wirksame und demokratierelevante Plattformen finden, die auch unbekannten Einzelpersonen Gehör und Einfluss verschaffen und das Meinungsspektrum insgesamt enorm erweitern. Kampagnen wie oder wären ohne Social Media nicht denkbar gewesen. Und namentlich politische Widerstandsbewegungen in repressiven Staaten sind auf digitale Austauschplattformen geradezu angewiesen.

Jedoch bleibt: Das Leitprinzip der Social-Media-Logik ist die Generierung von Aufmerksam­keit. Dies wird an der Häufigkeit der Interaktion zwischen Nutzenden und Inhalten in Form von Klicks, Reaktionen, Teilen und Kommentaren gemessen. Die Tatsache, dass diese Benutzer­reaktionen wiederum die Sichtbarkeit des jeweiligen Beitrags in den Newsfeeds anderer beein­flussen, führt zu einem sich selbst verstärkenden Zyklus: Je mehr Interaktion, desto höher die Sichtbarkeit in der Zukunft.[19] Diese Mechanismen erleichtern Manipulations- und Desinforma­tionsbestrebungen.

 

3. Algorithmen – Fluch oder Segen?

Auswahl, Sortierung und Präsentation der Informationen, die wir über Social Media erhalten, werden im Kern durch Algorithmen geregelt. Sie passen die Inhalte an die im Internet dokumentierten Interessen und Vorlieben jedes Benutzers und jeder Benutzerin an. Diese Personalisierung kann etwa auf der Nutzungshistorie, auf abonnierten Kanälen, Cookies, Likes und Kommentaren beruhen, aber auch auf Ortsangaben und Verhaltensdaten (z.B. Aktivitäts- und Ruhezeiten). Diese Daten und Analysen bilden die Grundlage der Geschäftsmodelle der großen Technologiekonzerne. Je treffender die Annahmen über die Interessen der User:innen, umso länger wird die Verweildauer auf der Plattform sein. Die Nutzenden schätzen in aller Regel solche personalisierten Angebote, weil sie aus ihrer Sicht praktisch und bequem sind und ihnen relevante Inhalte liefern.

Noch wissen wir zu wenig über die Funktionsweise und Tragweite dieses algorithmischen Gatekeeping-Prozesses. Die Betreiber geben wenig über die Formeln hinter ihren Gates preis. Daher ist die Forschung darauf angewiesen, aus den Ergebnissen unterschiedlicher Suchanfra­gen retrograd über sogenanntes „Reverse engineering“ auf die zugrundeliegenden Funktionen rück zu schließen. Dies mit möglichst detailliert personalisierten Accounts zu tun, sollte zumin­dest einen Teil der fraglos komplexen und zunehmend selbstlernend konzipierten Mechanis­men transparent machen. Erste Studien widmen sich etwa den Empfehlungsalgorithmen, die z.B. bei YouTube beeinflussen, welche Angebote den Nutzenden angezeigt werden[20]. Diese auf nicht-personalisierten Accounts beruhende Untersuchung zeigte unter anderem, dass von desinformativen Startpunkten ausgehende Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte enthielten, also solche, die von neutralen Startpunkten ausgingen.[21]

Die Entschlüsselung der algorithmischen Auswahllogiken ist so bedeutsam, weil die digitali­sierte Kuratierung von Nachrichten eine Bedrohung für unsere Demokratie darstellen kann. Ideologien und extreme Sichtweisen aller Art können algorithmengetrieben zum Kern einsei­tiger Informationsumgebungen werden. Filterblasen und Echokammern verdienen daher das anhaltende Augenmerk der Medienforschung und -regulierung, bergen sie doch die Gefahr, ganze Bevölkerungsgruppen – gezielt oder kollateral – von einer demokratierelevanten Vielfalt von Standpunkten abzukoppeln. Eine politische Polarisierung durch gezieltes Agenda-Setting in homogenen Netzwerken, gepaart mit der Emotionalisierung von in- und out-groups ist mit den Mechanismen von Social Media beispielhaft zu bewerkstelligen, funktioniert offensichtlich besonders gut an den politischen Rändern. Stark und Stegmann konstatieren: „The entire process leads to an overrepresentation of radical viewpoints and arguments in the political discourse. At this point during the opinion formation process, individuals are more vulnerable to being influenced by `fake news´ on Facebook or Twitter. Thus, strategic disinformation  cannot  only  influence  the  media’s  agenda through specific agenda-setting effects but can also impact the public’s climate of opinion.“[22] Über strategische Desinformation und politisches Microtargeting kann ein verzerrtes Bild des Meinungsklimas gezielt an anfällige Einzelpersonen gesteuert werden, die bereits Tendenzen zu randständigen Positionen und Weltanschauungen zeigen.

Die Monetarisierung der Plattformen in Verbindung mit Werbung und Relevanz tangiert denn auch den professionellen Journalismus. Wenn innerhalb der Sozialen Medien jeder einzelne Beitrag im Newsfeed um Aufmerksamkeit kämpft, verleitet dies denkbar stärker als im Print­bereich zu polarisierenden und reißerischen Botschaften.

Noch haben wir die Möglichkeit, gegenzusteuern, denn: Aufgrund der Tatsache, dass unser Informationsrepertoire immer noch weit verteilt ist, passen wir unser Weltbild an, lassen gegensätzliche Meinungen zu und sind relevanten gesellschaftlichen Fragen ausgesetzt.[23]

 

4. Manipulation von Profilen

Social Media haben ihren Kern in der peer-to-peer-Kommunikation, setzen auf Persönlichkeit, „Freundschaft“ und Vertrauen. Dem steht entgegen, dass Tag für Tag Batterien von Social Bots, also Computerprogramme, die automatisiert bestimmte Aufgaben erfüllen, mit Fake-Profilen falsche Identitäten erzeugen und trügerische Relevanz generieren. „Ein Social Bot oder Troll Bot ist ein Agent, der mehr oder weniger autonom in sozialen Medien kommuniziert, oft mit der Aufgabe, den Diskussionsverlauf und/oder die Meinung seiner Leser zu beeinflussen. (…). Meinungs-Bots in sozialen Netzwerken können auch menschliche Identitäten in Fake-Accounts vortäuschen.“[24]

Mittels kostenloser Software im Netz gelingt es leicht, Social Bots zu programmieren, die nicht nur Spam, Viren und Werbung in den Netzwerken verbreiten, sondern sich auch bei bestimmten Keywords mit vorgefertigten Kommentaren in Beiträge einschalten. In Zeiten von Facebook, Twitter und Instagram steht die Möglichkeit der großflächigen Beeinflussung der öffentlichen Meinung durch automatisierte Programme, die sich als Menschen ausgeben, somit theoretisch jedem zur Verfügung. Künstliche Meinungsmache durch falsche Posts, Likes und Tweets stellen deshalb eine zunehmende Herausforderung für Regierungen, Organisa­tionen und Unternehmen dar.[25] Algorithmengesteuerte Ereignisketten verfälschen die Kommunikation im Netz, und greifen mit der gezielten Streuung von Falschmeldungen massiv auch in Wahl- und Meinungsbildungsprozesse ein. Diese gezielte technische Verbreitung von Desinformation in Sozialen Netzwerken ist alles andere als eine Bagatelle und zeigt Wirkung. Dass Donald Trump die Wahl 2016 auch dank russischer Manipulationen für sich entschieden hat, gilt inzwischen als erwiesen und steht auch für deutsche Wahlen zu befürchten. Fake-Profile, Trollarmeen, Phishingmails und virtueller Rufmord spielen im Zuge solcher Angriffe auf die Demokratie eine toxische Rolle.[26]

Bereits 2018 sprach Instagram von 95 Millionen Bot-Accounts in seinem Netzwerk – damit war jeder zehnte Account ein fake. Dieses Phänomen ist also alles andere als neu. „Trotzdem gelingt es den Sozialen Netzwerken nicht dauerhaft, die unechten Profile schon frühzeitig zu erkennen und zu löschen. Vielmehr entdecken Facebook, Twitter und Co. eine Lücke, schließen sie, löschen teilweise Millionen von unechten Profilen, um wenige Tage später mit einer neuen Schwachstelle zu kämpfen.“[27]

Seit kurzem informiert Facebook/Meta in monatlich erscheinenden „Coordinated Inauthentic Behavior Reports“ darüber, was das größte Soziale Netzwerk der Welt gegen koordinierte Bemühungen, die öffentliche Debatte für ein strategisches Ziel zu manipulieren, unternimmt. Demnach hat Facebook von Januar bis Juni 2021 40 Manipulations-Netzwerke entfernt. Dabei wurden insgesamt 6.980 Facebook- und 1.473 Instagram-Accounts gelöscht. Im Juni 2021 richteten sich die Maßnahmen gegen Netzwerke im Irak, Iran, Jordanien, Algerien, Sudan, Mexiko und Äthiopien.[28]

Was kann man über die Selbstreinigungsprozesse der Plattformen hinaus tun? Unternehmen und Parteien legen sich zunehmend Selbstverpflichtungen auf, keine Social Bots einzusetzen. Und der Medienstaatsvertrag sieht nach § 18 Abs. 3 MStV klare Kennzeichnungspflichten vor. Dabei haben die Medienanstalten Transparenz und Sorgfalt insbesondere dort zu überwachen, wo es um die Erstellung und Verbreitung von Informationen, Nachrichten oder Propaganda geht und dabei menschliches, für die öffentliche Meinungsbildung relevantes Verhalten durch technische Hilfsmittel initiiert oder vorgetäuscht wird.

 

6. Manipulation von Meinung

Wir wissen, dass das Social Web längst die maßgebliche Quelle im individuellen Meinungs­bildungsprozess Vieler, vor allem Jüngerer, darstellt. Wie sehr die persönliche Beurteilung der Glaubwürdigkeit von Social Media dabei für Desinformation entscheidend ist, hat nicht zuletzt die Coronapandemie offenbart. So hat eine Untersuchung des Bayerischen Forschungsinstituts für digitale Transformation (bidt) gezeigt, dass Menschen, die Social-Media-Informationen – im Gegensatz zu Internetseiten oder linearen Medien – für relevant halten, für Verschwörungs­theorien deutlich empfänglicher sind und eher glauben, dass Impfen gegen Corona nicht hilft.[29]

Ebenso ist evident, dass Soziale Medien zur Polarisierung beitragen können, indem sie ein verzerrtes Bild des Meinungsklimas forcieren: Spiralförmige Prozesse, in denen die Stärke des eigenen Meinungslagers im Vergleich zu denen anderer Lager überbewertet wird, führen zu einer Überrepräsentation radikaler Standpunkte und Argumente im politischen Diskurs.[30] Die Aussage der Whistleblowerin Frances Haugen, dass es Teil der Unternehmensstrategie von Facebook, dem weltweit größten Online-Netzwerk sei, gezielt Gräben zu vertiefen und die Wut seiner Nutzer:innen anzustacheln, um Gewinne zu steigern, ist ein Hinweis darauf, dass gesellschaftliche Polarisierung nicht nur Ergebnis von marktgetriebenen und algorithmen­gesteuerten Auswahlprozessen in Social Media ist, sondern dass sie von Beginn an einkalkuliert und gezielt programmiert wird. Meinung wird im Umfeld Sozialer Medien also nicht nur durch Information und Austausch gebildet, sie wird auch systematisch manipuliert.

Automatisierte Prozesse spielen dabei eine zentrale Rolle. Über Algorithmen und Künstliche Intelligenz klassifizieren und steuern Suchmaschinen und Empfehlungsfunktionalitäten unsere Interaktionen. Fabian Buder, Head of Future and Trend Research beim Nürnberg Institut für Marktentscheidungen, nennt dies „Augmented Desicions“.[31]

Dies machen sich populistische Parteien genauso wie repressive Staaten mit dem Ziel der Destabilisierung unseres politischen Systems zu Nutze. So verbreiten führende AfD-Politi­ker:innen eher Meldungen, in denen wichtige Fakten missinterpretiert oder manipuliert wurden und die mit einem „Angstnarrativ“ versehen sind.[32] Durch beide Aspekte steigt die Verbreitungswahrscheinlichkeit. Dass auf Twitter falsche Neuigkeiten mit einer um 70 % höheren Wahrscheinlichkeit verbreitet werden, als wahre Inhalte, belegen US-Studien.[33] Die Bedeutung von Populismus für Desinformation beschreiben Steinebach et. al. wie folgt: „Ein großer Teil der Fake News im deutschsprachigen Raum enthält populistische Argumentations­muster. Darüber hinaus beinhalten populistische Fake News oftmals einen besonders hohen Anteil von falschen Tatsachenbehauptungen. Meist wird dabei nicht nur das Volk oder der Volkswillen glorifiziert, sondern es werden zusätzlich noch Minderheiten oder Eliten diffa­miert.“[34]

Die Medienanstalten und ihre Kommission für Zulassung und Aufsicht (ZAK) haben darüber hinaus ein besonderes Augenmerk auf Rundfunkanbieter und Programme, die aus demokratie­feindlichen Systemen heraus gezielt das Meinungsklima in Deutschland beeinflussen könnten.

Desinformationskampagnen zu verhindern, ohne das Recht auf freie Meinungsäußerung zu gefährden, ist eine der dringendsten Herausforderungen unserer Demokratie. Eine Regulie­rung von Desinformation ist möglich! „Oberste Priorität hat dabei der Schutz der Meinungs­freiheit und (…) das Prinzip der Staatsferne. Die Angst vor staatlicher Einflussnahme bleibt eine der größten Befürchtungen, wenn es um die Reaktion auf Falschmeldungen geht. Und blickt man vor allem auf einen Akteur aus dem außereuropäischen Ausland[35], scheint das auch nicht unbegründet zu sein. Eine Regulierung von Desinformation, die zum Ziel hat, freie und unabhängige Meinungsbildung zu ermöglichen, kann nicht durch staatliche Maßnahmen durchgesetzt werden“, forderte Dr. Tobias Schmid, Direktor der Landesanstalt für Medien NRW und Europabeauftragter der Medienanstalten im Rahmen der Veranstaltung „Safeguarding Freedom – Balancing Rights“[36]. Dies wurde auch von den Vertreterinnen der EU-Kommission, EU-Vizepräsidentin Věra Jourová und ihrer Kabinettschefin Renate Nikolay bekräftigt. Sie betonten die wichtige Rolle der staatsfern organisierten Medienaufsicht beim Kampf gegen Desinformation.[37]

Mit der Überprüfung der Einhaltung journalistischer Sorgfaltspflichten in Telemedien (§ 19 MStV) hat der Gesetzgeber den Medienanstalten ein erstes Instrument gegen Desinformation an die Hand gegeben. Dabei überprüfen die Medienanstalten, ob Inhalte journalistisch-redaktionell gestalteter Telemedien korrekt recherchiert, aggregiert und erstellt wurden. Für die Abwägung zwischen der Meinungsfreiheit Einzelner und dem Schaden, den Desinformation verursachen kann, gilt der Grundsatz: „Im Zweifel für die Meinungsfreiheit.“ Um dem gesell­schaftlich relevanten Problem der Desinformation entschlossen zu begegnen, haben sich die Medienanstalten der Länder auf folgenden abgestuften Regulierungsansatz verständigt:

  1. Gewährleistung von Transparenz als Basis freier Meinungsbildung

Eine wesentliche Voraussetzung im Meinungsbildungsprozess ist es, eine Äußerung einer Person oder Institution zuordnen zu können. Dies ermöglicht die Einordnung in einen Kontext, unterstützt das inhaltliche Verständnis und gibt Hinweise auf die Relevanz einer Äußerung. Häufig wird hierüber jedoch durch die Nutzung falscher Namen, Daten und demographischer Angaben oder Identitätsdiebstahl getäuscht. Dem ist der Gesetzgeber mit der Etablierung einer Kennzeichnungspflicht für automatisiert erstellte Inhalte in sozialen Netzwerken bereits begegnet (§ 18 Abs. 3 MStV). Diese Vorschrift kann als Orientierungspunkt für weitere Trans­parenzpflichten dienen. Größtmögliche Transparenz bei öffentlichen Kommunikationspro­zessen fördert faire und chancengleiche Meinungsbildung.

  1. Einhaltung von Sorgfaltspflichten

Sorgfaltspflichten nehmen das bei der Erstellung von Informationen und Nachrichten zugrunde gelegte Handwerk in den Blick. Sie können inhaltsneutral angelegt und überprüft werden. Diese Pflichten müssen insbesondere für die Kommunikation derer gelten, denen durch ihre Funktion im öffentlichen Diskurs eine besondere Glaubwürdigkeit zukommt – etwa staatlichen oder staatlich finanzierten Stellen oder Accounts und Profilen mit besonderer Reichweite.

  1. Verbot manipulativer Verbreitungstechniken

Der Diskurs in einer demokratischen Gesellschaft muss Vieles aushalten. Das gilt jedoch nicht für strafbare oder illegale Äußerungen. Auch sind falsche Tatsachenbehauptungen von der Meinungsfreiheit nicht gedeckt. Gleiches soll zukünftig für den Einsatz von massenhaften und automatisierten intransparenten Verbreitungstechniken gelten. Diese sind in der Regel ausschließlich darauf ausgerichtet, Nutzer:innen zu täuschen und die öffentliche Meinungs­bildung gezielt zu manipulieren. Hierbei werden die Grundsätze der Transparenz bewusst missachtet. In diesen Fällen überwiegt die Bedeutung der öffentlichen Meinungsbildung.

Im Kampf gegen Desinformation wäre eine Verständigung auf Europäischer Ebene auf wirk­same Vorgaben und Verpflichtungen ein scharfes Schwert. Den Medienanstalten der Länder selbst stehen neben der Regulierung zwei weitere wesentliche Instrumente zur Verfügung:
Sie untersuchen und dokumentieren innerhalb ihrer Forschungsarbeit kontinuierlich Daten zur informierenden Nutzung von Intermediären und Social-Media-Angeboten sowie ihrer Bedeutung für die Meinungsbildung.[38] Und vor allem: Sie kümmern sich im Rahmen ihrer Medienkompetenzarbeit intensiv um die Resilienz unserer Gesellschaft gegen Desinforma­tionskampagnen. Im engen Zusammenspiel zwischen Medienregulierung und Medienbildung entwickeln und veranstalten sie zielgruppengerechte Angebote, die ein vertieftes und kritisches Verständnis der Medien einerseits sowie deren mündige Nutzung andererseits befördern. Die Befähigung zu einem elaborierten Umgang mit Desinformationen im Netz ist die zentrale Stellschraube, um die Wirksamkeit von Falschinformationen und Manipulatio­nen einzudämmen.

 

6. Macht, Regulierung und Kontrolle in Sozialen Netzwerken

Die Kombinierbarkeit der in den vorangegangenen Kapiteln beschriebenen psychologischen und technischen Phänomene sowie der politischen Intentionen, respektive deren verdeckte manipulative Steuerbarkeit über persönliche Daten und Algorithmen mit intransparenten Zielen, verdeutlicht die Notwendigkeit, hier aufsichtsrechtlich und regulativ gut aufgestellt zu sein. Der am 07.11.2021 in Kraft getretene Medienstaatsvertrag hat diese Verantwortung umgesetzt und den Landesmedienanstalten die Regulierung von Medienintermediären zur Aufgabe gemacht.

Noch wissen wir relativ wenig über die Funktionsweise algorithmischer Systeme bei Interme­diären. Die Enthüllung der „Black Boxes“ durch eine transparente Beschreibung der Kriterien und ihrer Gewichtung ist notwendig, um ihre gesellschaftliche Macht genauer einzuschätzen. Stark/Stegmann (2020) machen bislang drei allgemeine Funktionen von Medienvermittlern aus, mittels derer diese offensichtlich einen entscheidenden Einfluss darauf ausüben, welche politischen Informationen die Benutzer:innen erreichen:

„(1) Sie wählen algorithmisch Inhalte aus, die für den Benutzer relevant sind, und schließen gleichzeitig andere als nicht relevant eingestufte Inhalte aus (Filterung). (…)

(2) Sie ordnen den ausgewählten Inhalt so, dass der für Benutzer relevanteste Inhalt (voraussichtlich) ganz oben in der Ergebnisliste steht (…) (Sortierung).

(3) Sie passen den Inhalt an die Interessen und Vorlieben jedes Benutzers an (Personalisierung).“[39]

 

Insbesondere die Personalisierung forciert die Meinungs- und Marktmacht. Sie geschieht aktiv und benutzergesteuert über soziodemografische Daten, die von den Nutzenden im Zuge der Registrierung oder der Konfiguration des eigenen Profils einvernehmlich geteilt werden, aber auch durch das Liken, Abonnieren oder Folgen von Accounts und den daraus möglichen Schlüssen auf persönliche Interessen. Algorithmengesteuerte Personalisierung kann jedoch weit mehr: Auf der Basis im Zuge bisheriger Interaktionen, Verhaltensdaten und Ähnlichkeits­analysen gesammelter Daten erlaubt sie immer treffendere Vorhersagen darüber, welche Inhalte und Informationen für einzelne Nutzer:innen relevant sind.

Diese unter dem Begriff „Micro-Targeting“ gefasste und vom Online-Marketing rege genutzte Strategie befruchtet im Bereich von politischer, religiöser oder weltanschaulicher Information in gefährlicher Weise Filterblasen und Echokammern und unterhöhlt das Gebot der Meinungs­vielfalt. Daher ist politische Werbung in Telemedien nur in engen Grenzen erlaubt (vgl. § 22 Abs. 1 MStV). Politische Werbung auf Plattformen untersteht der besonderen Beobachtung der Medienanstalten sowie der Europäischen Kommission im Rahmen des Aktionsplans für Demokratie. Die staatlichen Akteure setzen prioritär auf Transparenz.

Die Transparenzvorschriften nach dem deutschen NetzDG und dem Medienstaatsvertrag werden von den „Big four“ Google, Apple, Facebook/Meta und Amazon (GAFA) bislang jedoch nur marginal und widerwillig umgesetzt. So anerkannte Facebook erst nach langem juristi­schem Ringen mit dem Bundesamt für Justiz, dass es die Meldeoption nach dem NetzDG nicht in den Tiefen des Impressums verstecken darf und zahlte schließlich 2 Millionen Euro Bußgeld.

Dagegen, dass Künstliche Intelligenz zum Einsatz kommt, um strafrechtlich relevante Inhalte wie Hasskommentare und Volksverhetzung aus den sozialen Netzwerken zu löschen, ist sowohl aus Effizienz-, als auch aus Kosten- und Massegründen nichts einzuwenden. Jedoch darf diese KI keinesfalls ein technisches Overblocking betreiben, wie durch die Facebook-Leaks des Wall Street Journals jüngst aufgedeckt.[40] Die komplexen Entscheidungsprozesse über Blockierungen und Sperrungen von Inhalten und Accounts bewegen sich an der Nahtstelle der Meinungsfreiheit und sind oft äußerst diffizil. Sie können daher zwar durch eine intelligente technische Content-Moderation vorgefiltert werden, die sichere Fälle identifiziert, sie müssen schlussendlich aber von Menschen entschieden werden. Derlei Einschränkungen des KI-Einsat­zes sind rechtlich bislang nicht ausreichend justiert.

Insgesamt setzen NetzDG und Digital Services Act vorwiegend auf die Selbstregulierung der Unternehmen und ihrer Plattformen. Nun muss sich zeigen, ob es gelingt, daneben eine funktionierende und akzeptierte staatliche Regulierung greifen zu lassen, wie sie der MStV vorsieht. Der Blick nach Australien und Amerika jedenfalls sollte Europa ermutigen: Anfang 2021 hat das australische Parlament ein Mediengesetz auf den Weg gebracht, dass u.a. Online-Plattformen dazu verpflichtet, ihre mit Nachrichteninhalten generierten Werbeeinnahmen mit Medienhäusern zu teilen. Im Sommer 2021 billigte dann der Justizausschuss des U.S.-ameri­kanischen Repräsentantenhauses sechs Gesetzesentwürfe eines umfassenden Kartellpakets, das die Demokraten mit überparteilicher Unterstützung der Republikaner zuvor eingebracht hatten. Diese Kartellgesetze zielen auf die Big-Tech-Plattformunternehmen, vornehmlich die GAFA-Unternehmen, um deren als wettbewerbswidrig erachtetes Verhalten einzudämmen und weitere monopolistische Praktiken zu unterbinden. Die Marktmacht nicht über alles zu stellen, bedeutet keine Abkehr vom freien Markt, es bedeutet, andere Rechtsgrundsätze wie etwa Persönlichkeitsrechte aufzuwerten, statt sie dem Marktprinzip zu unterwerfen.

Gestatten Sie mir an dieser Stelle noch einen Exkurs zum Thema Meinungs- und Amtsmacht in Social Media: Die praktizierte Privilegierung der Äußerungen staatlicher Akteur:innen und Amtsinhaber:innen durch Plattformen ist kritisch zu betrachten und sollte einer Lösung zugeführt werden, die nicht lauten kann, dass die Betreiber Sozialer Medien über die Grenzen von deren Äußerungsmöglichkeiten auf ihren Plattformen entscheiden. Dies ist zur Zeit jedoch Realität. Das Beispiel Trump hat Anfang 2021 der ganzen Welt vor Augen geführt, welche Macht Soziale Netzwerke in dieser Hinsicht besitzen. Dem muss die Macht einer handlungs­fähigen staatsfernen Medienaufsicht und -regulierung entgegenstehen.

 

7. Medienkonzentrationsrechtliche Überlegungen

Die Kontrolle von Meinungsmacht ist essentiell, um Vielfalt sicherzustellen und Einfallstore für Desinformation im demokratischen Willensbildungsprozess zu schließen. Die von linearem Fernsehen ausgehenden verfassungsrechtlich vorgegebenen Bewertungskategorien Aktualität, Suggestivkraft und Breitenwirkung müssen in einem erheblich gewandelten Medienumfeld als überholt gelten und können jedenfalls nicht unterschiedslos auf die Internetmedien über­tragen werden. Die Gesamtsehdauer ist weniger denn je eine Größe, mit der das komplexe Konstrukt der Meinungsmacht gerade in den neuen Mediengattungen noch zu fassen ist. Eine neu zu vereinbarende Metrik muss jedoch valide, reliabel und praktikabel sein und braucht vor allem ein rechtliches Fundament.

Einigkeit dürfte insoweit bestehen, dass verhindert werden muss, dass eine gefährliche Ballung von Meinungsmacht bei relevanten Inhalten durchschlägt – das betrifft insbesondere journa­listisch-redaktionell gestalteten Content mit aktuellem Bezug. Ob und inwieweit jedoch eine Neuordnung der Konzentrationskontrolle eine Differenzierung nach Content erforderlich macht oder generell sinnvoll erscheinen lässt, ist zu diskutieren: Gewiss verdienen politisch relevante Inhalte von Aktualität eine besondere Gewichtung; jedoch sind fiktionale und unterhaltende Inhalte nicht frei von Weltanschauung und können daher nicht vernachlässigt werden. Zudem muss werbenden Elementen ein besonderes Augenmerk gelten. Innerhalb von Social-Media-Angeboten ist dieser Content ohnehin anbieter- und gattungsübergreifend auf exemplarische Weise miteinander verknüpft.

Zur Frage, „woran man die Stärke der Meinungsmacht eines Mediums, also die Größe seines Einflusses auf Emotionen, Wissen, Einstellungen oder Verhalten in der Bevölkerung eigentlich konkret festmachen kann (…)“, sind laut dem Bayerischen Forschungsinstitut für Digitale Transformation (bidt) „mindestens drei verschiedene Sichtweisen denkbar. So könnte man die Stärke der Meinungsmacht eines Mediums festmachen an
– der Anzahl der betroffenen Menschen (Wie viele Menschen werden beeinflusst?),
– der Intensität des Einflusses (Wie stark sind die Wirkungen?) sowie
– der gesellschaftlichen Bedeutsamkeit der Effekte (Welche Meinungen etc. werden beeinflusst? Zum Beispiel Meinungen zu Musikern vs. Politikern?).“[41]

Ein aussagekräftiges Kontrollsystem wird keinen dieser drei Faktoren außer Acht lassen können. Besonders zu gewichten wären im Zuge der Intensitätsbeurteilung interaktive Elemente sowie das Maß an Vertrauen, Glaubwürdigkeit und Überzeugungskraft, das mit dem Angebot verbunden wird. Unter all diesen Gesichtspunkten ist die Meinungsmacht von Social Media – bei entsprechendem Content – tendenziell als hoch einzuschätzen.

Die Herausforderung, diese Machtposition mit Blick auf Meinungsvielfalt sowohl im Lichte eines Gesamtmarktmodells als auch vor dem Hintergrund eines äußerst dynamischen Marktes zu messen und konkret zu gewichten, ist beträchtlich. Reformvorschläge, die auf aktuellen Erkenntnissen der Medienforschung fußen, das Medienumfeld in seiner Breite zu erfassen suchen und neue metrische Optionen einbeziehen, erscheinen sämtlich näher an der Realität, als die bestehende fernsehzentrierte Betrachtung. Spannend sind hierbei sicher auch kommu­nikationswissenschaftliche Ansätze, die weniger den Gesamtmarkt in den Blick nehmen, als die Nutzer:innen selbst, ganz nach dem Motto: Medien- und Meinungskonzentration herrscht in dem Maß, wie sie bei einzelnen Nutzer:innen ankommt. Nutzungsorientiert zu messen und hier bestimmte Schwellenwerte zu definieren (z.B. über 50 % der Rezeption von nur einem Anbieter) schlägt u.a. Tobias Gostomzyk vor[42]. Unter diesem Gesichtspunkt ist auch der Ansatz des „Nudging“ einzuordnen: durch die gezielte algorithmengesteuerte Einstreuung zusätzlicher Quellen und konträrer Meinungen soll das Spektrum an Vielfalt erweitert werden: entweder selbstgesteuert durch das Initiieren einer neuen Mischung oder technisch vorkonfiguriert, um auch „gewollten News-Avoidern“ heterogenere Newsumgebungen anzubieten und Echokam­mern entgegenzuwirken.[43] Datenschutzhürden und gesellschaftliche Akzeptanz widersprechen solchen Ansätzen.

Alternativ halte ich es für denkbar, dass – wenn die auf dem neuen MStV gründende Regulie­rung greift und supranational unterstützt wird – schon durch die strikte Kontrolle von Transpa­renz, Diskriminierungsfreiheit, journalistischer Sorgfalt und dem Verbot von manipulativen Verbreitungstechniken sowie durch die konsequente Ahndung von Rechtsverstößen, verbun­den mit einer vertieften und verbreiterten Medienkompetenzförderung, sowohl eine Aus­differenzierung des Angebots als auch seine kritischere Nutzung erreicht werden kann. Das Medienkonzentrationsrecht und dessen kontrollierte Selbstkontrolle könnte sich dann auf Stichproben und übergeordnete Phänomene fokussieren.

 

8. Fazit

Fast jede:r Zweite nutzt täglich Suchmaschinen, soziale Netzwerke und Instant-Messenger-Dienste, um sich über das Zeitgeschehen zu informieren. Längst sind die Sozialen Medien zum „Game changer“ geworden, erlauben sie es uns doch aus der passiven Rolle der Konsument:in­nen herauszutreten, uns öffentlich zu artikulieren und aktive Mediengestalter:innen zu sein. Soziale Medien erweitern somit unser Selbst und sind dabei „weder Wahrheitsmaschinen noch digitale Demokratien. (…) Soziale Medien lassen sich nicht auf Wirklichkeitssinn verpflichten, sonst sind es keine sozialen Medien mehr.“[44]

Nicht zuletzt die Ergebnisse der Studie „Intermediäre und Meinungsbildung“[45] der Medienan­stalten belegen jedoch, dass Medienintermediäre als eine Art Torwächter („gatekeeper“) journalistisch-redaktionell erstellter Inhalte entscheiden, welche Informationen für Einzelne sichtbar und zugänglich sind. Die Kernbefunde verdeutlichen: Bei mittlerweile mehr als jeder vierten Person (27,9 %) ab 14 Jahren in Deutschland führt der Weg zu den Online-Informa­tionsquellen über Medienintermediäre. [46] Eine herausragende Rolle als Kontakthersteller spielen dabei Suchmaschinen. Die enorme Relevanz der Reichweite und der Reiz der Extreme stellen die entscheidenden Schlüssel dafür dar, dass es die Sozialen Medien sind, die in diesen Zusammenhängen zum „Trampolin für zum Teil gesellschaftlich nicht akzeptierte Nachrich­ten“[47] werden. Social Bots haben das Potential, Desinformation und politische Stimmungen gezielt zu verstärken. Deshalb ist es eine der wichtigsten Aufgaben der Medienanstalten, Medienintermediäre regulatorisch intensiv in den Fokus zu nehmen, um die Meinungsvielfalt zu schützen.

Die Beurteilung der Meinungsmacht von Social Media bleibt eine große Herausforderung, da sie objektiviert werden muss, maßgebliche subjektive und technische Wirkungszusammen­hänge in ihrer Gesamtheit bislang aber nur annäherungsweise erfasst und dargestellt werden können. Dennoch müssen wir uns dieser Herausforderung stellen. Die Gesellschaft als Ganzes ist gefordert, mittels Forschung, Diskurs, kritischer Nutzung, gesetzlicher Regulierung sowie behördlicher Aufsicht dieses Machtgefüge im Sinne von Meinungsvielfalt, Transparenz und Diskriminierungsfreiheit auszubalancieren. Die Landesmedienanstalten und die KEK als Be­schlussorgan sind sich ihrer Verantwortung bewusst und stoßen auf Basis des Medienstaats­vertrags diese Prozesse auf allen Ebenen an.

 

Aus dem 7. Konzentrationsbericht der Medienanstalten (2021)

 

[1] vgl. Brause, Christina und Fuest, Benedikt: Wenn Facebook über die Stimme entscheidet. In: Welt am Sonntag, 30.05.2021

[2] vgl. www.blog2social.com/de/blog/social-media-nutzer/ (Stand: 10.10.2021)

[3] vgl. wearesocial.com/de/ (Stand: 10.10.2021)

[4] vgl. www.blog2social.com/de/blog/ (Stand: 10.10.2021)

[5] vgl. www.initiatived21.de/d21index (Stand: 10.10.2021)

[6] vgl. www.blog2social.com/de/blog/ (Stand: 10.10.2021)

[7] vgl. www.initiatived21.de/d21index (Stand: 10.10.2021)

[8] vgl. www.ard-zdf-onlinestudie.de (Stand: 10.10.2021)

[9] vgl. www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/v9drj2w_AP58_RDNR21_ Deutschland.pdf (Stand: 10.10.2021)

[10] vgl. ebd. (Stand: 10.10.2021)

[11] vgl. Maslow, Abraham, 1943: A Theory of Human Motivation, S. 388–389.

[12] vgl. Breuer, Lena: Die Macht des Geldes im sozialen Netz. WDR5-Feature, 22.07.2021

[13] vgl. Nymoen, Ole und Schmitt, Wolfgang M., 2021: Influencer. Die Ideologie der Werbekörper.

[14] vgl. Stieger, Stefan und Lewetz, David, 2018: A week without using social media: Results from an ecological momentary intervention study using smartphones. Cyberpsychology, Behavior, and Social Networking, 21, S. 618-624.

[15] vgl. Primack, Brian A. u.a.: Temporal Associations Between Social Media Use and Depression, AJPM, February 2021

[16] vgl. BGH-Az.: I ZR 120/19 und I ZR 207/19

[17] vgl. https://www.presserat.de/presse-nachrichten-details/r%C3%BCge-f%C3%BCr-bericht-%C3%BCber-corona-studie.html (Stand: 10.11.2021)

[18] vgl. McQuail, Denis, 1983: Mass Communication Theory, S. 82 f

[19] vgl. Stark, Birgit und Stegmann, Daniel, 2020: Are Algorithms a Threat to Democracy? The Rise of Intermediaries:  A Challenge for Public Discourse, S. 43-46.

[20] vgl. Kantar, Public Division und RWTH Aachen, 2021: Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar.

[21] vgl. ebd. S. 3

[22] Stark, Birgit und Stegmann, Daniel, 2020: Are Algorithms a Threat to Democracy? The Rise of Intermediaries:  A Challenge for Public Discourse, S. 3

[23] vgl. ebd. S. 4 f

[24] vgl. https://www.bpb.de/252585/was-sind-social-bots und https://www.ionos.de/digitalguide/online-marketing/social-media/social-bots-was-koennen-die-meinungsroboter-wirklich/ (Stand: 10.10.2021)

[25] vgl. https://www.pwc.de/de/technologie-medien-und-telekommunikation/fake-news-und-social-bots.html (Stand: 10.10.2021)

[26] vgl. Spiegel Baumgärtner, M., u.a.: Wie russische Hacker und Rechtsextreme die Bundestagswahl manipulieren wollen. In. Der Spiegel 15/2021

[27] https://www.basicthinking.de/blog/2018/07/24/instagram-account-bots/ (Stand: 10.10.2021)

[28] vgl.https://about.fb.com/news/tag/coordinated-inauthentic-behavior/ (Stand: 10.10.2021)

[29] Prof. Dr. Thomas Hess im Rahmen des Workshops „Vielfalt sichern – neue Regeln für ein hybrides Mediensystem“ der BLM, 24.09.2021

[30] vgl. Stark, Birgit und Stegmann, Daniel, 2020: Are Algorithms a Threat to Democracy? The Rise of Intermediaries:  A Challenge for Public Discourse, S. 3-5.

[31] Engel, Dirk: Algorithmen. Die programmierten Verführer. In: Planung & Analyse, 01.10.2021

[32] vgl. Sängerlaub, A., Meier, M. und Rühl, W.-D., 2018: Fakten statt Fakes: Das Phänomen „FakeNews“. Verursa­cher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017 (Stiftung Neue Verantwor­tung, Hrsg.), https://www.stiftung-nv.de/sites/default/files/snv_fakten_statt_fakes.pdf, (Stand: 16.11.2021)

[33] vgl. Vosoughi, S., Roy, D., & Aral, S. (2018). The Spread of True and False News Online. Science, 359 (6380), S. 1146-1151. https://www.science.org/doi/10.1126/science.aap9559 (Stand: 16.11.2021)

[34] Steinebach, M., Bader, K., Rinsdorf, L., Krämer, N. und Roßnagel, A. (Hrsg.), 2020: Desinformation aufdecken und bekämpfen. Interdisziplinäre Ansätze gegen Desinformationskampagnen und für Meinungspluralität, S. 70

[35] gemeint ist Russland; s.a. Sonderbericht „Desinformation und ihre Auswirkungen auf die EU: Problem erkannt, aber nicht gebannt“ der EU East StratCom Task Force innerhalb des Europäischen Auswärtigen Dienstes (EAD), https://www.eca.europa.eu/lists/ecadocuments/sr21_09/sr_disinformation_de.pdf (Stand: 11.11.2021)

[36] vgl. Pressemitteilung zur Veranstaltung der Medienanstalten gemeinsam mit der Landesanstalt für Medien NRW und der Vertretung des Landes Nordrhein-Westfalen bei der Europäischen Union am 09.11.2021, https://www.die-medienanstalten.de/service/pressemitteilungen/meldung/eine-regulierung-von-desinformation-ist-moeglich (Stand: 16.11.2021)

[37] ebd.

[38] https://www.die-medienanstalten.de/themen/forschung

[39] Stark, Birgit und Stegmann, Daniel, 2020: Sind Algorithmen eine Bedrohung für die Demokratie? Der Aufstieg der Vermittler: Eine Herausforderung für den öffentlichen Diskurs, S. 9 f deutsch

[40] vgl. Hartwig, Stefan: Wie Facebook tarnt und täuscht. In: F.A.Z., 29.10.2021

[41] https://www.bidt.digital/wp-content/uploads/2021/07/bidt-WP-04-Reflexion-Meinungsmacht.pdf

[42] so geäußert im Rahmen der Veranstaltung der BLM „Vielfalt sichern – neue Regeln für ein hybrides Mediensystem“, 24.09.2021

[43] Thaler, Richard H. und Sunstein, Cass R. et. Al., 2010: Nudge. Wie man kluge Entscheidungen anstösst.

[44] Vašek, Thomas: „Die Medien sind Teil des Schlamassels, in dem wir stecken“. In: Hohe Luft Nr. 4/2021

[45] vgl. https://www.die-medienanstalten.de/themen/forschung/intermediaere-und-meinungsbildung (Stand: 10.10.2021)

[46] vgl. ebd.

[47] Ametsreiter, Hannes, zitiert in F.A.Z. Feuilleton, „An Wählern vorbei“, 26.10.2021