Jula Lühring
Universität Wien & Complexity Science Hub
VHS Schwerpunkt Demokratie am 7. Oktober 2024
Theorie:
Kommunikationswissenschaft, Psychologie, Soziologie
Methodik:
Informatik, Physik
\(\rightarrow\) Psychologie
\(\rightarrow\) Informatik
\(\rightarrow\) Kommunikations- und Medienwissenschaften
\(\rightarrow\) Soziologie
\(\rightarrow\) Politikwissenschaften
Trennung von Mis- und Desinformation
Fake News als Subtyp von Desinformation
Fokus auf Schädlichkeit
Beispiel 1: Unüberprüftes Teilen von Informationen
\(\rightarrow\) unabsichtliche Fehler
Poynter, 2019
Beispiel 2: Falsche Zeugenaussagen
\(\rightarrow\) dekontextualisierende Interpretationen
Deutschlandfunk, 2017
Beispiel 3: Pseudojournalismus
\(\rightarrow\) politisch motivierte Desinformationskampagnen
Europäische Kommission, 2024
0.3-6% in 5 Studien von 2016-2021
kleiner Anteil des Online-Nachrichtenkonsums (in den USA!)
in Krisen sogar Rückgriff auf zuverlässige Nachrichten
\(\rightarrow\) im Durschnitt gewinnen gute Nachrichten!
Down-Ranking von gleichgesinnten Inhalten auf Facebook:
weniger Misinformation & Hassrede
Nutzer finden trotzdem gleichgesinnte Inhalte
Nyhan et al., 2023
mehr Misinformation ohne Algorithmus
weniger Misinformation ohne Reshares
Google: Suchworte haben stärkeren Effekt als Vorschläge durch Algorithmus
YouTube: Algorithmus führt zu weniger radikalem Konsum
\(\rightarrow\) Nutzer suchen aktiv gleichgesinnte Inhalte
höhere Sichtbarkeit von Inhalten der anderen Partei
Einstellungen wurden extremer, besonders bei Republikanern
\(\rightarrow\) Extreme, konträre Stimmen verstärken Polarisierung
Bail et al., 2018
Nur weil es mehr gibt, wird nicht mehr konsumiert
Nur weil es hochwertig produziert ist, ist es nicht wahr
Nur weil es personalisiert ist, überzeugt es nicht
\(\rightarrow\) KI hat gleichzeitig auch Potenzial für Qualitätsmedien!
Russische Desinformation erreicht nur kleine Teile der Gesellschaft
Interaktionen sind gering, insbesondere im Vergleich zu anderen Inhalten
Misinformation ist weniger verbreitet als im öffentlichen Diskurs angenommen
Der Ursprung von Misinformation liegt nicht in sozialen Medien, inklusive Algorithmen und KI
Die Gefahren von russischer Desinformation werden überschätzt
\(\rightarrow\) Menschliche Tendenzen werden ausgespielt und verstärkt
\(\rightarrow\) Misinformation überlappt mit anderen gesellschaftlichen Problemen
Mercier, 2020
\(\rightarrow\) Funktion von Emotionen hängt von Einstellungen ab
Luehring*, Shetty*, et al., 2023
\(\rightarrow\) politische Asymmetry
\(\rightarrow\) Wahrgenommene politische Spaltung verstärkt die emotionale Polarisierung
kognitiv (Effekte auf Wissen)
emotional (Effekte auf Gefühle)
einstellungsbezogen (Effekte auf Meinungen)??
Verhalten???
\(\rightarrow\) sehr limitierte Effekte!
gruppenbezogene Wahrnehmungsverzerrungen
Mobilisierung und Spaltung durch die oft extremen Inhalte
Zynismus
Verringertes Vertrauen in die Medien und demokratische Institutionen
\(\rightarrow\) Menschen sind nicht dumm! Argumente wirken, aber nur dort, wo die oft guten Gründe liegen
Factchecking
Expert:innen: unabhängige Organisationen (mimikama, Correctiv) oder als Teil von Redaktionen (APA, faktenfinder)
Crowdsourced: Birdwatch
Transparenzpflichten und Regulierung von sozialen Medien und Suchmaschinen (z.B. EU Digital Services Act)
Soziale Medien für bestimmte Zwecke designen (Entertainment, politischer Diskurs, Vernetzung, …)
Stärkung von unabhängigen Medien und zuverlässigen Informationen
Politische Bildung und Extremismus-Prävention
Soziale Medien treiben scheinbare Polarisierung an
Soziale Faktoren wirken stärker als KI
Menschen sind nicht dumm: Sorgen ernst nehmen, Gründe verstehen, und diskutieren
Reale Probleme lösen & transparente Erklärungen anbieten
Mercier, 2020 Misinformation & Propaganda
Bail, 2021 Polarisierung & Soziale Medien
Die Präsentationsfolien zum Nachschauen:
julaluehring.github.io