3 research outputs found
DemokratiegefĂ€hrdende Plattform-Mechanismen â Erkennen, Verstehen, BekĂ€mpfen
Das Internet hat die Welt nĂ€her zusammengebracht und einen digitalen Raum geschaffen, der internationale Kommunikation und Vernetzung ermöglicht. Dieser Raum hat jedoch nicht nur die deliberative Kraft entwickelt, die ihm ursprĂŒnglich zugeschrieben wurde. FĂŒr populistische Bewegungen, insbesondere die extreme Rechte, wurden die sozialen Netzwerke zu mĂ€chtigen Instrumenten der Selbstorganisation, wie der Angriff auf den Deutschen Bundestag (2020), der Sturm auf das US-Kapitol (2021) und der Angriff auf den brasilianischen Regierungssitz (2023) zeigen. PhĂ€nomene wie Filterblasen und die Verbreitung von Desinformation haben reale Auswirkungen auf Gesellschaften. Eine kritische Auseinandersetzung mit den Plattform-Mechanismen, die die gesellschaftliche Polarisierung im digitalen Raum vorantreiben, sowie eine Erforschung, wie sich diese Polarisierungstendenzen auf gesellschaftliche RealitĂ€ten auswirken, ist daher notwendiger denn je. Desinformationskampagnen sind zu einer Bedrohung fĂŒr die Demokratie und den sozialen Zusammenhalt geworden. Daher bedarf es einerseits eines umfassenden VerstĂ€ndnisses ihrer Mechanismen und ihrer Ausbreitung und andererseits, darauf aufbauend, Methoden zu ihrer systematischen BekĂ€mpfung. FĂŒr das VerstĂ€ndnis und die Entwicklung von Strategien und Instrumenten zur Analyse sowie zur BekĂ€mpfung von gesellschaftlicher Spaltung sind interdisziplinĂ€re AnsĂ€tze unerlĂ€sslich. Bei den beschriebenen Herausforderungen handelt es sich nicht nur um solche, die die Kommunikationswissenschaft tangieren, sondern um VorgĂ€nge, die auch auf technologischer Ebene analysiert und interpretiert werden sollten. Dieser Beitrag stellt AnsĂ€tze und Ergebnisse aus zwei interdisziplinĂ€ren Forschungsprojekten vor, die demokratiegefĂ€hrdende Tendenzen im digitalen Raum erkennen, verstehen und bekĂ€mpfen sollen.
Die weltweit beobachtete Zunahme der politischen Polarisierung wird oft auf den Trend der algorithmischen Filterung von Inhalten in sozialen Medien, auf Nachrichtenplattformen oder Suchmaschinen zurĂŒckgefĂŒhrt. Es wird angenommen, dass die weitverbreitete Nutzung von Nachrichtenempfehlungssystemen (NRS) Nutzer*innen in homogenen Informationsumgebungen einschlieĂt und dadurch die affektive, ideologische und wahrgenommene Polarisierung verstĂ€rkt (Sunstein, 2001). Sowohl die affektive als auch die ideologische Polarisierung sind durch eine Trennung von Individuen verschiedener politischer Lager, typischerweise von der ideologischen Linken und Rechten, ĂŒber politische Differenzen gekennzeichnet (Webster & Abramowitz, 2017). Im Falle der affektiven Polarisierung Ă€uĂert sich dies in einer starken Sympathie gegenĂŒber der eigenen Partei, begleitet von einer gleichzeitigen Abneigung der gegnerischen Partei (Iyengar et al., 2012). Die ideologische Polarisierung basiert auf der Distanz zwischen Ablehnung und UnterstĂŒtzung von Positionen oder Einstellungen zu politischen Themen (DiMaggio et al., 1996). Die wahrgenommene Polarisierung wiederum gibt an, wie sehr eine Person das Meinungsklima in der Gesellschaft entlang von Parteilinien oder Ideologien als polarisiert wahrnimmt (z. B. Yang et al., 2015). In einer interdisziplinĂ€ren Studie werden drei Online-Experimente mit laufenden Algorithmen durchgefĂŒhrt, die verschiedene NRS vergleichen. Untersucht wird, welchen Einfluss verschiedene NRS-Arten auf die Nutzer*innen haben, sowie das Sentiment der Nachrichtentexte und die Dauer, fĂŒr die Nutzer*innen den NRS ausgesetzt sind. Ziel ist es, die Wirkung realer NRS nicht nur zu verstehen, sondern auch alternative Konzepte zu entwickeln, die die positiven Eigenschaften bisheriger Systeme aufgreifen, darĂŒber hinaus aber nicht demokratiegefĂ€hrdend sind.
Die Tatsache, dass heutzutage fast jede*r Inhalte im Internet veröffentlichen kann, erhöht nicht nur die Möglichkeiten der sozialen Teilhabe, sondern schafft auch neue Möglichkeiten fĂŒr die Verbreitung von Desinformation und Propaganda (Shu et al., 2017). Die COVID-19-Pandemie hat bereits eine Flut von Falschmeldungen hervorgebracht und gezeigt, wie wichtig es ist, verlĂ€ssliche von irrefĂŒhrenden Informationen unterscheiden zu können (Sharma et al., 2021; Delcker et al., 2020). DarĂŒber hinaus erfordert der Krieg gegen die Ukraine eine besondere Konfrontation mit Desinformation, die von staatlichen Stellen verbreitet wird. Online Desinformation wird daher als eine der gröĂten Herausforderungen fĂŒr die Demokratie, den Journalismus und die freie MeinungsĂ€uĂerung angesehen, was den Bedarf an Forschung zur Erkennung von betrĂŒgerischen Inhalten erhöht (Shu et al., 2017). Derzeit ist die Forschung zur Erkennung von "Fake News" mithilfe von Systemen, die auf
maschinellem Lernen basieren, ein schnell wachsendes Gebiet, das zahlreiche Disziplinen umfasst, darunter Informatik, Medien- und Kommunikationswissenschaften, Sozialwissenschaften und Psychologie (vgl. Yu & Lo, 2020; Verma et al., 2021; Kapantai et al., 2021; Mahyoob et al., 2020).
Mit prĂ€ventiven MaĂnahmen und Mechanismen setzt ein weiteres interdisziplinĂ€res Forschungsprojekt an. Gemeinsam mit Organisationen der Zivilgesellschaft wird darin versucht, Nutzer*innen ĂŒber verschiedene Plattformen hinweg zu befĂ€higen, Nachrichten und Social-Media-Inhalte kritisch zu hinterfragen. Das Projekt verfolgt einerseits ein umfassendes VerstĂ€ndnis der Mechanismen von Desinformation und ihrer Ausbreitung. Andererseits sollen auf dieser Wissensgrundlage Methoden entwickelt werden, um die Verbreitung von Desinformation einzudĂ€mmen. Zu diesem Zweck wird das Projekt eine erklĂ€rbare KI (XAI) fĂŒr eine Beteiligungsplattform entwickeln, die darauf abzielt, online Desinformation zu bekĂ€mpfen, indem sie diese den Nutzer*innen sichtbar macht und somit aktiv vor deren Auftreten warnt. Die XAI soll dabei unterstĂŒtzen, kritische Medienkompetenz unter BĂŒrger*innen zu fördern, um den schĂ€dlichen Folgen von Desinformationskampagnen wirksam und nachhaltig entgegenzutreten. In diesem Sinne soll ein Beitrag zur Förderung der demokratischen Teilhabe geleistet werden. Vertrauen ist dabei eine der wichtigsten Komponenten fĂŒr die Förderung aktiver, engagierter und informierter BĂŒrger*innen (Dahlgren, 2009).
Dementsprechend soll die Einreichung dazu beitragen, aufzuzeigen, welche Perspektive kritische Technologieforschung einbringen kann, um Systeme der Desinformation und Algorithmic Biases zu enttarnen. Denn um die demokratische Resilienz sowie das Vertrauen von BĂŒrger*innen nachhaltig zu stĂ€rken, bedarf es interdisziplinĂ€rer ForschungsansĂ€tze zur umfassenden Untersuchung und BekĂ€mpfung demokratiegefĂ€hrdender PhĂ€nomene im digitalen Raum
Literacies Against Fake News
This article is guided by the question of what digital competencies are needed to deal with disinformation strategies in social media and how these competencies can be embedded in the discourse on (media) pedagogy. It considers this question from the perspective of the digital condition and addresses the current competency debate by proposing a synergetic linkage of critical media competencies and data competencies. On this basis, it explores the relationship between learning opportunities, digital infrastructures, and the resilience of our democracies. The article concludes by discussing our âSynergistic Literacy Model Against Disinformationâ in terms of its advantages and relevance for future literacy concepts, solutions to broader societal problems, and the resilience of democracies
Distinguishing Between Truth and Fake: Using Explainable AI to Understand and Combat Online Disinformation
Disinformation campaigns have become a major threat to democracy and social cohesion. Phenomena like conspiracy theories promote political polarization; they can influence elections and lead people to (self-)damaging or even terrorist behavior. Since social media users and even larger platform operators are currently unready to clearly identify disinformation, new techniques for detecting online disinformation are urgently needed. In this paper, we present DeFaktS, an Information Systems research project, which takes a comprehensive approach to both researching and combating online disinformation. The project develops a data pipeline in which (i) messages are extracted in large quantities from suspicious social media groups and messenger groups with the help of annotators. Based on this corpus, a Machine Learning-based System (ii) is trained that can recognize factors and stylistic devices characteristic of disinformation, which will be used for (iii) an explainable artificial intelligence that informs users in a simple and comprehensible way about the occurrence of disinformation. Furthermore, in this paper an interdisciplinary multi-level research approach focusing on media literacy and trust in explainable artificial intelligence is suggested in order to operationalize research on combating disinformation