2 research outputs found

    DemokratiegefĂ€hrdende Plattform-Mechanismen – Erkennen, Verstehen, BekĂ€mpfen

    Get PDF
    Das Internet hat die Welt nĂ€her zusammengebracht und einen digitalen Raum geschaffen, der internationale Kommunikation und Vernetzung ermöglicht. Dieser Raum hat jedoch nicht nur die deliberative Kraft entwickelt, die ihm ursprĂŒnglich zugeschrieben wurde. FĂŒr populistische Bewegungen, insbesondere die extreme Rechte, wurden die sozialen Netzwerke zu mĂ€chtigen Instrumenten der Selbstorganisation, wie der Angriff auf den Deutschen Bundestag (2020), der Sturm auf das US-Kapitol (2021) und der Angriff auf den brasilianischen Regierungssitz (2023) zeigen. PhĂ€nomene wie Filterblasen und die Verbreitung von Desinformation haben reale Auswirkungen auf Gesellschaften. Eine kritische Auseinandersetzung mit den Plattform-Mechanismen, die die gesellschaftliche Polarisierung im digitalen Raum vorantreiben, sowie eine Erforschung, wie sich diese Polarisierungstendenzen auf gesellschaftliche RealitĂ€ten auswirken, ist daher notwendiger denn je. Desinformationskampagnen sind zu einer Bedrohung fĂŒr die Demokratie und den sozialen Zusammenhalt geworden. Daher bedarf es einerseits eines umfassenden VerstĂ€ndnisses ihrer Mechanismen und ihrer Ausbreitung und andererseits, darauf aufbauend, Methoden zu ihrer systematischen BekĂ€mpfung. FĂŒr das VerstĂ€ndnis und die Entwicklung von Strategien und Instrumenten zur Analyse sowie zur BekĂ€mpfung von gesellschaftlicher Spaltung sind interdisziplinĂ€re AnsĂ€tze unerlĂ€sslich. Bei den beschriebenen Herausforderungen handelt es sich nicht nur um solche, die die Kommunikationswissenschaft tangieren, sondern um VorgĂ€nge, die auch auf technologischer Ebene analysiert und interpretiert werden sollten. Dieser Beitrag stellt AnsĂ€tze und Ergebnisse aus zwei interdisziplinĂ€ren Forschungsprojekten vor, die demokratiegefĂ€hrdende Tendenzen im digitalen Raum erkennen, verstehen und bekĂ€mpfen sollen. Die weltweit beobachtete Zunahme der politischen Polarisierung wird oft auf den Trend der algorithmischen Filterung von Inhalten in sozialen Medien, auf Nachrichtenplattformen oder Suchmaschinen zurĂŒckgefĂŒhrt. Es wird angenommen, dass die weitverbreitete Nutzung von Nachrichtenempfehlungssystemen (NRS) Nutzer*innen in homogenen Informationsumgebungen einschließt und dadurch die affektive, ideologische und wahrgenommene Polarisierung verstĂ€rkt (Sunstein, 2001). Sowohl die affektive als auch die ideologische Polarisierung sind durch eine Trennung von Individuen verschiedener politischer Lager, typischerweise von der ideologischen Linken und Rechten, ĂŒber politische Differenzen gekennzeichnet (Webster & Abramowitz, 2017). Im Falle der affektiven Polarisierung Ă€ußert sich dies in einer starken Sympathie gegenĂŒber der eigenen Partei, begleitet von einer gleichzeitigen Abneigung der gegnerischen Partei (Iyengar et al., 2012). Die ideologische Polarisierung basiert auf der Distanz zwischen Ablehnung und UnterstĂŒtzung von Positionen oder Einstellungen zu politischen Themen (DiMaggio et al., 1996). Die wahrgenommene Polarisierung wiederum gibt an, wie sehr eine Person das Meinungsklima in der Gesellschaft entlang von Parteilinien oder Ideologien als polarisiert wahrnimmt (z. B. Yang et al., 2015). In einer interdisziplinĂ€ren Studie werden drei Online-Experimente mit laufenden Algorithmen durchgefĂŒhrt, die verschiedene NRS vergleichen. Untersucht wird, welchen Einfluss verschiedene NRS-Arten auf die Nutzer*innen haben, sowie das Sentiment der Nachrichtentexte und die Dauer, fĂŒr die Nutzer*innen den NRS ausgesetzt sind. Ziel ist es, die Wirkung realer NRS nicht nur zu verstehen, sondern auch alternative Konzepte zu entwickeln, die die positiven Eigenschaften bisheriger Systeme aufgreifen, darĂŒber hinaus aber nicht demokratiegefĂ€hrdend sind. Die Tatsache, dass heutzutage fast jede*r Inhalte im Internet veröffentlichen kann, erhöht nicht nur die Möglichkeiten der sozialen Teilhabe, sondern schafft auch neue Möglichkeiten fĂŒr die Verbreitung von Desinformation und Propaganda (Shu et al., 2017). Die COVID-19-Pandemie hat bereits eine Flut von Falschmeldungen hervorgebracht und gezeigt, wie wichtig es ist, verlĂ€ssliche von irrefĂŒhrenden Informationen unterscheiden zu können (Sharma et al., 2021; Delcker et al., 2020). DarĂŒber hinaus erfordert der Krieg gegen die Ukraine eine besondere Konfrontation mit Desinformation, die von staatlichen Stellen verbreitet wird. Online Desinformation wird daher als eine der grĂ¶ĂŸten Herausforderungen fĂŒr die Demokratie, den Journalismus und die freie MeinungsĂ€ußerung angesehen, was den Bedarf an Forschung zur Erkennung von betrĂŒgerischen Inhalten erhöht (Shu et al., 2017). Derzeit ist die Forschung zur Erkennung von "Fake News" mithilfe von Systemen, die auf maschinellem Lernen basieren, ein schnell wachsendes Gebiet, das zahlreiche Disziplinen umfasst, darunter Informatik, Medien- und Kommunikationswissenschaften, Sozialwissenschaften und Psychologie (vgl. Yu & Lo, 2020; Verma et al., 2021; Kapantai et al., 2021; Mahyoob et al., 2020). Mit prĂ€ventiven Maßnahmen und Mechanismen setzt ein weiteres interdisziplinĂ€res Forschungsprojekt an. Gemeinsam mit Organisationen der Zivilgesellschaft wird darin versucht, Nutzer*innen ĂŒber verschiedene Plattformen hinweg zu befĂ€higen, Nachrichten und Social-Media-Inhalte kritisch zu hinterfragen. Das Projekt verfolgt einerseits ein umfassendes VerstĂ€ndnis der Mechanismen von Desinformation und ihrer Ausbreitung. Andererseits sollen auf dieser Wissensgrundlage Methoden entwickelt werden, um die Verbreitung von Desinformation einzudĂ€mmen. Zu diesem Zweck wird das Projekt eine erklĂ€rbare KI (XAI) fĂŒr eine Beteiligungsplattform entwickeln, die darauf abzielt, online Desinformation zu bekĂ€mpfen, indem sie diese den Nutzer*innen sichtbar macht und somit aktiv vor deren Auftreten warnt. Die XAI soll dabei unterstĂŒtzen, kritische Medienkompetenz unter BĂŒrger*innen zu fördern, um den schĂ€dlichen Folgen von Desinformationskampagnen wirksam und nachhaltig entgegenzutreten. In diesem Sinne soll ein Beitrag zur Förderung der demokratischen Teilhabe geleistet werden. Vertrauen ist dabei eine der wichtigsten Komponenten fĂŒr die Förderung aktiver, engagierter und informierter BĂŒrger*innen (Dahlgren, 2009). Dementsprechend soll die Einreichung dazu beitragen, aufzuzeigen, welche Perspektive kritische Technologieforschung einbringen kann, um Systeme der Desinformation und Algorithmic Biases zu enttarnen. Denn um die demokratische Resilienz sowie das Vertrauen von BĂŒrger*innen nachhaltig zu stĂ€rken, bedarf es interdisziplinĂ€rer ForschungsansĂ€tze zur umfassenden Untersuchung und BekĂ€mpfung demokratiegefĂ€hrdender PhĂ€nomene im digitalen Raum

    NeMig -- A Bilingual News Collection and Knowledge Graph about Migration

    Get PDF
    News recommendation plays a critical role in shaping the public's worldviews through the way in which it filters and disseminates information about different topics. Given the crucial impact that media plays in opinion formation, especially for sensitive topics, understanding the effects of personalized recommendation beyond accuracy has become essential in today's digital society. In this work, we present NeMig, a bilingual news collection on the topic of migration, and corresponding rich user data. In comparison to existing news recommendation datasets, which comprise a large variety of monolingual news, NeMig covers articles on a single controversial topic, published in both Germany and the US. We annotate the sentiment polarization of the articles and the political leanings of the media outlets, in addition to extracting subtopics and named entities disambiguated through Wikidata. These features can be used to analyze the effects of algorithmic news curation beyond accuracy-based performance, such as recommender biases and the creation of filter bubbles. We construct domain-specific knowledge graphs from the news text and metadata, thus encoding knowledge-level connections between articles. Importantly, while existing datasets include only click behavior, we collect user socio-demographic and political information in addition to explicit click feedback. We demonstrate the utility of NeMig through experiments on the tasks of news recommenders benchmarking, analysis of biases in recommenders, and news trends analysis. NeMig aims to provide a useful resource for the news recommendation community and to foster interdisciplinary research into the multidimensional effects of algorithmic news curation.Comment: Accepted at the 11th International Workshop on News Recommendation and Analytics (INRA 2023) in conjunction with ACM RecSys 202
    corecore