1,501 research outputs found

    What’s New about Whatsapp for News? A Mixed-Method Study on News Outlets’ Strategies for Using WhatsApp

    Get PDF
    Recent reports show that users increasingly use smartphone messenger applications such as WhatsApp for news. Media outlets have started to provide news via WhatsApp in addition to other platforms. In journalism scholarship, the routines of messenger app journalism are still little understood. Building on the Diffusions of Innovations theory, this paper explores whether newsrooms treat WhatsApp similar to other social media, which they have used for a longer period of time, or whether they have developed new practices that respect WhatsApp’s roots in mobile and interpersonal communication. Focusing on Germany as a case study and drawing on an analysis of 3745 messages sent to WhatsApp channels of news outlets and on an online survey of journalists working with social media (N=111), this study shows that journalists utilize the innovative possibilities of WhatsApp for news to a varying degree. While some characteristics of mobile communication are considered in news outlets’ strategies, engagement with the audience is often neglected. The results highlight the challenges for relational innovations in the editorial process

    Attention boost through media coverage? Agenda setting effects from news media coverage on topic selection of scientific journals

    Get PDF
    The fact that media emphasis of certain topics can increase their importance for the public has already been confirmed many times in agenda setting research. However, we are not aware of any study that examines if attention by news media on certain scientific topics correlates with or even has feedback effects on topic salience in scientific journals. The aim of our analysis is to examine how a scientific topic develops in scientific journals over time, namely before and after a point of conspicuous news media attention. Our analyses reveal a relationship between the amount of attention scientific papers receive through popular media and the amount of attention the respective topics receive from scientific journals. In more than 50 percent of the cases, after a scientific paper received a noticeable amount of news media coverage, more thematically similar articles were published in scientific journals than before. In this sense, here and there journalism can be considered as an agenda setter for the choice of topics in academic journals. Our findings may be interpreted in accordance to a publicity effect, namely that popular media coverage provides a scientific attention boost for scientific studies or topics that they would not have received without news media coverage

    Machine Learning meets Data-Driven Journalism: Boosting International Understanding and Transparency in News Coverage

    Full text link
    Migration crisis, climate change or tax havens: Global challenges need global solutions. But agreeing on a joint approach is difficult without a common ground for discussion. Public spheres are highly segmented because news are mainly produced and received on a national level. Gain- ing a global view on international debates about important issues is hindered by the enormous quantity of news and by language barriers. Media analysis usually focuses only on qualitative re- search. In this position statement, we argue that it is imperative to pool methods from machine learning, journalism studies and statistics to help bridging the segmented data of the international public sphere, using the Transatlantic Trade and Investment Partnership (TTIP) as a case study.Comment: presented at 2016 ICML Workshop on #Data4Good: Machine Learning in Social Good Applications, New York, N

    Statistische Methoden zur Validierung von Inhaltsanalysen

    Get PDF
    Auch in den Geistes- und Sozialwissenschaften hat sich die Analyse von großen Textkorpora inzwischen durchgesetzt. Mit den Digital Humanity ist dort ein komplett neues Forschungsfeld entstanden. Damit wurde es zum ersten mal möglich große Textkorpora systematisch auszuwerten und nicht nur Stichproben daraus zu untersuchen. Am Dortmund Center für Datenbasierte Medienanalyse (DoCMA) wird Journalismusforschung anhand von Medienkorpora betrieben. Ein Hauptaugenmerk liegt dabei auf die Entwicklung Themen in Medienerzeugnissen. Als zentrale Methode wurde dabei mit der Latent Dirichlet Allocation (LDA; Blei, Ng u.a. 2003) gearbeitet, ein generatives Themenmodell, das aus Textkorpora Themen identifiziert, bei denen sowohl die Themenverteilung, als auch die Wortverteilung, die ein Thema definiert als latent hinter dem Text liegend angenommen werden. Die vorliegende Arbeit hat sich drei verschiedene Aspekte in diesem Themenbereich vorgenommen: Ein R-Paket für die Vorverarbeitung und Analyse der Textkorpora, mit einem Schwerpunkt auf Grafikvisualisierungen, die die zeitliche Komponente der Korpora in den Mittelpunkt stellt, ein effektiveres Sampling bei der Validierung von Subkorpora und eine Analyse der Topic Coherence für die Modellwahl. Beim Textmining von Medienkorpora fallen immer wieder die gleichen Vorverarbeitungsschritte wie z.B. das Tokenisieren, das Entfernen von Stopwörtern und Umlauten an, bis eine LDA durchgeführt werden kann. Sowohl für die LDA. als auch für die Vorverarbeitung konnte dabei auf bestehende R-Pakete zurückgegriffen werden. Das R-Paket tosca liefert wrapper, die eine Vorverarbeitung übersichtlicher gestalten. Darüber hinaus bietet tosca einige auf die angebotene Analysepipeline abgestimmte Grafikfunktionen, die es ermöglichen ohne viel Aufwand zeitliche Verläufe von Themen und Wörtern zu erhalten. Im Bereich der Validierung wurden die von Blei vorgeschlagenen Intruder Words und Intruder Topics für R implementiert. Für Inhaltsanalysen ist meistens nicht der ganze Korpus, sondern nur Teile davon relevant. Diese können über Wortfilter oder Themen der LDA identifiziert werden. Da die Qualität der Analyse von der Qualität des erzeugten Subkorpusses abhängt, muss dieser validiert werden, was über menschliche Kodierer*innen erfolgt. Oft braucht es mehrere Versuche, bis die Auswahlkriterien für den Subkorpus so optimiert wurden, dass seine Qualität ausreichend ist. In dieser Arbeit wird ein Verfahren vorgestellt, mit dem nicht zufällig aus dem gesamten Korpus Texte zur Validierung gezogen werden, sondern abhängig von dem bereits bestehenden Wissen aus frühreren Durchläufen aus den Schnittmengen der Subkorpora gezogen wird, die die Gesamtunsicherheit am stärksten reduzieren. Die LDA hat das Problem, dass mathematisch optimierte Modelle für Anwender*innen oft nicht die inhaltlich besten Ergebnisse liefern. Gleichzeitig ist eine manuelle Modellwahl aus Kapazitätsgründen nur begrenzt möglich. In dieser Arbeit wird die Topic Coherence (Mimno u.a. 2011) als eine der vorgeschlagenen Maßzahlen zur Modellwahl untersucht. Während der Modellvergleich über Modelle mit verschiedenen Parametern nicht möglich ist, bietet diese Maßzahl die Möglichkeit unter wiederholten Läufen ein Modell auszusuchen. Darauf basierend wird ein Vorgehen vorgestellt, wie ein optimales Modell ausgesucht werden kann, wenn bereits von Anwender*innen für ihre Forschungsfrage optimale Themen aus anderen Läufen identifiziert wurden

    Generation of Objects for 3D Urban Models

    Get PDF
    Der Bedarf an 3D-Stadtmodellen wächst stetig. Sie werden für unterschiedlichste Anwendungen benötigt. Darunter fallen beispielsweise Funknetzplanungen, Simulationen für die Raumplanung aber auch als Hintergrund für Spielumgebungen und andere Anwendungen. Die Verfahren und die darauf beruhende Software, die bisher für die Erzeugung von Objekten für 3D-Stadtmodellen verwendet werden, haben überwiegend photogrammetrischen Bezug. Sie müssen von Fachleuten bedient werden, benötigen hochwertige Eingangsdaten und verursachen relativ hohe Kosten mit einem ansprechendem Ergebnis. Zudem rechnen sich die Verfahren nur, wenn relativ große Gebiete bearbeitet werden, da bereits in der Verfahrensvorbereitung hohe Fixkosten entstehen. Mit dem in dieser Arbeit entwickelten Verfahren wird versucht, Kosten zu reduzieren, indem auf ein photogrammetrisches Verfahren verzichtet wird und als Eingangsdaten bereits bestehende Datensätze verwendet werden. Die Daten, beispielsweise Grundrissdaten, Bebauungspläne, Katasterunterlagen, wurden also eigentlich zu anderen Zwecken ermittelt und erhalten so eine Mehrfachnutzung. Die Mehrfachnutzung der Daten, macht diese besonders kosteneffizient. Basis für das Verfahren ist eine umfassende Definition der Objektklassen, die in 3D-Stadtmodellen häufig vorkommen. Als Objektklassen wurden Gebäude und Vegetation ausgewählt. Die Klasse der Vegetationsobjekte wird beschrieben, indem Attributwerte zu Objekthöhe und Kronendurchmesser, sowie Alter und Baumart gemacht werden. Daraus werden die drei Modellrichtungen Kugelform, L-System und Kreuztextur entwickelt. Kugelbaum-Modelle vereinfachen die Umrissform der Baumkrone zu einem in alle Richtungen skalierbaren Sphäroid. Der Baumstamm wird als Zylinder dargestellt. Mit L-Systemen wird versucht, den Wachstumsprozess von Pflanzen nachzuvollziehen. Es entsteht je Baum ein Baumstamm, sowie Äste und Blätter als Baumteile. Je nach Baumalter entstehen weitere Verästelungen. Kreuztafelmodelle verwenden ebene bildliche Projektionen der jeweiligen Baumart. Mit dem Bild werden zwei Flächen texturiert, welche dann kreuzweise zueinander aufgestellt werden. Texturen für Vegetationsobjekte können aus Fotografien aber auch aus Abbildungen künstlich erstellter Baumvisualisierungen, hervorgegangen aus L-Systemen, gewonnen werden. Die vorgestellten Modelle können mit unterschiedlichem Detaillierungsgrad realisiert werden, um die Vereinfachungsmöglichkeiten bei zunehmendem Abstand vom Betrachter (Level of Detail) nutzen zu können. Zur Modellierung der Gebäude sind unterschiedliche Dachformen bereitgestellt worden. Insgesamt werden 16 Dachformen unterstützt. Die in Europa üblichen Dachformen werden gebildet aus Kombinationen von traufeseitige Formen (Giebel, Walm, Krüppelwalm) und giebelseitigen Formen (Sattel, Mansarde, Pult). Hinzu kommen noch Sonderformen wie das Flachdach. Auf das Mauerwerk werden Fenster aufgebracht. Das Gebäudemodell wird durch ein Texturmodell verfeinert. Es sind unterschiedliche Texturen für Mauerwerk, Fenster, Dachunterseite und Dachoberseite möglich. Die Speicherung der Daten erfolgt im XML-Format

    Correlations between the selection of topics by news media and scientific journals

    Get PDF
    The aim of this study is to reveal a robust correlation between the amount of attention international journalism devotes to scientific papers and the amount of attention scientific journals devote to the respective topics. Using a Mainstream-Media-Score (MSM) ≥ 100 (which we regard as an indicator for news media attention) from the altmetrics provider Altmetric, we link 983 research articles with 185,166 thematically similar articles from the PubMed database (which we use to operationalize attention from scientific journals). The method we use is to test whether there is a concomitant increase in scientific attention after a research article has received popular media coverage. To do so, we compare the quotient of the number of thematically similar articles published in scientific journals during the period before and after the publication of an MSM ≥ 100 article. Our main result shows that in 59 percent of cases, more thematically similar articles were published in scientific journals after a scientific paper received noteworthy news media coverage than before (p < 0.01). In this context, we neither found significant differences between various types of scientific journal (p = 0.3) nor between scientific papers that were originally published in renowned opinion-leading journals or in less renowned, non-opinion-leading journals (p = 0.1). Our findings indicate a robust correlation between the choice of topics in the mass media and in research. However, our study cannot clarify whether this correlation occurs because researchers and/or scientific journals are oriented towards public relevance (publicity effect) or whether the correlation is due to the parallelism of relevance attributions in quality journalism and research (earmark hypothesis). We infer that topics of social relevance are (more) likely to be picked up by popular media as well as by scientific journals. Altogether, our study contributes new empirical findings to the relationship between topic selection in journalism and in research
    • …
    corecore