17 research outputs found
Medienwissenschaft und Kapitalismuskritik
Nachdem ›Kritik‹ während der vergangenen Jahrzehnte in vielen geistes- und kulturwissenschaftlichen Kreisen eher verschmäht wurde, erlebt sie gegenwärtig auch in der Medienwissenschaft wieder einen Aufschwung. Gerade das in Verruf geratene Projekt einer Gesellschaftskritik scheint seit der Finanzkrise von 2007 wieder an akademischer Attraktivität zu gewinnen. Dabei liegt die gedankliche Verbindung von Medienwissenschaft und Kapitalismuskritik nahe, schließt man damit doch an zwei dominante Selbstbeschreibungen der westlichen Gesellschaften an: die der Medien- oder Informationsgesellschaft einerseits und die einer kapitalistischen oder marktwirtschaftlichen Gesellschaft andererseits. Insofern scheint ein Dialog zwischen der Erforschung von Medien und der Erforschung des Kapitalismus geradezu zwingend. Das vorliegende Heft versammelt eine Reihe von Texten, die weniger konkrete Fallstudien zu einzelnen Medien und Medienpraktiken, sondern vornehmlich theoriebezogene Diskussionsbeiträge sind, welche das diskursive Feld der Medienwissenschaft und Medienforschung ausloten und auf die virulenten Fragen der Kapitalismuskritik hin befragen
Ist Commonismus Kommunismus? Commonsbasierte Peer-Produktion und der kommunistische Anspruch
During the last decades, a new mode of production has emerged, for which names such as "commons-based peer production," "cornmonism," and "peer economi' have been proposed, This article explores the main characteristics of this mode of prodnction and discusses the relationship between commonism and communism: if communism is "the real movement which abolishes the present state of things", can commonism become the mode of production which allows this movement to realize this purpose
From Exchange to Contributions - Generalizing Peer Production into the Physical World
A new mode of production has emerged in the areas of software and content production. This mode, which is based on sharing and cooperation, has spawned whole mature operating systems such as GNU/Linux as well as innumerable other free software applications; giant knowledge bases such as the Wikipedia; a large free culture movement; and a new, wholly decentralized medium for spreading, analyzing and discussing news and knowledge, the so-called blogosphere.\ud
So far, this new mode of production—peer production—has been limited to certain niches of production, such as information goods. This book discusses whether this limitation is necessary or whether the potential of peer production extends farther. In other words: Is a society possible in which peer production is the primary mode of production? If so, how could such a society be organized?\ud
Is a society possible where production is driven by demand and not by profit? Where there is no need to sell anything and hence no unemployment? Where competition is more a game than a struggle for survival? Where there is no distinction between people with capital and those without? A society where it would be silly to keep your ideas and knowledge secret instead of sharing them; and where scarcity is no longer a precondition of economic success, but a problem to be worked around
Ein inkrementell trainierbarer statistischer Ansatz zur Informationsextraktion basierend auf Tokenklassifikation und reichhaltigen Kontextmodellen
Title, Abstract & TOC1
1 Introduction9
I The Field of Information Extraction13
2 Information Extraction15
3 Architecture and Workflow19
4 Statistical Approaches29
5 Non-Statistical Approaches35
6 Comparison of Existing Approaches43
II Analysis47
7 Aims and Requirements49
8 Assumptions55
9 Target Schemas and Input/Output Models59
III Algorithms and Models67
10 Modeling Information Extraction as a Classification Task69
11 Classification Algorithm and Feature Combination Techniques73
12 Preprocessing and Context Representation81
13 Merging Conflicting and Incomplete XML Markup89
14 Weakly Hierarchical Extraction99
IV Evaluation103
15 Evaluation Goals and Metrics105
16 Text Classification Experiments109
17 Extraction of Attribute Values119
18 Ablation Study and Utility of Incremental Training131
19 Comparison of Tagging Strategies139
20 Weakly Hierarchical Extraction143
21 Mistake Analysis149
V Conclusions167
22 Conclusion and Outlook169
Bibliography175
Appendix183
A Schema for Augmented Text185
B Curriculum Vitae189
C Zusammenfassung in deutscher Sprache191Most of the information stored in digital form is hidden in natural language
(NL) texts. While information retrieval (IR) helps to locate documents which
might contain the facts needed, there is no way to answer queries. The purpose
of information extraction (IE) is to find desired pieces of information in NL
texts and store them in a form that is suitable for automatic querying and
processing.
The goal of this thesis has been the development and evaluation of a trainable
statistical IE approach. This approach introduces new functionality not
supported by current IE systems, such as support for incremental training to
reduce the human training effort by allowing a more interactive workflow.
The IE system introduced in this thesis is designed as a generic framework for
statistical classification-based information extraction that allows modifying
and exchanging all core components (such as classification algorithm, context
representations, tagging strategies) independently of each other. The thesis
includes a systematic analysis of switching one such component (the tagging
strategies).
Several new sources of information are explored for improving extraction
quality. Especially we introduce rich tree-based context representations that
combine document structure and generic XML markup with more conventional
linguistic and semantic sources of information. Preparing these rich context
representations makes it necessary to unify various and partially conflicting
sources of information (such as structural markup and linguistic annotations)
in XML-style trees. For this purpose, we develop a merging algorithm that can
repair nesting errors and related problems in XML-like input.
As the core of the classification-based IE approach, we introduce a generic
classification algorithm (Winnow+OSB) that combines online learning with novel
feature combination techniques. We show that this algorithm is not only
suitable for information extraction, but also for other tasks such as text
classification. Among other good results, the classifier was found to be one
of the two best filters submitted for the 2005 Spam Filtering Task of the Text
REtrieval Conference (TREC).
The thesis includes a detailed evaluation of the resulting IE which shows that
the results reached by our system are better than or competitive with those of
other state-of-the-art IE systems. The evaluation includes an ablation study
that measures the influence of various factors on the overall results and
finds that all of them contribute to the good results of our system. It also
includes an analysis of the utility of interactive incremental training that
confirms that this newly introduced training regimen can be very helpful for
reducing the human training effort. The quantitative evaluation is
complemented with an analysis of the kinds of mistakes made during extraction
and their likely causes that allows a better understanding of where and how we
can expect further improvements in information extraction quality to be made
and which limits might exist for information extraction systems in general.Ein GroĂźteil der heute digital verfĂĽgbaren Informationen liegt in Form
natĂĽrlichsprachlicher Texte vor. Das Ziel der Informationsextraktion (IE) ist
es, bestimmte gewĂĽnschte Informationen aus solchen Texten zu extrahieren und
in einer Form abzuspeichern, die strukturierte Abfragen ermöglicht (im
Gegensatz zum Information Retrieval, wo die Suche nach Dokumenten und
Dokumentfragmenten im Vordergrund steht).
In dieser Dissertation wird ein trainierbares statistisches
Informationsextraktionssystem entwickelt. Anders als bisherige Ansätze kann
unser System inkrementell trainiert werden, was den menschlichen
Trainingsaufwand verringert.
Das System ist als generisches Framework konzipiert -- alle Bestandteile des
klassifikationsbasierten Informationsextraktionsmodells können unabhängig
voneinander modifiziert und ausgetauscht werden. Der systematische Austausch
einer der Komponenten (der Tagging-Strategien) wird im Rahmen der Arbeit
untersucht.
Zur Verbesserung der Extraktionsqualitität werden verschiedene neue
Informationsquellen untersucht. Die Verwendung reichhaltiger
Kontextrepräsentationen auf Basis von Baumstrukturen ermöglicht es uns, neben
semantischen und linguistischen Informationen auch die Dokumentstruktur als
Informationsquelle zu erschlieĂźen. Um die verschiedenen und teilweise
widersprĂĽchlichen Strukturen in eine einheitliche Baumstruktur zu bringen,
entwickeln wir einen Verschmelzungsalgorithmus fĂĽr XML, der
Verschachtelungskonflikte und andere Fehler beheben kann.
Als Kern des klassifikationsbasierten Ansatzes fĂĽhren wir einen generischen
Klassifikationsalgorithmus (Winnow+OSB) ein, der Online Learning mit einer
neuen Art erweiterter Bigramme verbindet. Wir zeigen, dass dieser Algorithmus
auĂźer fĂĽr Informationsextraktion auch fĂĽr andere Anwendungen wie
Textklassifikation geeignet ist -- so erzielte er im Spamfilter-Wettbewerb der
Text REtrieval Conference (TREC) 2005 eines der beiden besten Ergebnisse.
Die Arbeit beinhaltet eine ausfĂĽhrliche Evaluation unseres Extraktionssystems,
die zeigt, dass es mit anderen modernen Verfahren vergleichbare oder bessere
Ergebnisse erzielt. Wir untersuchen dabei auch den Einfluss verschiedener
Faktoren und Informationsquellen auf das Gesamtsystem, mit dem Ergebnisse,
dass alle eine positive Rolle spielen. Weiterhin wird die NĂĽtzlichkeit des von
uns vorgeschlagenen interaktiven inkrementellen Trainings gemessen; dabei
bestätigt sich, dass der menschliche Trainingsaufwand auf diese Weise stark
reduziert werden kann. Ergänzend zur quantitativen Evaluation analysieren wir
die auftretenden Fehler und ihre mutmaĂźlichen Ursachen, was ein besseres
Verständnis von Verbesserungsmöglichkeiten und vermutlich eher grundsätzlichen
Beschränkungen der Informationsextraktion ermöglicht
A Comparison of Tagging Strategies for Statistical Information Extraction
There are several approaches that model information extraction as a token classification task, using various tagging strategies to combine multiple tokens. We describe the tagging strategies that can be found in the literature and evaluate their relative performances. We also introduce a new strategy, called Begin/After tagging or BIA, and show that it is competitive to the best other strategies.
A Shallow Algorithm for Correcting Nesting Errors and Other Well-Formedness Violations in XML-like Input
We argue that there are some special situations where it can be useful to repair well-formedness violations occurring in XML-like input, giving examples from our own work. We analyze the types of errors that can occur in XML-like input and present a shallow algorithm that fixes most of these errors, withou