32 research outputs found
Informationsbeschaffung aus digitalen Textressourcen - DomÀnenadaptive Verfahren zur Strukturierung heterogener Textdokumente
In der heutigen Informationsgesellschaft sind Personen hĂ€ufig mit der sogenannten InformationsĂŒberflutung konfrontiert. Dies bedeutet, dass es aufgrund der enormen Menge insbesondere digital verfĂŒgbarer textueller Ressourcen zu einer Ăberforderung bei der Identifikation relevanter Informationen kommen kann. Bislang ist eine UnterstĂŒtzung bei dieser Aufgabe vorrangig ĂŒber Volltextsuchen in Textsammlungen möglich, die jedoch keine komplexen Suchanfragen mit Beschreibung unterschiedlicher Aspekte der Suchanfrage erlauben. Werkzeuge zur elaborierten Suche, welche es erlauben, einzelne Aspekte der zu suchenden Information zu beschreiben, existieren nur in spezifischen DomĂ€nen. Ein wesentlicher Grund hierfĂŒr ist, dass die zu durchsuchenden digitalen Textressourcen meist in unstrukturierter Form vorliegen. Damit ist kein einheitlicher, gezielter Zugriff auf spezifische Informationen innerhalb der Dokumente möglich, welcher die Realisierung solcher Werkzeuge vereinfachen wĂŒrde. Strukturierte ReprĂ€sentationen der Dokumente, in denen die Bedeutung einzelner Textfragmente fĂŒr die in den Dokumenten beschriebenen EntitĂ€ten zu erkennen ist, wĂŒrden diesen Zugriff ermöglichen.
Im Rahmen dieser Dissertation wird untersucht, mit welchen Verfahren textuelle Dokumente automatisiert in eine strukturierte ReprĂ€sentation ĂŒberfĂŒhrt werden können. Existierende AnsĂ€tze mit gleicher oder Ă€hnlicher Zielsetzung sind meist fĂŒr spezifische AnwendungsdomĂ€nen entwickelt und lassen sich nur schwer in andere DomĂ€nen ĂŒbertragen. Bei Einsatz in neuen DomĂ€nen mĂŒssen bislang somit vollstĂ€ndig neue AnsĂ€tze zur Strukturierung entworfen werden oder zur Ăbertragung von AnsĂ€tzen ein groĂer manueller Aufwand erbracht werden. Daraus resultiert die Notwendigkeit, domĂ€nenadaptive Verfahren zur Strukturierung von Textressourcen zu entwickeln. Dem steht als wesentliche Herausforderung die HeterogenitĂ€t von AnwendungsdomĂ€nen hinsichtlich verschiedener Kriterien wie verwendeter Dokumentenformate, vorherrschender TextlĂ€nge und domĂ€nenspezifischer Terminologie entgegen.
Die Untersuchung von fĂŒnf ausgewĂ€hlten heterogenen AnwendungsdomĂ€nen zeigte, dass bestimmte Typen von Informationen domĂ€nenĂŒbergreifend von Relevanz sind. Daher wurden fĂŒr drei dieser Typen Verfahren konzipiert, welche Informationen dieser Typen in heterogenen Dokumenten identifizieren können. Hierbei wurde sichergestellt, dass fĂŒr die erstmalige Anwendung der Verfahren in einer spezifischen DomĂ€ne möglichst wenig manueller Aufwand erforderlich ist, um die Anforderung der DomĂ€nenadaptivitĂ€t der Verfahren zu berĂŒcksichtigen. Zur Reduktion des manuellen Aufwands wurden Techniken des maschinellen Lernens, wie der Ansatz des Active Learning, sowie existierende, frei verfĂŒgbare Wissensbasen verwendet. Die konzipierten Verfahren wurden implementiert und unter Verwendung von Textkorpora aus den zuvor analysierten DomĂ€nen evaluiert. Dabei konnte gezeigt werden, dass die Identifikation von Informationen dieser drei Typen mit hoher GĂŒte möglich ist und gleichzeitig eine gute DomĂ€nenadaptivitĂ€t erreicht wird. Weiterhin wurden unabhĂ€ngige Verfahren zur Identifikation von Informationen der einzelnen Typen kombiniert, um eine Strukturierung kompletter Dokumente durchfĂŒhren zu können. Dieses Konzept wurde in einer Fallstudie fĂŒr eine der AnwendungsdomĂ€nen implementiert und unter Verwendung eines Textkorpus aus dieser DomĂ€ne evaluiert. Die Resultate bestĂ€tigen, dass eine Strukturierung mittels Kombination der Verfahren zur Identifikation der Informationen der einzelnen Typen erreicht werden kann.
Unter Verwendung der in dieser Dissertation vorgestellten domĂ€nenadaptiven Verfahren lassen sich strukturierte ReprĂ€sentationen aus unstrukturierten digitalen Textressourcen erstellen, die die vereinfachte Realisierung von Werkzeugen zur Informationsbeschaffung ermöglichen. Die daraus resultierenden Möglichkeiten fĂŒr elaborierte Werkzeuge zur Informationsbeschaffung reduzieren die Ăberforderung der Nutzer bei der Identifikation relevanter Informationen
Werkzeuge fĂŒr Rechtsdatenbanken
Wenn in Rechtstexten Wissen ĂŒber das Recht enthalten ist, dann mĂŒsste in vielen Texten viel Recht zu finden sein. Die Korpuslinguistik bearbeitet linguistische Fragestellungen anhand groĂer Textmengen, die ausgewĂ€hlt, erworben, aufbereitet (annotiert) und dann durchsucht/bearbeitet werden. Die fĂŒnf Kapitel dieser Arbeit widmen sich jeweils einem wichtigen Thema, zu dem Methoden vorgestellt, in Werkzeugen implementiert und diskutiert werden.
Im ersten Kapitel (Dokumentklassifikation) wird eine Methode vorgestellt, mit der gezielt Rechtstexte aus dem Internet ausgewÀhlt, akquiriert und geordnet in ein Korpus abgelegt werden können. Auch hier sollen die Voraussetzungen so gering wie möglich gehalten werden, damit möglichst breiter Gebrauch von der Methode gemacht werden kann. Die Einteilung des Rechts in einzelne Fachgebiete hat weitreichende Folgen. Sowohl Texte wie Rechtskonzepte erlangen ihre spezielle Bedeutung durch ihr Fachgebiet.
Das zweite Kapitel (Fachgebietsklassifikation) gibt einen Ăberblick ĂŒber die Problematik der Fachgebietseinteilung und stellt zwei automatische Fachgebietserkenner vor, die diese Spezialaufgabe besser lösen als die in Kapitel 1 vorgestellte allgemeine Dokumentklassifikation. Eine groĂe VerĂ€nderung erfĂ€hrt die Rechtsterminologie und -terminografie durch den Ăbergang von der physischen zur elektronischen Schrift. Damit muss nicht mehr eine Darstellungsweise allen Anforderungen gerecht werden, sondern die Darstellung kann dynamisch an die UmstĂ€nde angepasst werden.
Im dritten Kapitel (Dynamische Termdarstellung) wird das Konzept einer dynamischen Termdarstellung vorgestellt und seine technische Umsetzung skizziert.
Das vierte Kapitel Termextraktion durch Beispielterme stellt eine automatische Termextraktionsmethode vor, die mit relativ geringen Voraussetzungen gute Ergebnisse liefert und damit fĂŒr weniger stark verbreitete Sprachen eine Alternative zu kommerziellen Programmen
darstellt. Dieses Instrument kann bei der zentralen Aufgabenstellung
der Terminografie, dem Auffinden und der Auswahl der Termini, eingesetzt werden. Hier wird aber auch gezeigt, wie die Termextraktion zur Indizierung des in den meisten terminografischen Projekten vorhandenen Hintergrundkorpus verwendet werden kann.
Das fĂŒnfte Kapitel (Organisation rechtlichen Wissens) gibt einen
Ăberblick ĂŒber die vielfĂ€ltigen Möglichkeiten der Einteilung und
ReprĂ€sentation von (rechtlichem) Wissen. Eine Methode der WissensreprĂ€sentation mit formaler Sprache, die logische Operationen ermöglicht, ist eine Ontologie. Es wurde eine Ontologie fĂŒr eine Rechtsdatenbank erstellt und alle damit zusammenhĂ€ngenden Aspekte diskutiert.
Im Fazit wird schlieĂlich diskutiert, fĂŒr welche Bereiche der Arbeit mit Rechtsdatenbanken bereits jetzt relativ einfache Werkzeuge zur VerfĂŒgung stehen und wo die Entwicklung von weiteren Werkzeugen ansetzen könnte.
Die Kapitel sind so geschrieben, dass sie auch einzeln gelesen werden können, ohne jedoch allzu starke Ăberschneidungen zuzulassen.La thĂšse de doctorat «Outils pour des bases de donnĂ©es juridiques» traĂźte des mĂ©thodes linguistiques et informatiques pour comprendre, mĂ©moriser et communiquer des connaissances juridiques. Les sujets traitĂ©s sont:
I. La classification de documents
Je discute les classes importantes pour des documents juridiques et je propose une classi-fication automatique qui nâutilise pas seulement le texte du document, mais aussi dâautres critĂšres comme lâadresse du document, lâadresse des liens et le contexte de la recherche de documents.
II. Lâidentification de disciplines en terminographie
Je prĂ©tends que toute rĂ©partition en disciplines et sous-disciplines est par nature relative. Puis je prĂ©sente deux mĂ©thodes pour lâidentification de la discipline dâun texte. La pre-miĂšre utilise les termes et la deuxiĂšme les textes (dĂ©finitions et contextes) prĂ©sents dans la base de donnĂ©es terminographique.
III. La présentation dynamique de termes
Je discute les problĂšmes de la prĂ©sentation de termes traditionnelle pour livres et les avantages dâune prĂ©sentation adaptĂ©e dynamiquement aux besoins concrets de chaque client. Pour prouver la faisabilitĂ© de cette nouvelle approche, jâindique la technologie applicable pour chaque fonction et je prĂ©sente une mise en Ćuvre dans le systĂšme termi-nographique BISTRO (www.eurac.edu/bistro)
IV. Lâextraction de termes
Je discute les caractĂ©ristiques des trois mĂ©thodes pour lâextraction de termes. AprĂšs je montre lâefficacitĂ© de la mĂ©thode basĂ©e sur des exemples lors dâune expĂ©rience. Lâoutil est librement accessible en Internet et peut servir pour lâindexation dâun corpus.
V. Lâorganisation du savoir juridique
Je discute exhaustivement tous les systĂšmes rĂ©pandus dâorganisation du savoir, de mots-clĂ©s jusquâaux ontologies. Ensuite je dĂ©crits le procĂ©dĂ© et les problĂšmes concrets pour organiser une base de donnĂ©es juridiques avec une ontologie
Probabilistische Szenenmodelle fĂŒr die Luftbildauswertung
The interpretation of aerial and satellite imagery requires significant experience and expert knowledge and therefore is mainly performed by professional image interpreters. So far, automatic methods are not able to provide comparable results but they can be used to support the manual image interpretation process. This work shows how the benefits of manual and automatic image interpretation can be adequately combined in an interactive image interpretation system
Probabilistische Szenenmodelle fĂŒr die Luftbildauswertung
Die Auswertung von Luft- und Satellitenbildern erfordert ein hohes MaĂ an Erfahrung und Expertenwissen und wird daher durch professionelle Bildauswerter durchgefĂŒhrt. Rein automatische Verfahren bis heute hĂ€ufig keine vergleichbaren Ergebnisse liefern, jedoch können sie den manuellen Auswerteprozess unterstĂŒtzen. Diese Arbeit zeigt, wie die Vorteile von manueller und automatischer Auswertung in einem interaktiven Bildanalysesystem geeignet kombiniert werden können
Digital Intelligence â Möglichkeiten und Umsetzung einer informatikgestĂŒtzten FrĂŒhaufklĂ€rung: Digital Intelligence â opportunities and implementation of a data-driven foresight
Das Ziel der Digital Intelligence bzw. datengetriebenen Strategischen FrĂŒhaufklĂ€rung ist, die Zukunftsgestaltung auf Basis valider und fundierter digitaler Information mit vergleichsweise geringem Aufwand und enormer Zeit- und Kostenersparnis zu unterstĂŒtzen. Hilfe bieten innovative Technologien der (halb)automatischen Sprach- und Datenverarbeitung wie z. B. das Information Retrieval, das (Temporal) Data, Text und Web Mining, die Informationsvisualisierung, konzeptuelle Strukturen sowie die Informetrie. Sie ermöglichen, SchlĂŒsselthemen und latente ZusammenhĂ€nge aus einer nicht ĂŒberschaubaren, verteilten und inhomogenen Datenmenge wie z. B. Patenten, wissenschaftlichen Publikationen, Pressedokumenten oder Webinhalten rechzeitig zu erkennen und schnell und zielgerichtet bereitzustellen. Die Digital Intelligence macht somit intuitiv erahnte Muster und Entwicklungen explizit und messbar.
Die vorliegende Forschungsarbeit soll zum einen die Möglichkeiten der Informatik zur datengetriebenen FrĂŒhaufklĂ€rung aufzeigen und zum zweiten diese im pragmatischen Kontext umsetzen.
Ihren Ausgangspunkt findet sie in der EinfĂŒhrung in die Disziplin der Strategischen FrĂŒhaufklĂ€rung und ihren datengetriebenen Zweig â die Digital Intelligence.
Diskutiert und klassifiziert werden die theoretischen und insbesondere informatikbezogenen Grundlagen der FrĂŒhaufklĂ€rung â vor allem die Möglichkeiten der zeitorientierten Datenexploration.
Konzipiert und entwickelt werden verschiedene Methoden und Software-Werkzeuge, die die zeitorientierte Exploration insbesondere unstrukturierter Textdaten (Temporal Text Mining) unterstĂŒtzen. Dabei werden nur Verfahren in Betracht gezogen, die sich im Kontext einer groĂen Institution und den spezifischen Anforderungen der Strategischen FrĂŒhaufklĂ€rung pragmatisch nutzen lassen. Hervorzuheben sind eine Plattform zur kollektiven Suche sowie ein innovatives Verfahren zur Identifikation schwacher Signale.
Vorgestellt und diskutiert wird eine Dienstleistung der Digital Intelligence, die auf dieser Basis in einem globalen technologieorientierten Konzern erfolgreich umgesetzt wurde und eine systematische Wettbewerbs-, Markt- und Technologie-Analyse auf Basis digitaler Spuren des Menschen ermöglicht.:Kurzzusammenfassung 2
Danksagung 3
Inhaltsverzeichnis 5
Tabellenverzeichnis 9
Abbildungsverzeichnis 10
A â EINLEITUNG 13
1 Hintergrund und Motivation 13
2 Beitrag und Aufbau der Arbeit 16
B â THEORIE 20
B0 â Digital Intelligence 20
3 Herleitung und Definition der Digital Intelligence 21
4 Abgrenzung zur Business Intelligence 23
5 Ăbersicht ĂŒber unterschiedliche Textsorten 24
6 Informetrie: Bibliometrie, Szientometrie, Webometrie 29
7 Informationssysteme im Kontext der Digital Intelligence 31
B1 â Betriebswirtschaftliche Grundlagen der Digital Intelligence 36
8 Strategische FrĂŒhaufklĂ€rung 37
8.1 Facetten und historische Entwicklung 37
8.2 Methoden 41
8.3 Prozess 42
8.4 Bestimmung wiederkehrender Termini 44
8.5 Grundlagen der Innovations- und Diffusionsforschung 49
B2 â Informatik-Grundlagen der Digital Intelligence 57
9 Von Zeit, Daten, Text, Metadaten zu multidimensionalen zeitorientierten (Text)Daten 59
9.1 Zeit â eine Begriffsbestimmung 59
9.1.1 Zeitliche Grundelemente und Operatoren 59
9.1.2 Lineare, zyklische und verzweigte Entwicklungen 62
9.1.3 Zeitliche (Un)Bestimmtheit 62
9.1.4 Zeitliche GranularitÀt 63
9.2 Text 63
9.2.1 Der Text und seine sprachlich-textuellen Ebenen 63
9.2.2 Von Signalen und Daten zu Information und Wissen 65
9.3 Daten 65
9.3.1 Herkunft 65
9.3.2 DatengröĂe 66
9.3.3 Datentyp und Wertebereich 66
9.3.4 Datenstruktur 67
9.3.5 DimensionalitÀt 68
9.4 Metadaten 69
9.5 Zusammenfassung und multidimensionale zeitorientierte Daten 70
10 Zeitorientierte Datenexplorationsmethoden 73
10.1 Zeitorientierte Datenbankabfragen und OLAP 76
10.2 Zeitorientiertes Information Retrieval 78
10.3 Data Mining und Temporal Data Mining 79
10.3.1 ReprÀsentationen zeitorientierter Daten 81
10.3.2 Aufgaben des Temporal Data Mining 86
10.4 Text Mining und Temporal Text Mining 91
10.4.1 Grundlagen des Text Mining 98
10.4.2 Entwickelte, genutzte und lizensierte Anwendungen des Text Mining 107
10.4.3 Formen des Temporal Text Mining 110
10.4.3.1 Entdeckung kausaler und zeitorientierter Regeln 110
10.4.3.2 Identifikation von Abweichungen und VolatilitÀt 111
10.4.3.3 Identifikation und zeitorientierte Organisation von Themen 112
10.4.3.4 Zeitorientierte Analyse auf Basis konzeptueller Strukturen 116
10.4.3.5 Zeitorientierte Analyse von Frequenz, Vernetzung und Hierarchien 117
10.4.3.6 Halbautomatische Identifikation von Trends 121
10.4.3.7 Umgang mit dynamisch aktualisierten Daten 123
10.5 Web Mining und Temporal Web Mining 124
10.5.1 Web Content Mining 125
10.5.2 Web Structure Mining 126
10.5.3 Web Usage Mining 127
10.5.4 Temporal Web Mining 127
10.6 Informationsvisualisierung 128
10.6.1 Visualisierungstechniken 130
10.6.1.1 Visualisierungstechniken nach Datentypen 130
10.6.1.2 Visualisierungstechniken nach Darstellungsart 132
10.6.1.3 Visualisierungstechniken nach Art der Interaktion 137
10.6.1.4 Visualisierungstechniken nach Art der visuellen Aufgabe 139
10.6.1.5 Visualisierungstechniken nach Visualisierungsprozess 139
10.6.2 Zeitorientierte Visualisierungstechniken 140
10.6.2.1 Statische ReprÀsentationen 141
10.6.2.2 Dynamische ReprÀsentationen 145
10.6.2.3 Ereignisbasierte ReprÀsentationen 147
10.7 Zusammenfassung 152
11 Konzeptuelle Strukturen 154
12 Synopsis fĂŒr die zeitorientierte Datenexploration 163
C â UMSETZUNG EINES DIGITAL-INTELLIGENCESYSTEMS 166
13 Bestimmung textbasierter Indikatoren 167
14 Anforderungen an ein Digital-Intelligence-System 171
15 Beschreibung der Umsetzung eines Digital-Intelligence-Systems 174
15.1 Konzept einer Dienstleistung der Digital Intelligence 175
15.1.1 Portalnutzung 177
15.1.2 Steckbriefe 178
15.1.3 Tiefenanalysen 180
15.1.4 Technologiescanning 185
15.2 Relevante Daten fĂŒr die Digital Intelligence (Beispiel) 187
15.3 FrĂŒhaufklĂ€rungs-Plattform 188
15.4 WCTAnalyze und automatische Extraktion themenspezifischer Ereignisse 197
15.5 SemanticTalk 200
15.6 Halbautomatische Identifikation von Trends 204
15.6.1 Zeitreihenkorrelation 205
15.6.2 HD-SOM-Scanning 207
D â ZUSAMMENFASSUNG 217
Anhang A: Prozessbilder entwickelter Anwendungen des (Temporal) Text Mining 223
Anhang B: Synopsis der zeitorientierten Datenexploration 230
Literaturverzeichnis 231
SelbststÀndigkeitserklÀrung 285
Wissenschaftlicher Werdegang des Autors 286
Veröffentlichungen 28
Digitale Editionsformen. Zum Umgang mit der Ăberlieferung unter den Bedingungen des Medienwandels. Teil 3: Textbegriffe und Recodierung. [Finale Print-Fassung]
Die wissenschaftliche Edition zielt auf die zuverlĂ€ssige Wiedergabe des Textes. Aber was ist dieser Text eigentlich? Bei genauerer Betrachtung erlaubt nur ein erweiterter Textbegriff und ein neues pluralistisches Textmodell eine Beschreibung aller textuellen PhĂ€nomene, die in einer wissenschaftlichen Edition zu berĂŒcksichtigen sind. Auch unsere Technologien und Methodologien der Textcodierung, hier vor allem die Auszeichnungssprachen im Allgemeinen und die Beschreibungsempfehlungen der Text Encoding Initiative (TEI) im Besonderen können unter dieser Schablone genauer beschrieben und hinsichtlich ihrer Grenzen charakterisiert werden. SchlieĂlich erlaubt das pluralistische Textmodell auch die prĂ€zisere theoretische Fundierung jener Prozesse, die als "Transkription" Grundlage und HerzstĂŒck einer jeden wissenschaftlichen Edition sind
Digitale Editionsformen. Zum Umgang mit der Ăberlieferung unter den Bedingungen des Medienwandels. Teil 3: Textbegriffe und Recodierung. [Preprint-Fassung]
Die wissenschaftliche Edition zielt auf die zuverlĂ€ssige Wiedergabe des Textes. Aber was ist dieser Text eigentlich? Bei genauerer Betrachtung erlaubt nur ein erweiterter Textbegriff und ein neues pluralistisches Textmodell eine Beschreibung aller textuellen PhĂ€nomene, die in einer wissenschaftlichen Edition zu berĂŒcksichtigen sind. Auch unsere Technologien und Methodologien der Textcodierung, hier vor allem die Auszeichnungssprachen im Allgemeinen und die Beschreibungsempfehlungen der Text Encoding Initiative (TEI) im Besonderen können unter dieser Schablone genauer beschrieben und hinsichtlich ihrer Grenzen charakterisiert werden. SchlieĂlich erlaubt das pluralistische Textmodell auch die prĂ€zisere theoretische Fundierung jener Prozesse, die als "Transkription" Grundlage und HerzstĂŒck einer jeden wissenschaftlichen Edition sind
Konzept eines Dokumentationsassistenten zur Erzeugung strukturierter Anforderungen basierend auf Satzschablonen
Um die QualitĂ€t und GlaubwĂŒrdigkeit eines Produktes zu erhalten, ist ein systematisches Anforderungsmanagement erforderlich, wobei die Merkmale eines Produkts durch Anforderungen beschrieben werden. Deswegen wurde im Rahmen dieser Arbeit ein Konzept fĂŒr einen Dokumentationsassistenten entwickelt, mit dem Benutzer strukturierte Anforderungen basierend auf den Satzschablonen nach SOPHIST erstellen können. Dies beinhaltet einen linguistischen Aufbereitungsansatz, der semantische Rollen aus freiem Text extrahiert. WĂ€hrend des Dokumentationsprozesses wurden die semantischen Rollen benutzt, um passendste Satzschablone zu identifizieren und diese als Hilfestellung dem Benutzer auszuzeigen. Zudem wurde eine weitere Hilfestellung angeboten, nĂ€mlich die AutovervollstĂ€ndigung, die mithilfe von Markovketten das nĂ€chste Wort vorhersagen kann. Insgesamt wurden 500 Anforderungen aus verschiedenen Quellen herangezogen, um die IntegritĂ€t des Konzepts zu bewerten. Die Klassifizierung der Texteingabe in eine Satzschablone erreicht ein F1-MaĂ von 0,559. Dabei wurde die funktionale Anforderung Satzschablone F1-MaĂ von 0,908 am besten identifiziert. AuĂerdem wurde der Zusammenhang zwischen den Hilfestellungen mit Hilfe eines Workshops bewertet. Hierbei konnte gezeigt werden, dass die Anwendung des vorliegenden Konzepts, die VollstĂ€ndigkeit von Anforderungen verbessert und somit die QualitĂ€t der zu dokumentierenden Anforderungen steigert
Textgenetische Prozesse in Digitalen Editionen
BegĂŒnstigt durch den digitalen Medienwandel entstehen zur Zeit neue Editionsformen, deren Nutzen sich vor allem aus der Ăberwindung medienbedingter Limitierungen gedruckter Editionen ergibt. Der Wegfall dieser einschrĂ€nkenden Faktoren, wie ein fest vorgegebenes Seitenformat oder die Begrenzung auf eine bestimmte Seitenanzahl und die daraus resultierenden Möglichkeiten, im Prinzip unbegrenzte Mengen an Transkriptionen, Abbildungen und Kontextmaterialien in die Digitale Edition integrieren zu können, sind ein wesentliches Merkmal dieser neueren AnsĂ€tze. Trotz dieser Entwicklungen fehlt es im Bereich Digitaler Textgenetischer Editionen bis heute aber weiterhin an geeigneten Methoden und Werkzeugen, um den Entstehungsprozess eines Textes intuitiv nachvollziehen und in geeigneter Weise visualisieren zu können. Besonders zwei Aspekte werden in diesem Zusammenhang bislang vernachlĂ€ssigt. Zum einen die rĂ€umliche Anordnung textgenetischer Prozesse, die vor allem bei der Transkription von Manuskripten nicht in ausreichendem MaĂe berĂŒcksichtigt werden und zum anderen die zeitliche Abfolge dieser Prozesse. Die Vorliegende Arbeit soll diese Bereiche gezielt in den Blick nehmen. Dabei geht es zum einen um eine kritische Analyse der bisherigen Kodierungspraxis solcher PhĂ€nomene und zum anderen um die Möglichkeiten, wie solche Prozesse durch browserbasierte Lösungen visualisiert werden können. Die Arbeit ist in einen theoretischen und einen praktischen Teil untergliedert. Der erste Teil gibt einen Ăberblick ĂŒber die Entwicklungen im Bereich Digitaler Editionen vor allem seit der Etablierung des WWW als generisch digitales Editionsmedium. Darauf folgt ein kurzer historischer Exkurs ĂŒber Editionspraktiken zu Zeiten der Druckkultur. AnschlieĂend werden zentrale Problembereiche digitaler textgenetischer Editionen thematisiert und modellhafte LösungsansĂ€tze entwickelt. AbschlieĂend werden diese in einem praxisnahen Teil in Form von beispielhaft implementierten Softwarekomponenten veranschaulicht