32 research outputs found

    Informationsbeschaffung aus digitalen Textressourcen - DomÀnenadaptive Verfahren zur Strukturierung heterogener Textdokumente

    Get PDF
    In der heutigen Informationsgesellschaft sind Personen hĂ€ufig mit der sogenannten InformationsĂŒberflutung konfrontiert. Dies bedeutet, dass es aufgrund der enormen Menge insbesondere digital verfĂŒgbarer textueller Ressourcen zu einer Überforderung bei der Identifikation relevanter Informationen kommen kann. Bislang ist eine UnterstĂŒtzung bei dieser Aufgabe vorrangig ĂŒber Volltextsuchen in Textsammlungen möglich, die jedoch keine komplexen Suchanfragen mit Beschreibung unterschiedlicher Aspekte der Suchanfrage erlauben. Werkzeuge zur elaborierten Suche, welche es erlauben, einzelne Aspekte der zu suchenden Information zu beschreiben, existieren nur in spezifischen DomĂ€nen. Ein wesentlicher Grund hierfĂŒr ist, dass die zu durchsuchenden digitalen Textressourcen meist in unstrukturierter Form vorliegen. Damit ist kein einheitlicher, gezielter Zugriff auf spezifische Informationen innerhalb der Dokumente möglich, welcher die Realisierung solcher Werkzeuge vereinfachen wĂŒrde. Strukturierte ReprĂ€sentationen der Dokumente, in denen die Bedeutung einzelner Textfragmente fĂŒr die in den Dokumenten beschriebenen EntitĂ€ten zu erkennen ist, wĂŒrden diesen Zugriff ermöglichen. Im Rahmen dieser Dissertation wird untersucht, mit welchen Verfahren textuelle Dokumente automatisiert in eine strukturierte ReprĂ€sentation ĂŒberfĂŒhrt werden können. Existierende AnsĂ€tze mit gleicher oder Ă€hnlicher Zielsetzung sind meist fĂŒr spezifische AnwendungsdomĂ€nen entwickelt und lassen sich nur schwer in andere DomĂ€nen ĂŒbertragen. Bei Einsatz in neuen DomĂ€nen mĂŒssen bislang somit vollstĂ€ndig neue AnsĂ€tze zur Strukturierung entworfen werden oder zur Übertragung von AnsĂ€tzen ein großer manueller Aufwand erbracht werden. Daraus resultiert die Notwendigkeit, domĂ€nenadaptive Verfahren zur Strukturierung von Textressourcen zu entwickeln. Dem steht als wesentliche Herausforderung die HeterogenitĂ€t von AnwendungsdomĂ€nen hinsichtlich verschiedener Kriterien wie verwendeter Dokumentenformate, vorherrschender TextlĂ€nge und domĂ€nenspezifischer Terminologie entgegen. Die Untersuchung von fĂŒnf ausgewĂ€hlten heterogenen AnwendungsdomĂ€nen zeigte, dass bestimmte Typen von Informationen domĂ€nenĂŒbergreifend von Relevanz sind. Daher wurden fĂŒr drei dieser Typen Verfahren konzipiert, welche Informationen dieser Typen in heterogenen Dokumenten identifizieren können. Hierbei wurde sichergestellt, dass fĂŒr die erstmalige Anwendung der Verfahren in einer spezifischen DomĂ€ne möglichst wenig manueller Aufwand erforderlich ist, um die Anforderung der DomĂ€nenadaptivitĂ€t der Verfahren zu berĂŒcksichtigen. Zur Reduktion des manuellen Aufwands wurden Techniken des maschinellen Lernens, wie der Ansatz des Active Learning, sowie existierende, frei verfĂŒgbare Wissensbasen verwendet. Die konzipierten Verfahren wurden implementiert und unter Verwendung von Textkorpora aus den zuvor analysierten DomĂ€nen evaluiert. Dabei konnte gezeigt werden, dass die Identifikation von Informationen dieser drei Typen mit hoher GĂŒte möglich ist und gleichzeitig eine gute DomĂ€nenadaptivitĂ€t erreicht wird. Weiterhin wurden unabhĂ€ngige Verfahren zur Identifikation von Informationen der einzelnen Typen kombiniert, um eine Strukturierung kompletter Dokumente durchfĂŒhren zu können. Dieses Konzept wurde in einer Fallstudie fĂŒr eine der AnwendungsdomĂ€nen implementiert und unter Verwendung eines Textkorpus aus dieser DomĂ€ne evaluiert. Die Resultate bestĂ€tigen, dass eine Strukturierung mittels Kombination der Verfahren zur Identifikation der Informationen der einzelnen Typen erreicht werden kann. Unter Verwendung der in dieser Dissertation vorgestellten domĂ€nenadaptiven Verfahren lassen sich strukturierte ReprĂ€sentationen aus unstrukturierten digitalen Textressourcen erstellen, die die vereinfachte Realisierung von Werkzeugen zur Informationsbeschaffung ermöglichen. Die daraus resultierenden Möglichkeiten fĂŒr elaborierte Werkzeuge zur Informationsbeschaffung reduzieren die Überforderung der Nutzer bei der Identifikation relevanter Informationen

    Werkzeuge fĂŒr Rechtsdatenbanken

    Get PDF
    Wenn in Rechtstexten Wissen ĂŒber das Recht enthalten ist, dann mĂŒsste in vielen Texten viel Recht zu finden sein. Die Korpuslinguistik bearbeitet linguistische Fragestellungen anhand großer Textmengen, die ausgewĂ€hlt, erworben, aufbereitet (annotiert) und dann durchsucht/bearbeitet werden. Die fĂŒnf Kapitel dieser Arbeit widmen sich jeweils einem wichtigen Thema, zu dem Methoden vorgestellt, in Werkzeugen implementiert und diskutiert werden. Im ersten Kapitel (Dokumentklassifikation) wird eine Methode vorgestellt, mit der gezielt Rechtstexte aus dem Internet ausgewĂ€hlt, akquiriert und geordnet in ein Korpus abgelegt werden können. Auch hier sollen die Voraussetzungen so gering wie möglich gehalten werden, damit möglichst breiter Gebrauch von der Methode gemacht werden kann. Die Einteilung des Rechts in einzelne Fachgebiete hat weitreichende Folgen. Sowohl Texte wie Rechtskonzepte erlangen ihre spezielle Bedeutung durch ihr Fachgebiet. Das zweite Kapitel (Fachgebietsklassifikation) gibt einen Überblick ĂŒber die Problematik der Fachgebietseinteilung und stellt zwei automatische Fachgebietserkenner vor, die diese Spezialaufgabe besser lösen als die in Kapitel 1 vorgestellte allgemeine Dokumentklassifikation. Eine große VerĂ€nderung erfĂ€hrt die Rechtsterminologie und -terminografie durch den Übergang von der physischen zur elektronischen Schrift. Damit muss nicht mehr eine Darstellungsweise allen Anforderungen gerecht werden, sondern die Darstellung kann dynamisch an die UmstĂ€nde angepasst werden. Im dritten Kapitel (Dynamische Termdarstellung) wird das Konzept einer dynamischen Termdarstellung vorgestellt und seine technische Umsetzung skizziert. Das vierte Kapitel Termextraktion durch Beispielterme stellt eine automatische Termextraktionsmethode vor, die mit relativ geringen Voraussetzungen gute Ergebnisse liefert und damit fĂŒr weniger stark verbreitete Sprachen eine Alternative zu kommerziellen Programmen darstellt. Dieses Instrument kann bei der zentralen Aufgabenstellung der Terminografie, dem Auffinden und der Auswahl der Termini, eingesetzt werden. Hier wird aber auch gezeigt, wie die Termextraktion zur Indizierung des in den meisten terminografischen Projekten vorhandenen Hintergrundkorpus verwendet werden kann. Das fĂŒnfte Kapitel (Organisation rechtlichen Wissens) gibt einen Überblick ĂŒber die vielfĂ€ltigen Möglichkeiten der Einteilung und ReprĂ€sentation von (rechtlichem) Wissen. Eine Methode der WissensreprĂ€sentation mit formaler Sprache, die logische Operationen ermöglicht, ist eine Ontologie. Es wurde eine Ontologie fĂŒr eine Rechtsdatenbank erstellt und alle damit zusammenhĂ€ngenden Aspekte diskutiert. Im Fazit wird schließlich diskutiert, fĂŒr welche Bereiche der Arbeit mit Rechtsdatenbanken bereits jetzt relativ einfache Werkzeuge zur VerfĂŒgung stehen und wo die Entwicklung von weiteren Werkzeugen ansetzen könnte. Die Kapitel sind so geschrieben, dass sie auch einzeln gelesen werden können, ohne jedoch allzu starke Überschneidungen zuzulassen.La thĂšse de doctorat «Outils pour des bases de donnĂ©es juridiques» traĂźte des mĂ©thodes linguistiques et informatiques pour comprendre, mĂ©moriser et communiquer des connaissances juridiques. Les sujets traitĂ©s sont: I. La classification de documents Je discute les classes importantes pour des documents juridiques et je propose une classi-fication automatique qui n’utilise pas seulement le texte du document, mais aussi d’autres critĂšres comme l’adresse du document, l’adresse des liens et le contexte de la recherche de documents. II. L’identification de disciplines en terminographie Je prĂ©tends que toute rĂ©partition en disciplines et sous-disciplines est par nature relative. Puis je prĂ©sente deux mĂ©thodes pour l’identification de la discipline d’un texte. La pre-miĂšre utilise les termes et la deuxiĂšme les textes (dĂ©finitions et contextes) prĂ©sents dans la base de donnĂ©es terminographique. III. La prĂ©sentation dynamique de termes Je discute les problĂšmes de la prĂ©sentation de termes traditionnelle pour livres et les avantages d’une prĂ©sentation adaptĂ©e dynamiquement aux besoins concrets de chaque client. Pour prouver la faisabilitĂ© de cette nouvelle approche, j’indique la technologie applicable pour chaque fonction et je prĂ©sente une mise en Ɠuvre dans le systĂšme termi-nographique BISTRO (www.eurac.edu/bistro) IV. L’extraction de termes Je discute les caractĂ©ristiques des trois mĂ©thodes pour l’extraction de termes. AprĂšs je montre l’efficacitĂ© de la mĂ©thode basĂ©e sur des exemples lors d’une expĂ©rience. L’outil est librement accessible en Internet et peut servir pour l’indexation d’un corpus. V. L’organisation du savoir juridique Je discute exhaustivement tous les systĂšmes rĂ©pandus d’organisation du savoir, de mots-clĂ©s jusqu’aux ontologies. Ensuite je dĂ©crits le procĂ©dĂ© et les problĂšmes concrets pour organiser une base de donnĂ©es juridiques avec une ontologie

    Probabilistische Szenenmodelle fĂŒr die Luftbildauswertung

    Get PDF
    The interpretation of aerial and satellite imagery requires significant experience and expert knowledge and therefore is mainly performed by professional image interpreters. So far, automatic methods are not able to provide comparable results but they can be used to support the manual image interpretation process. This work shows how the benefits of manual and automatic image interpretation can be adequately combined in an interactive image interpretation system

    Probabilistische Szenenmodelle fĂŒr die Luftbildauswertung

    Get PDF
    Die Auswertung von Luft- und Satellitenbildern erfordert ein hohes Maß an Erfahrung und Expertenwissen und wird daher durch professionelle Bildauswerter durchgefĂŒhrt. Rein automatische Verfahren bis heute hĂ€ufig keine vergleichbaren Ergebnisse liefern, jedoch können sie den manuellen Auswerteprozess unterstĂŒtzen. Diese Arbeit zeigt, wie die Vorteile von manueller und automatischer Auswertung in einem interaktiven Bildanalysesystem geeignet kombiniert werden können

    Digital Intelligence – Möglichkeiten und Umsetzung einer informatikgestĂŒtzten FrĂŒhaufklĂ€rung: Digital Intelligence – opportunities and implementation of a data-driven foresight

    Get PDF
    Das Ziel der Digital Intelligence bzw. datengetriebenen Strategischen FrĂŒhaufklĂ€rung ist, die Zukunftsgestaltung auf Basis valider und fundierter digitaler Information mit vergleichsweise geringem Aufwand und enormer Zeit- und Kostenersparnis zu unterstĂŒtzen. Hilfe bieten innovative Technologien der (halb)automatischen Sprach- und Datenverarbeitung wie z. B. das Information Retrieval, das (Temporal) Data, Text und Web Mining, die Informationsvisualisierung, konzeptuelle Strukturen sowie die Informetrie. Sie ermöglichen, SchlĂŒsselthemen und latente ZusammenhĂ€nge aus einer nicht ĂŒberschaubaren, verteilten und inhomogenen Datenmenge wie z. B. Patenten, wissenschaftlichen Publikationen, Pressedokumenten oder Webinhalten rechzeitig zu erkennen und schnell und zielgerichtet bereitzustellen. Die Digital Intelligence macht somit intuitiv erahnte Muster und Entwicklungen explizit und messbar. Die vorliegende Forschungsarbeit soll zum einen die Möglichkeiten der Informatik zur datengetriebenen FrĂŒhaufklĂ€rung aufzeigen und zum zweiten diese im pragmatischen Kontext umsetzen. Ihren Ausgangspunkt findet sie in der EinfĂŒhrung in die Disziplin der Strategischen FrĂŒhaufklĂ€rung und ihren datengetriebenen Zweig – die Digital Intelligence. Diskutiert und klassifiziert werden die theoretischen und insbesondere informatikbezogenen Grundlagen der FrĂŒhaufklĂ€rung – vor allem die Möglichkeiten der zeitorientierten Datenexploration. Konzipiert und entwickelt werden verschiedene Methoden und Software-Werkzeuge, die die zeitorientierte Exploration insbesondere unstrukturierter Textdaten (Temporal Text Mining) unterstĂŒtzen. Dabei werden nur Verfahren in Betracht gezogen, die sich im Kontext einer großen Institution und den spezifischen Anforderungen der Strategischen FrĂŒhaufklĂ€rung pragmatisch nutzen lassen. Hervorzuheben sind eine Plattform zur kollektiven Suche sowie ein innovatives Verfahren zur Identifikation schwacher Signale. Vorgestellt und diskutiert wird eine Dienstleistung der Digital Intelligence, die auf dieser Basis in einem globalen technologieorientierten Konzern erfolgreich umgesetzt wurde und eine systematische Wettbewerbs-, Markt- und Technologie-Analyse auf Basis digitaler Spuren des Menschen ermöglicht.:Kurzzusammenfassung 2 Danksagung 3 Inhaltsverzeichnis 5 Tabellenverzeichnis 9 Abbildungsverzeichnis 10 A – EINLEITUNG 13 1 Hintergrund und Motivation 13 2 Beitrag und Aufbau der Arbeit 16 B – THEORIE 20 B0 – Digital Intelligence 20 3 Herleitung und Definition der Digital Intelligence 21 4 Abgrenzung zur Business Intelligence 23 5 Übersicht ĂŒber unterschiedliche Textsorten 24 6 Informetrie: Bibliometrie, Szientometrie, Webometrie 29 7 Informationssysteme im Kontext der Digital Intelligence 31 B1 – Betriebswirtschaftliche Grundlagen der Digital Intelligence 36 8 Strategische FrĂŒhaufklĂ€rung 37 8.1 Facetten und historische Entwicklung 37 8.2 Methoden 41 8.3 Prozess 42 8.4 Bestimmung wiederkehrender Termini 44 8.5 Grundlagen der Innovations- und Diffusionsforschung 49 B2 – Informatik-Grundlagen der Digital Intelligence 57 9 Von Zeit, Daten, Text, Metadaten zu multidimensionalen zeitorientierten (Text)Daten 59 9.1 Zeit – eine Begriffsbestimmung 59 9.1.1 Zeitliche Grundelemente und Operatoren 59 9.1.2 Lineare, zyklische und verzweigte Entwicklungen 62 9.1.3 Zeitliche (Un)Bestimmtheit 62 9.1.4 Zeitliche GranularitĂ€t 63 9.2 Text 63 9.2.1 Der Text und seine sprachlich-textuellen Ebenen 63 9.2.2 Von Signalen und Daten zu Information und Wissen 65 9.3 Daten 65 9.3.1 Herkunft 65 9.3.2 DatengrĂ¶ĂŸe 66 9.3.3 Datentyp und Wertebereich 66 9.3.4 Datenstruktur 67 9.3.5 DimensionalitĂ€t 68 9.4 Metadaten 69 9.5 Zusammenfassung und multidimensionale zeitorientierte Daten 70 10 Zeitorientierte Datenexplorationsmethoden 73 10.1 Zeitorientierte Datenbankabfragen und OLAP 76 10.2 Zeitorientiertes Information Retrieval 78 10.3 Data Mining und Temporal Data Mining 79 10.3.1 ReprĂ€sentationen zeitorientierter Daten 81 10.3.2 Aufgaben des Temporal Data Mining 86 10.4 Text Mining und Temporal Text Mining 91 10.4.1 Grundlagen des Text Mining 98 10.4.2 Entwickelte, genutzte und lizensierte Anwendungen des Text Mining 107 10.4.3 Formen des Temporal Text Mining 110 10.4.3.1 Entdeckung kausaler und zeitorientierter Regeln 110 10.4.3.2 Identifikation von Abweichungen und VolatilitĂ€t 111 10.4.3.3 Identifikation und zeitorientierte Organisation von Themen 112 10.4.3.4 Zeitorientierte Analyse auf Basis konzeptueller Strukturen 116 10.4.3.5 Zeitorientierte Analyse von Frequenz, Vernetzung und Hierarchien 117 10.4.3.6 Halbautomatische Identifikation von Trends 121 10.4.3.7 Umgang mit dynamisch aktualisierten Daten 123 10.5 Web Mining und Temporal Web Mining 124 10.5.1 Web Content Mining 125 10.5.2 Web Structure Mining 126 10.5.3 Web Usage Mining 127 10.5.4 Temporal Web Mining 127 10.6 Informationsvisualisierung 128 10.6.1 Visualisierungstechniken 130 10.6.1.1 Visualisierungstechniken nach Datentypen 130 10.6.1.2 Visualisierungstechniken nach Darstellungsart 132 10.6.1.3 Visualisierungstechniken nach Art der Interaktion 137 10.6.1.4 Visualisierungstechniken nach Art der visuellen Aufgabe 139 10.6.1.5 Visualisierungstechniken nach Visualisierungsprozess 139 10.6.2 Zeitorientierte Visualisierungstechniken 140 10.6.2.1 Statische ReprĂ€sentationen 141 10.6.2.2 Dynamische ReprĂ€sentationen 145 10.6.2.3 Ereignisbasierte ReprĂ€sentationen 147 10.7 Zusammenfassung 152 11 Konzeptuelle Strukturen 154 12 Synopsis fĂŒr die zeitorientierte Datenexploration 163 C – UMSETZUNG EINES DIGITAL-INTELLIGENCESYSTEMS 166 13 Bestimmung textbasierter Indikatoren 167 14 Anforderungen an ein Digital-Intelligence-System 171 15 Beschreibung der Umsetzung eines Digital-Intelligence-Systems 174 15.1 Konzept einer Dienstleistung der Digital Intelligence 175 15.1.1 Portalnutzung 177 15.1.2 Steckbriefe 178 15.1.3 Tiefenanalysen 180 15.1.4 Technologiescanning 185 15.2 Relevante Daten fĂŒr die Digital Intelligence (Beispiel) 187 15.3 FrĂŒhaufklĂ€rungs-Plattform 188 15.4 WCTAnalyze und automatische Extraktion themenspezifischer Ereignisse 197 15.5 SemanticTalk 200 15.6 Halbautomatische Identifikation von Trends 204 15.6.1 Zeitreihenkorrelation 205 15.6.2 HD-SOM-Scanning 207 D – ZUSAMMENFASSUNG 217 Anhang A: Prozessbilder entwickelter Anwendungen des (Temporal) Text Mining 223 Anhang B: Synopsis der zeitorientierten Datenexploration 230 Literaturverzeichnis 231 SelbststĂ€ndigkeitserklĂ€rung 285 Wissenschaftlicher Werdegang des Autors 286 Veröffentlichungen 28

    Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. Teil 3: Textbegriffe und Recodierung. [Finale Print-Fassung]

    Get PDF
    Die wissenschaftliche Edition zielt auf die zuverlĂ€ssige Wiedergabe des Textes. Aber was ist dieser Text eigentlich? Bei genauerer Betrachtung erlaubt nur ein erweiterter Textbegriff und ein neues pluralistisches Textmodell eine Beschreibung aller textuellen PhĂ€nomene, die in einer wissenschaftlichen Edition zu berĂŒcksichtigen sind. Auch unsere Technologien und Methodologien der Textcodierung, hier vor allem die Auszeichnungssprachen im Allgemeinen und die Beschreibungsempfehlungen der Text Encoding Initiative (TEI) im Besonderen können unter dieser Schablone genauer beschrieben und hinsichtlich ihrer Grenzen charakterisiert werden. Schließlich erlaubt das pluralistische Textmodell auch die prĂ€zisere theoretische Fundierung jener Prozesse, die als "Transkription" Grundlage und HerzstĂŒck einer jeden wissenschaftlichen Edition sind

    Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. Teil 3: Textbegriffe und Recodierung. [Preprint-Fassung]

    Get PDF
    Die wissenschaftliche Edition zielt auf die zuverlĂ€ssige Wiedergabe des Textes. Aber was ist dieser Text eigentlich? Bei genauerer Betrachtung erlaubt nur ein erweiterter Textbegriff und ein neues pluralistisches Textmodell eine Beschreibung aller textuellen PhĂ€nomene, die in einer wissenschaftlichen Edition zu berĂŒcksichtigen sind. Auch unsere Technologien und Methodologien der Textcodierung, hier vor allem die Auszeichnungssprachen im Allgemeinen und die Beschreibungsempfehlungen der Text Encoding Initiative (TEI) im Besonderen können unter dieser Schablone genauer beschrieben und hinsichtlich ihrer Grenzen charakterisiert werden. Schließlich erlaubt das pluralistische Textmodell auch die prĂ€zisere theoretische Fundierung jener Prozesse, die als "Transkription" Grundlage und HerzstĂŒck einer jeden wissenschaftlichen Edition sind

    Konzept eines Dokumentationsassistenten zur Erzeugung strukturierter Anforderungen basierend auf Satzschablonen

    Get PDF
    Um die QualitĂ€t und GlaubwĂŒrdigkeit eines Produktes zu erhalten, ist ein systematisches Anforderungsmanagement erforderlich, wobei die Merkmale eines Produkts durch Anforderungen beschrieben werden. Deswegen wurde im Rahmen dieser Arbeit ein Konzept fĂŒr einen Dokumentationsassistenten entwickelt, mit dem Benutzer strukturierte Anforderungen basierend auf den Satzschablonen nach SOPHIST erstellen können. Dies beinhaltet einen linguistischen Aufbereitungsansatz, der semantische Rollen aus freiem Text extrahiert. WĂ€hrend des Dokumentationsprozesses wurden die semantischen Rollen benutzt, um passendste Satzschablone zu identifizieren und diese als Hilfestellung dem Benutzer auszuzeigen. Zudem wurde eine weitere Hilfestellung angeboten, nĂ€mlich die AutovervollstĂ€ndigung, die mithilfe von Markovketten das nĂ€chste Wort vorhersagen kann. Insgesamt wurden 500 Anforderungen aus verschiedenen Quellen herangezogen, um die IntegritĂ€t des Konzepts zu bewerten. Die Klassifizierung der Texteingabe in eine Satzschablone erreicht ein F1-Maß von 0,559. Dabei wurde die funktionale Anforderung Satzschablone F1-Maß von 0,908 am besten identifiziert. Außerdem wurde der Zusammenhang zwischen den Hilfestellungen mit Hilfe eines Workshops bewertet. Hierbei konnte gezeigt werden, dass die Anwendung des vorliegenden Konzepts, die VollstĂ€ndigkeit von Anforderungen verbessert und somit die QualitĂ€t der zu dokumentierenden Anforderungen steigert

    Textgenetische Prozesse in Digitalen Editionen

    Get PDF
    BegĂŒnstigt durch den digitalen Medienwandel entstehen zur Zeit neue Editionsformen, deren Nutzen sich vor allem aus der Überwindung medienbedingter Limitierungen gedruckter Editionen ergibt. Der Wegfall dieser einschrĂ€nkenden Faktoren, wie ein fest vorgegebenes Seitenformat oder die Begrenzung auf eine bestimmte Seitenanzahl und die daraus resultierenden Möglichkeiten, im Prinzip unbegrenzte Mengen an Transkriptionen, Abbildungen und Kontextmaterialien in die Digitale Edition integrieren zu können, sind ein wesentliches Merkmal dieser neueren AnsĂ€tze. Trotz dieser Entwicklungen fehlt es im Bereich Digitaler Textgenetischer Editionen bis heute aber weiterhin an geeigneten Methoden und Werkzeugen, um den Entstehungsprozess eines Textes intuitiv nachvollziehen und in geeigneter Weise visualisieren zu können. Besonders zwei Aspekte werden in diesem Zusammenhang bislang vernachlĂ€ssigt. Zum einen die rĂ€umliche Anordnung textgenetischer Prozesse, die vor allem bei der Transkription von Manuskripten nicht in ausreichendem Maße berĂŒcksichtigt werden und zum anderen die zeitliche Abfolge dieser Prozesse. Die Vorliegende Arbeit soll diese Bereiche gezielt in den Blick nehmen. Dabei geht es zum einen um eine kritische Analyse der bisherigen Kodierungspraxis solcher PhĂ€nomene und zum anderen um die Möglichkeiten, wie solche Prozesse durch browserbasierte Lösungen visualisiert werden können. Die Arbeit ist in einen theoretischen und einen praktischen Teil untergliedert. Der erste Teil gibt einen Überblick ĂŒber die Entwicklungen im Bereich Digitaler Editionen vor allem seit der Etablierung des WWW als generisch digitales Editionsmedium. Darauf folgt ein kurzer historischer Exkurs ĂŒber Editionspraktiken zu Zeiten der Druckkultur. Anschließend werden zentrale Problembereiche digitaler textgenetischer Editionen thematisiert und modellhafte LösungsansĂ€tze entwickelt. Abschließend werden diese in einem praxisnahen Teil in Form von beispielhaft implementierten Softwarekomponenten veranschaulicht

    Jahresbericht 2009 der FakultĂ€t fĂŒr Informatik

    Get PDF
    corecore