29 research outputs found

    Basiskomponenten von XML Datenbanksystemen

    Get PDF
    Für die Entwicklung von vielen kleinen und großen Softwaresystemen reichen herkömmliche (objekt-)relationale Datenbanksysteme nicht mehr aus. Viele interessante Daten sind in der Praxis nicht voll strukturiert und somit nicht effektiv mit einem Standarddatenbanksystem zu verwalten. Es werden deshalb neuartige standardisierte Systeme für unstrukturierte bzw. semi-strukturierte Daten benötigt. Diese Lücke wird nun von nativen XML Datenbanksystemen geschlossen, die als Datenformat das vom W3C standardisierte XML verwenden. XML Datenbanksysteme unterstützen außerdem viele weitere XML Standards, wie beispielsweise XSchema für Grammatiken, XPath und XQuery für die Anfrageverarbeitung, XSLT für Transformationen und DOM und SAX für die Applikationsanbindung. In dieser Arbeit werden Grundlagen von nativen XML Datenbanksystemen betrachtet, sowie neue Strukturen vorgeschlagen und alte Strukturen optimiert. Es wird auf eine solide Basis zum Testen von Algorithmen Wert gelegt. Hierzu wurde ein Testframework innerhalb der Java-Bibliothek XXL implementiert und anschließend verwendet. Die XXL Bibliothek enthielt bereits vor dieser Arbeit einige Komponenten, die für die Implementierung von Datenbanksystemen eingesetzt werden konnten, beispielsweise eine generische Anfrageverarbeitung und Indexstrukturen. Zusätzlich zu den vorhandenen Komponenten wurden nun neue hinzugefügt, so z.B. eine Komponente für den direkten Festplattenzugriff, ein frei konfigurierbarer Recordmanager, sowie ein Datenbank-Framework. Das zentrale Anliegen der Arbeit ist die Optimierung der Speicherungsebene von nativen XML Datenbanksystemen. Wichtig ist, dass bei der Abbildung von XML Dokumenten auf den Externspeicher die Baumstruktur erhalten bleibt und somit eine performante Anfragenverarbeitung mit wenigen Externspeicherzugriffen möglich wird. Ähnlich wie bei R-Bäumen, können für XML Speicherungsstrukturen verschiedene Splitalgorithmen angegeben werden, die gewisse Heuristiken verfolgen. Hier zeigte sich der neu entwickelte, so genannte OneCutSplit mit Scaffold als klar überlegen gegenüber den bisher bekannten Splitalgorithmen aus der Literatur. Für das Einfügen von Dokumenten wurde weiterhin ein Bulkloading Mechanismus implementiert. Es konnte gezeigt werden, dass die Speicherstruktur für die hiermit erzeugten Dokumente deutlich besser war als bei der Benutzung von Splitalgorithmen. Dies macht sich erheblich in den Antwortzeiten von Anfragen bemerkbar. Zur Beschleunigung der Anfrageverarbeitung sind in nativen XML Datenbanksystemen Indexstrukturen unverzichtbar. Zu diesem Zweck wurde ein neuartiger Signaturindex entwickelt und in die XML Speicherungsstruktur unter Verwendung von Aggregaten integriert. Die Evaluierung des Indexes zeigte einen deutlichen Vorteil bei der Auswertung von XPath-Ausdrücken. Weiterhin konnten erstmals durch die Benutzung des Datenbank-Frameworks von XXL native Speicherungsverfahren für XML mit solchen verglichen werden, die auf relationalen Datenbanksystemen aufsetzen. Hierbei zeigte sich, dass nativer XML Speicher auch bei einfachen XPath-Anfragen gute Leistungswerte besitzt. Bei Navigations- und Änderungsoperationen ist der native XML Speicher den relationalen Verfahren deutlich überlegen. In der Anfrageverarbeitung auf XML Daten spielen allerdings nicht nur XPath und XQuery eine Rolle. Für die Bearbeitung von großen Mengen von XML Dokumenten sind Operatoren sinnvoll, welche eine Verarbeitung durch Abbildung von XML Dokumenten auf neue XML Dokumente realisieren. Dies ist analog zur relationalen Algebra, in der allerdings der Grunddatentyp Tupel Verwendung findet. Im Vergleich zum relationalen Modell werden für XML jedoch viele verschiedene Operatoren benötigt, die nicht auf wenige Grundoperationen zurückgeführt werden können. In dieser Arbeit werden einige neue Operatoren vorgestellt, die nicht nur für die Anfrageverarbeitung innerhalb von XML Datenbanksystemen, sondern auch für Anfragen im Internet geeignet sind. Durch das entwickelte Framework soll es Anwendern in Zukunft auf einfache Art und Weise möglich sein, Internetquellen in eigene Anfragen einzubauen

    Wissensintegration von generischem und fallbasiertem Wissen, uniforme Repräsentation, Verwendung relationaler Datenbanksysteme sowie Problemlösen mit Concept Based und Case Based Reasoning sowie Bayesschen Netzen in medizinischen wissensbasierten Systemen

    Get PDF
    Ein wissensbasiertes System soll den Mediziner im Rahmen der Diagnosestellung unterstützen, indem relevante Informationen bereitgestellt werden. Aus komplexen Symptomkonstellationen soll eine zuverlässige Diagnose und damit verbundene medizinische Maßnahmen abgeleitet werden. Grundlage dafür bildet das im System adäquat repräsentierte Wissen, das effizient verarbeitet wird. Dieses Wissen ist in der medizinischen Domäne sehr heterogen und häufig nicht gut strukturiert. In der Arbeit wird eine Methodik entwickelt, die die begriffliche Erfassung und Strukturierung der Anwendungsdomäne über Begriffe, Begriffshierarchien, multiaxiale Komposition von Begriffen sowie Konzeptdeklarationen ermöglicht. Komplexe Begriffe können so vollständig, eindeutig und praxisrelevant abgebildet werden. Darüber hinaus werden mit der zugrunde liegenden Repräsentation Dialogsysteme, fallbasierte und generische Problemlösungsmethoden sowie ihr Zusammenspiel mit relationalen Datenbanken in einem System vorgestellt. Dies ist vor allem im medizinischen Diskursbereich von Bedeutung, da zur Problemlösung generisches Wissen (Lehrbuchwissen) und Erfahrungswissen (behandelte Fälle) notwendig ist. Die Wissensbestände können auf relationalen Datenbanken uniform gespeichert werden. Um das vorliegende Wissen effizient verarbeiten zu können, wird eine Methode zur semantischen Indizierung vorgestellt und deren Anwendung im Bereich der Wissensrepräsentation beschrieben. Ausgangspunkt der semantischen Indizierung ist das durch Konzepthierarchien repräsentierte Wissen. Ziel ist es, den Knoten (Konzepten) Schlüssel zuzuordnen, die hierarchisch geordnet und syntaktisch sowie semantisch korrekt sind. Mit dem Indizierungsalgorithmus werden die Schlüssel so berechnet, dass die Konzepte mit den spezifischeren Konzepten unifizierbar sind und nur semantisch korrekte Konzepte zur Wissensbasis hinzugefügt werden dürfen. Die Korrektheit und Vollständigkeit des Indizierungsalgorithmus wird bewiesen. Zur Wissensverarbeitung wird ein integrativer Ansatz der Problemlösungsmethoden des Concept Based und Case Based Reasoning vorgestellt. Concept Based Reasoning kann für die Diagnose-, Therapie- und Medikationsempfehlung und -evaluierung über generisches Wissen verwendet werden. Mit Hilfe von Case Based Reasoning kann Erfahrungswissen von Patientenfällen verarbeitet werden. Weiterhin werden zwei neue Ähnlichkeitsmaße (Kompromissmengen für Ähnlichkeitsmaße und multiaxiale Ähnlichkeit) für das Retrieval ähnlicher Patientenfälle entwickelt, die den semantischen Kontext adäquat berücksichtigen. Einem ausschließlichen deterministischen konzeptbasiertem Schließen sind im medizinischen Diskursbereich Grenzen gesetzt. Für die diagnostische Inferenz unter Unsicherheit, Unschärfe und Unvollständigkeit werden Bayessche Netze untersucht. Es können so die gültigen allgemeinen Konzepte nach deren Wahrscheinlichkeit ausgegeben werden. Dazu werden verschiedene Inferenzmechanismen vorgestellt und anschließend im Rahmen der Entwicklung eines Prototypen evaluiert. Mit Hilfe von Tests wird die Klassifizierung von Diagnosen durch das Netz bewertet.:1 Einleitung 2 Medizinische wissensbasierte Systeme 3 Medizinischer Behandlungsablauf und erweiterter wissensbasierter Agent 4 Methoden zur Wissensrepräsentation 5 Uniforme Repräsentation mit Begriffshierachien, Konzepten, generischem und fallbasierten Schließen 6 Semantische Indizierung 7 Medizinisches System als Beispielanwendung 8 Ähnlichkeitsmaße, Kompromissmengen, multiaxiale Ähnlichkeit 9 Inferenzen mittels Bayesscher Netze 10 Zusammenfassung und Ausblick A Ausgewählte medizinische wissensbasierte Systeme zur Entscheidungsunterstützung aus der Literatur B Realisierung mit Softwarewerkzeugen C Causal statistic modeling and calculation of distribution functions of classification featuresA knowledge-based system is designed to support the medical professionals in the diagnostic process by providing relevant information. A reliable diagnosis and associated medical measures are to be derived from complex symptom constellations. It is based on the knowledge adequately represented in the system, which is processed efficiently. This knowledge is very heterogeneous in the medical domain and often not well structured. In this work, a methodology is developed that enables the conceptual capture and structuring of the application domain via concepts, conecpt hierarchies, multiaxial composition of concepts as well as concept declarations. Complex concepts can thus be mapped completely, clearly and with practical relevance. Furthermore, the underlying representation introduces dialogue systems, \acrlong{abk:CBR} and generic problem solving methods as well as their interaction with relational databases in one system. This is particularly important in the field of medical discourse, since generic knowledge (textbook knowledge) and experiential knowledge (treated cases) are necessary for problem solving. The knowledge can be stored uniformly on relational databases. In order to be able to process the available knowledge efficiently, a method for semantic indexing is presented and its application in the field of knowledge representation is described. The starting point of semantic indexing is the knowledge represented by concept hierarchies. The goal is to assign keys to the nodes (concepts) that are hierarchically ordered and syntactically and semantically correct. With the indexing algorithm, the keys are calculated in such a way that the concepts are unifiable with the more specific concepts and only semantically correct concepts may be added to the knowledge base. The correctness and completeness of the indexing algorithm is proven. An integrative approach of the problem-solving methods of Concept Based and \acrlong{abk:CBR} is presented for knowledge processing. Concept Based Reasoning can be used for diagnosis, therapy and medication recommendation and evaluation via generic knowledge. Case Based Reasoning can be used to process experiential knowledge of patient cases. Furthermore, two new similarity measures (compromise sets for similarity measures and multiaxial similarity) are developed for the retrieval of similar patient cases that adequately consider the semantic context. There are limits to an exclusively deterministic Concept Based Reasoning in the medical domain. For diagnostic inference under uncertainty, vagueness and incompleteness Bayesian networks are investigated. The method is based on an adequate uniform representation of the necessary knowledge. Thus, the valid general concepts can be issued according to their probability. To this end, various inference mechanisms are introduced and subsequently evaluated within the context of a developed prototype. Tests are employed to assess the classification of diagnoses by the network.:1 Einleitung 2 Medizinische wissensbasierte Systeme 3 Medizinischer Behandlungsablauf und erweiterter wissensbasierter Agent 4 Methoden zur Wissensrepräsentation 5 Uniforme Repräsentation mit Begriffshierachien, Konzepten, generischem und fallbasierten Schließen 6 Semantische Indizierung 7 Medizinisches System als Beispielanwendung 8 Ähnlichkeitsmaße, Kompromissmengen, multiaxiale Ähnlichkeit 9 Inferenzen mittels Bayesscher Netze 10 Zusammenfassung und Ausblick A Ausgewählte medizinische wissensbasierte Systeme zur Entscheidungsunterstützung aus der Literatur B Realisierung mit Softwarewerkzeugen C Causal statistic modeling and calculation of distribution functions of classification feature

    Neue Indexingverfahren für die Ähnlichkeitssuche in metrischen Räumen über großen Datenmengen

    Get PDF
    Ein zunehmend wichtiges Thema in der Informatik ist der Umgang mit Ähnlichkeit in einer großen Anzahl unterschiedlicher Domänen. Derzeit existiert keine universell verwendbare Infrastruktur für die Ähnlichkeitssuche in allgemeinen metrischen Räumen. Ziel der Arbeit ist es, die Grundlage für eine derartige Infrastruktur zu legen, die in klassische Datenbankmanagementsysteme integriert werden könnte. Im Rahmen einer Analyse des State of the Art wird der M-Baum als am besten geeignete Basisstruktur identifiziert. Dieser wird anschließend zum EM-Baum erweitert, wobei strukturelle Kompatibilität mit dem M-Baum erhalten wird. Die Abfragealgorithmen werden im Hinblick auf eine Minimierung notwendiger Distanzberechnungen optimiert. Aufbauend auf einer mathematischen Analyse der Beziehung zwischen Baumstruktur und Abfrageaufwand werden Freiheitsgrade in Baumänderungsalgorithmen genutzt, um Bäume so zu konstruieren, dass Ähnlichkeitsanfragen mit einer minimalen Anzahl an Anfrageoperationen beantwortet werden können.A topic of growing importance in computer science is the handling of similarity in multiple heterogenous domains. Currently there is no common infrastructure to support this for the general metric space. The goal of this work is lay the foundation for such an infrastructure, which could be integrated into classical data base management systems. After some analysis of the state of the art the M-Tree is identified as most suitable base and enhanced in multiple ways to the EM-Tree retaining structural compatibility. The query algorithms are optimized to reduce the number of necessary distance calculations. On the basis of a mathematical analysis of the relation between the tree structure and the query performance degrees of freedom in the tree edit algorithms are used to build trees optimized for answering similarity queries using a minimal number of distance calculations

    Visuelle Exploration multidimensionaler Informationsräume: Ein Interface-Baukasten für die Produktsuche

    Get PDF
    Suchmaschinen bieten Zugang zu großen Datenmengen und viele Möglichkeiten, die Nutzeranfragen zu interpretieren und mit Korrekturen oder Empfehlungen zu unterstützen. Neben diesen technologischen Vorteilen, hat sich am Suchparadigma selbst in den letzten Jahren nicht viel geändert. Die meisten Suchinterfaces bestehen auch heute noch aus den typischen Eingabemasken und linearen Ergebnislisten. Jedoch ist es besonders für Nutzer mit wenig Erfahrung in der aktuellen Suchdomäne oder mit einem sehr unscharfen Informationsbedürfnis schwierig, ihre vagen Vorstellungen in eine spezifische Suchanfrage zu transformieren. Die herkömmlichen eindimensionalen Ergebnislisten bieten oft nur eine einfache Sortierfunktion. Verschiedene Techniken der Informationsvisualisierung bieten jedoch weitaus mehr Möglichkeiten, um multidimensionale Datensätze zu visualisieren und vergleichbar zu machen. Ziel der Arbeit ist es, den Suchprozess am Beispiel der Produktsuche aus der Nutzerperspektive zu analysieren und Anforderungen zu formulieren, welche verschiedene Strategien und Phasen der Suche unterstützen. Die Anwendungsfälle stützen sich dabei vor allem auf komplexere Suchaufgaben mit einem vagen Informationsbedürfnis wie der Planung eines Urlaubs oder dem Finden einer passenden Finanzierungsmöglichkeit. Weiterhin werden verschiedene Techniken der Informationsvisualisierung untersucht, um sowohl die visuelle Exploration und Analyse der multidimensionalen Datenmengen als auch eine schnelle Interpretation und den Vergleich der gefundenen Suchergebnisse zu ermöglichen. Die Betrachtung verschiedener verwandter Arbeiten aus dem kommerziellen und akademischen Bereich führen zu fünf verschiedenen Suchmusterkategorien, die in explorativen Suchszenarien miteinander kombiniert werden können, um den Suchraum einzugrenzen oder aufzufächern. Unter Berücksichtigung der Suchmusterkategorien der schlagwortbasierten Suche, der Ähnlichkeitssuche, der Facettennavigation, der empfehlungsbasierten Suche und des Browsing in strukturierten Inhalten werden verschiedene Lösungsansätze entwickelt, welche die Exploration unterschiedlicher Produktdatenmengen ermöglichen. Basierend auf diesen Fallbeispielen wird ein Baukasten für visuelle Suchinterfaces vorgeschlagen, der vorwärtsgerichtet oder rückwärtsgerichtet im Sinne des Reverse-Engineering angewandt werden kann. Die Bausteine geben einen Gestaltungsraum vor, der den Designer vor allem in der Konzeptionsphase unterstützt. Durch die Kombination verschiedener Bausteine werden der Entwurf neuer Interfacekonzepte und deren Variation ermöglicht. Weiterhin können erprobte Lösungen in Entwurfsmuster überführt werden, welche die Wiederverwendung in ähnlichen Problemkontexten erlauben. Durch das Reverse-Engineering können bekannte Interfaces in einzelne Bestandteile zerlegt und innere Strukturen sowie Zusammenhänge analysiert werden.:1 Einleitung 1.1 Motivation 1.2 Problemdarstellung und Zielsetzung 1.3 Aufbau der Arbeit 2 Interdisziplinäre Grundlagenbetrachtung 2.1 Informationssuche 2.1.1 Informationsbedürfnis 2.1.2 Modelle der Informationssuche 2.1.3 Suchstrategien 2.2 Informationsvisualisierung 2.2.1 Visualisierungsprozess 2.2.2 Datenstrukturen 2.2.3 Visuelle Strukturen 2.2.4 Visualisierungstechniken 2.2.5 Interaktionstechniken 2.3 Entwurfsproblematik in der Mensch-Computer-Interaktion 2.3.1 Entwurfsprozess 2.3.2 Entwurfsmuster und -prinzipien 2.3.3 Baukastensysteme 2.3.4 Semiotik 2.4 Zusammenfassung 3 Suchmuster im Kontext der Produktsuche 3.1 Schlüsselwortsuche 3.1.1 Kommerzielle Anwendungen 3.1.2 Akademische Arbeiten 3.2 Ähnlichkeitssuche 3.2.1 Kommerzielle Anwendungen 3.2.2 Akademische Arbeiten 3.3 Facettennavigation 3.3.1 Kommerzielle Anwendungen 3.3.2 Akademische Arbeiten 3.4 Empfehlungsbasierte Suche 3.4.1 Kommerzielle Anwendungen 3.4.2 Akademische Arbeiten 3.5 Browsing in strukturierten Inhalten 3.5.1 Kommerzielle Anwendungen 3.5.2 Akademische Arbeiten 3.6 Zusammenfassung 4 Motivbasierte Suche 4.1 Nutzerbefragung 4.2 Aspekte der motivbasierten Suche 4.2.1 Exploration 4.2.2 Recherche 4.2.3 Evaluation 4.3 Zusammenfassung 5 Schlagwortbasierte Suche 5.1 Datengrundlage 5.1.1 Klassifikationsschema 5.1.2 Datenanalyse 5.2 DelViz 5.2.1 Konzept für die Explorative Suche 5.2.2 Analysekonzept 5.2.3 Browsing-Konzept 5.2.4 Prototyp 5.3 TagCircus 5.4 Facettice 5.5 Zusammenfassung 6 Ähnlichkeitssuche 6.1 Glyphdarstellungen 6.1.1 Many-to-One-Mapping 6.1.2 One-to-One-Mapping 6.2 Nutzerstudien 6.2.1 Evaluation von Differenzglyphen 6.2.2 Evaluation von Star-Plots und Flower-Glyphen 6.3 Ähnlichkeitssuche mittels Glyphen 6.3.1 Beispielbasierte Suche 6.3.2 Exploration multidimensionaler Datenmengen 6.4 Zusammenfassung 7 Facettennavigation 7.1 Datengrundlage 7.2 Basiskonzept 7.2.1 Interaktion mit den Achsen 7.2.2 Facettenfilter 7.2.3 Ergebnisliste 7.2.4 Suchhistorie 7.3 Parallele Koordinaten 7.3.1 Vergleich 7.3.2 Unscharfer Filter 7.4 Parallel Sets 7.5 Prototyp 7.6 Nutzerstudie 7.6.1 Methodik 7.6.2 Ergebnisse 7.6.3 Diskussion 7.7 Adaption des Konzepts 7.8 Zusammenfassung 8 Empfehlungsbasierte Suche 8.1 Get Inspired 8.1.1 Datengrundlage 8.1.2 Konzeption 8.1.3 Prototyp 8.1.4 Nutzerstudie 8.2 Motbasi 8.2.1 Prototyp 8.2.2 Nutzertest 8.3 Movie-Recommender 8.4 Findr 8.5 Zusammenfassung 9 Baukasten für visuelle Suchinterfaces 9.1 Bausteine 9.2 Baumuster 9.3 Baumusterpläne 9.3.1 Verbindungselemente 9.3.2 Referenzbausteine 9.4 Semiotische Aspekte des Baukastens 9.5 Anwendungsszenarien 9.5.1 Mustererstellung zur Wiederverwendbarkeit 9.5.2 Variantenerzeugung 9.5.3 Inspiration im Entwurfsprozess 9.5.4 Design- und Lehrmethodik 9.6 Zusammenfassung 10 Zusammenfassung 10.1 Zusammenfassung der Kapitel 10.2 Diskussion 10.3 Ausblick Anhang Glossar Abkürzungsverzeichnis Literatur Eigene Veröffentlichungen Betreute studentische Arbeiten Forschungsprojekte Abbildungsverzeichnis Tabellenverzeichnis Verzeichnis der Code-Beispiel

    Digitale Infrastrukturen für die germanistische Forschung

    Get PDF
    Modern research in linguistics is increasingly reliant on digital infrastructure and information systems. This development began at the turn of the millennium and has since accelerated. The volume examines national and European infrastructure networks and the range of language resources in German linguistics that can be discovered, disclosed, and re-applied through digital infrastructure

    Activity Tree Harvesting - Entdeckung, Analyse und Verwertung der Nutzungskontexte SCORM-konformer Lernobjekte

    Get PDF
    Der Erstellungsaufwand multimedialer Lernangebote kann durch die Wiederverwendung bestehender Materialien deutlich reduziert werden. Wie aber kann das Auffinden solcher wiederverwendbaren Lernressourcen unterstützt werden? Der Autor stellt ein Retrieval-Verfahren vor, das SCORM-basierte Informationen zu Lernobjekten und Kursstrukturen entdeckt, analysiert und verwertet. Auf Grundlage dieser Daten werden für Lehrende als auch Lernende hilfreiche Such- und Empfehlungsdienste angeboten

    Neues Konzept zur skalierbaren, explorativen Analyse großer Zeitreihendaten mit Anwendung auf umfangreiche Stromnetz-Messdaten

    Get PDF
    Diese Arbeit beschäftigt sich mit der Entwicklung und Anwendung eines neuen Konzepts zur skalierbaren explorativen Analyse großer Zeitreihendaten. Hierzu werden zahlreiche datenintensive Methoden aus dem Bereich des Data-Mining und der Zeitreihenanalyse hinsichtlich ihrer Skalierbarkeit mit wachsendem Datenvolumen untersucht und neue Verfahren und Datenrepräsentationen vorgestellt, die eine Exploration sehr großer Zeitreihendaten erlauben, die mit herkömmlichen Methoden nicht effizient auswertbar sind und unter dem Begriff Big Data eingeordnet werden können. Methoden zur Verwaltung und Visualisierung großer multivariater Zeitreihen werden mit Methoden zur Detektion seltener und häufiger Muster – sog. Discords und Motifs – kombiniert und zu einem leistungsfähigen Explorationssystem namens ViAT (von engl. Visual Analysis of Time series) zusammengefasst. Um auch Analysen von Zeitreihendaten durchführen zu können, deren Datenvolumen hunderte von Terabyte und mehr umfasst, wurde eine datenparallele verteilte Verarbeitung auf Basis von Apache Hadoop entwickelt. Sie erlaubt die Ableitung datenreduzierter Metadaten, welche statistische Eigenschaften und neuartige Strukturbeschreibungen der Zeitreihen enthalten. Auf dieser Basis sind neue inhaltsbasierte Anfragen und Auswertungen sowie Suchen nach bekannten und zuvor unbekannten Mustern in den Daten möglich. Das Design der entwickelten neuen Methoden und deren Integration zu einem Gesamtsystem namens FraScaTi (von engl. Framework for Scalable management and analysis of Time series data) wird vorgestellt. Das System wird evaluiert und im Anwendungsfeld der Stromnetzanalyse erprobt, welches von der Skalierbarkeit und den neuartigen Analysemöglichkeiten profitiert. Hierzu wird eine explorative Analyse hochfrequenter Stromnetz-Messdaten durchgeführt, deren Ergebnisse im Kontext des Anwendungsbereichs präsentiert und diskutiert werden

    Digitale Infrastrukturen für die germanistische Forschung

    Get PDF

    Der Semantic Building Modeler - Ein System zur prozeduralen Erzeugung von 3D-Gebäudemodellen

    Get PDF
    Computer generated 3d-models of buildings, cities and whole landscapes are constantly gaining importance throughout different fields of application. Starting with obvious domains like computer games or movies there are also lots of other areas, e.g. reconstructions of historic cities both for educational reasons and further research. The most widely used method for producing city models is the „manual“ creation. A 3d artist uses modeling software to design every single component by hand. Especially for city models consisting of hundreds or thousands of buildings this is a very time consuming and thus expensive method. Procedural modeling offers an alternative to this manual approach by using a computer to generate models automatically. The history of procedural modeling algorithms goes back to the 1980s when the first implementations for the automatic texture synthesis were developed and published by Ken Perlin. Other important applications are the generation of plants based on formalisms like L-systems, proposed by Aristid Lindenmayer or particle systems widely used within computer graphics first proposed by William Reeves. Research concerning the applicability of the developed formalisms and techniques led to the creation of systems dedicated to the automatical computation of building and city models. These systems are often differentiated between rule-based and procedural systems. Rule-based systems use formalisms like text replacement systems whereas procedural systems implement every step of the construction process within the program code. The Semantic Building Modeler is a procedural system, which is configured by using user-provided XML-parameters. The semantic meaning of these parameters is fixed through a tight coupling with their usage within the program code. In this point, the semantic of the Semantic Building Modeler differs from other systems on the today’s market. Besides, it facilitates the introduction for novice users making their first experiences with procedural modeling. Concerning the algorithmic aspect the system proposes two new algorithms for the automatic creation and variation of building footprints. These enable the software to create automatically varied building structures. Additionally, the prototype implementation can be seen as an extendable framework. It offers a wide range of algorithms and methods, which can be used for future extensions of the current system. The prototype also contains an implementation of the Weighted-Straight-Skeleton-Algorithm, techniques for the distributed storage of configuration-fragments, the procedural construction of building components like cornice and many more. The prototypical realization of the developed algorithms is a proof-of-concept-implementation. It demonstrates that the usage of semantically based parameters for the procedural creation of complex and visually appealing geometry can go hand-in-hand. This opens the powerful algorithmic construction of building and city models to a big group of users who have no experience neither in the field of programming nor in the manual design of 3d models
    corecore