150 research outputs found

    Prolegomena zum Potenzial sphärischer Displays für die Visualisierung globaler Phänomene

    Get PDF
    Vorliegende Arbeit entwickelt sich vor dem Hintergrund der Frage nach den besonderen Qualitäten des Globus für die Ziele der Kartographie – eine Frage, die sich insofern aufdrängt, als der Globus nicht mehr jenes schwierig zu verwendende und transportierende sowie in der Herstellung teure und unflexible Modell eines Himmelskörpers ist, als den ihn die Lehrbuchkartographie nach wie vor bewertet. Es wird zunächst versucht, über eine Reinterpretation ihrer Fachgeschichte zu zeigen, dass sich die Kartographie in einer Phase vorparadigmatischer Wissenschaft befindet und daher eine Formulierung einer alternativen theoretischen Grundlage für diese Arbeit ebenso gerechtfertigt wie notwendig ist. Diese Basistheorie ist die Semiotik von Charles Sanders Peirce, welche jedoch nicht nur deskriptiv eingeführt, sondern auch präskriptiv in Form eines semiotischen Imperatives formuliert und das zentrale epistemologische Prinzip dieses Textes bilden wird. Das heuristische Potenzial dieser Maxime zeigt sich nun nicht nur dadurch, dass ihre Anwendung auf die Prinzipien traditioneller Kartographie eine Gegenübergenstellung von Erdglobus und Erdkarte zwingend macht, sondern auch in der Möglichkeit, beide Modelle in gleichwertiger Weise zu definieren und (in Bezug auf Begriffsschöpfungen wie z.B. »digitaler Globus« oder »Hyperglobus«) zu präzisieren. Schließlich bietet eine semiotische Lesart auch Hinweise darauf, warum es der einschlägigen Forschung bislang nicht gelungen ist, die besonderen Qualitäten beider Modelle herauszuarbeiten, was unserer Meinung daran liegt, dass jede Gegenüberstellung unter den exklusiven Vorzeichen eines entweder-oder versucht wurde, wogegen eine zeichentheoretische Betrachtung auf ein inklusives sowohl – als auch im Rahmen eines gemeinsamen Semioseprozesses hinausläuft, was eine Kritik des traditionellen Konzeptes der Globenwürdigkeit zugunsten einer semiotisch begründeten Globusimmanenz bedeutet. Ebengenannte Mängel der einschlägigen Erdkarten- und Globenforschung führen nun zu einer Bruchstelle dieser Arbeit gerade in dem Moment, in dem die eingangs genannte Fragestellung aus der Herleitung einer semiotischen Grundlagentheorie hinreichend konstruiert scheint. Fehlende Kenntnisse zur Funktionen globaler Darstellungen entziehen einer Gegenüberstellung von Globus und Erdkarte nämlich jenes Vorwissen, an dem ein empirischer Vergleich fortsetzen könnte und machen es im Gegenteil erforderlich, diese Voraussetzungen durch eigene Grundlagenforschung erst zu schaffen. Zu diesem Zwecke wird die Ausgangsfrage daher auf ein abstrakteres Niveau verschoben, wo es nun nicht mehr um Repräsentationen der Erdoberfläche, sondern um räumliche Objektverteilungen auf sphärischen und ebenen Displays geht. Eine solche Abstraktion bietet zugleich eine Anschlussstelle an die Raumkognitionsforschung, wo man sich seit längerem mit jenen mentalen Repräsentationen beschäftigt, in denen räumliches Wissen abgespeichert wird. Einer Adaptierung dieser Testdesigns für ein sphärisches Display sowie einem empirischen Vergleich der von Sphäre und Verebnung abgeleiteten mentalen Strukturen widmet sich daher ein letzter Teil des Textes. Die Ergebnisse dieser Tests weisen darauf hin, dass Verteilungen auf der Sphäre langsamer, aber genauer gelernt werden, wobei besonders die Randbereich der verebneten Darstellung zur Ausbildung von psychological border effects und damit zu ungenaueren Informationsabspeicherungen und -abfragen führen. Die Arbeit bietet also neben den zugrundeliegenden theoretischen und methodischen Vorarbeiten auch konkrete Testwerte, die als Referenzen für nachfolgende Untersuchungen von Nutzen sein sollten. Im Sinne von Prolegomena wird somit ein mögliches Forschungsprogramm für ein besseres Verständnis der (auch gegenseitigen) Bedeutung von Globen und Erdkarten als Wissensvermittler vorgezeichnet.The present text has been developed based on the background question of how globes can serve the purposes of cartography. Since globes are no longer those “expensive to make, difficult to reproduce, cumbersome to handle, awkward to store, and difficult to measure and draw on” (Robinson et al., 1995) models of celestial bodies cartographic textbooks still refer to, this question seems to be of topical relevance. To begin with, by reinterpreting the history of cartographic science we will show that current academic cartography is still in a pre-paradigmatic state. Thus, lacking a central paradigm to base this project on, an alternative theoretical foundation will be formulated. The semiotics of Charles S. Peirce can serve as the introducing theory of a descriptive sign model and can be formulated in a rather prescriptive manner in terms of a semiotic imperative as well. This semiotic imperative shall be the main epistemological principle of this text. The heuristic potential of this semiotic maxim crystallises in multiple ways: Firstly, it denies the pragmatic approach to globes that cartographic textbooks usually take. Instead, the issue “globe vs. map” figures prominently on the cartosemiotic research agenda favouring globes over maps due to their higher iconicity. Secondly, terms like “globe” or “map” can be defined more clearly by means of semiotic modelling - also regarding neologisms like “digital globe” or “hyperglobe”. Finally, a semiotic reading provides indication of why relevant cartographic research, until now, was not successful in explaining the special qualities of globes and maps. Namely, conservative research understands the relation between globes and maps in terms of an exclusive either/or whereas a sign-theortic approach supports an inclusive logic of both/and. The traditional concept of a Globenwürdigkeit can therefore be rejected in favour of an integrating globe-immanence. Although the semiotics we advance help us to derive the initial question from a general basic theory, the aforementioned deficiencies of relevant research on earth-maps and globes will bring our considerations to a point of rupture: To ignore the (also cognitive) function of representations of global realities results in the absence of previous knowledge, which would have been requisite to build an empirical comparison between maps and globes. Lacking such prior insights it becomes necessary to lay these missing foundations by proper basic research. For this purpose, the initial question will be asked on a more abstract level, focussing no longer on models of the Earth's surface but rather on spatial object distributions on spherical (3D) and plane (2D) computer displays. This step of abstraction also allows us to link our own research with the research of spatial cognition, where the investigation of mental representations of spatial knowledge has been on the agenda for many years. Spatial cognition research, therefore, offers various test designs that can be adapted for a spherical display. This allows us to compare the mental structures derived from object distributions on a sphere with the accordant object distributions projected (in terms of a map) onto a plane. Doing this adaptation and comparison will be the aim of the final part of this work. The results obtained indicate that object distributions are memorized less quickly but more exactly when learnt on a spherical display; distributions projected form a sphere onto a plane complicate memorizing especially on the map's margins where psychological border effects can be observed within the mental structures and distance estimation qualities of probands. Thus, this work's contribution is threefold. First, the underlying theoretical and methodical groundwork is presented. Second, the concrete empirical findings that can serve as reference data for subsequent works are exposed. Third, a comprehensive research agenda towards a better understanding of earth-maps and globes as cartographic communication devices is outlined

    nestor-Handbuch - Eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Das nestor Handbuch will nach dem Konzept des „Living Document“ das derzeitige Wissen über das vielfältige und komplexe Thema der Langzeitarchivierung und Langzeitverfügbarkeit digitaler Objekte und seine unterschiedlichen Teilaspekte sammeln und über eine „kleine Enzyklopädie“ in strukturierter Form den Interessierten in deutscher Sprache zugänglich machen. Einzelne, von verschiedenen Experten erstellte Fachbeiträge gestatten einen Überblick, manchmal auch einen vertieften Einblick in die diversen Themengebiete der Langzeitarchivierung: von technischen und rechtlichen Aspekten bis hin zur Definition von Rahmenbedingungen.1 Einführung 2 Rechtliche Aspekte 3 State of the Art 4 Rahmenbedingungen für die Langzeitarchivierung digitaler Objekte 5 Geschäftsmodelle 6 Organisation 7 Das Referenzmodell OAIS - Open Archival Information System 8 Vertrauenswürdigkeit von digitalen Langzeitarchiven 9 Formate 10 Standards und Standardisierungsbemühungen 11 Hardware 12 Digitale Erhaltungsstrategien 13 Access 14 Technischer Workflow 15 Anwendungsfelder in der Praxis 16 Lernen und weitergeben – Aus- und Weiterbildungsangebote zur Langzeitarchivierun

    Datenwirtschaft und Datentechnologie

    Get PDF
    In diesem Open-Access-Buch stehen die wirtschaftliche Verwertung von Daten und die dazu gehörenden technischen und organisatorischen Prozesse und Strukturen in Unternehmen im Fokus. Es behandelt Themen wie Datenmonetarisierung, Datenverträge, Data Governance, Informationssicherheit, Datenschutz und die Vertrauenswürdigkeit von Daten. Seit Jahren wird davon gesprochen, dass „Daten das neue Öl“ sind. Expertinnen und Experten sind sich einig: Das Wertschöpfungspotential von Daten ist enorm und das über fast alle Branchen und Geschäftsfelder hinweg. Und dennoch bleibt ein Großteil dieses Potentials ungehoben. Deshalb nimmt dieser Sammelband konkrete Innovationshemmnisse, die bei der Erschließung des wirtschaftlichen Werts von Daten auftreten können, in den Blick. Er bietet praktische Lösungsansätze für diese Hürden an den Schnittstellen von Ökonomie, Recht, Akzeptanz und Technik. Dazu folgen die Autorinnen und Autoren einem interdisziplinären Ansatz und greifen aktuelle Diskussionen aus der Wissenschaft auf, adressieren praxisnahe Herausforderungen und geben branchenunabhängige Handlungsempfehlungen. Den Leserinnen und Lesern soll eine transparente Informationsbasis angeboten werden und damit die Teilnahme an der Datenwirtschaft erleichtert werden. Dieses Buch richtet sich an Entscheidungsträgerinnen und Entscheidungsträger in Unternehmen sowie an Entwicklerinnen und Entwickler datenbasierter Dienste und Produkte. Der Band ist ebenfalls für Fachkräfte der angewandten Forschung wie auch für interdisziplinär Studierende z.B. der Wirtschaftsinformatik, der technikorientierten Rechtswissenschaft oder der Techniksoziologie relevant

    Chancen und Herausforderungen von DLT (Blockchain) in Mobilität und Logistik

    Get PDF
    This basic report presents the economic potential e, the legal framework and the technical fundamentals of distributed ledger or blockchain technology necessary for understanding in order to exploit the opportunities and challenges of these technologies, especially in the mobility and logistics sector. clear. The basic report was prepared on behalf of the Federal Ministry of Transport and Digital Infrastructure (BMVI) by the blockchain laboratory of Fraunhofer FIT

    Datenwirtschaft und Datentechnologie

    Get PDF

    Koordination und Integration von Umweltfachplanungen und ihr Verhältnis zur Stadtplanung

    Get PDF
    KOORDINATION UND INTEGRATION VON UMWELTFACHPLANUNGEN UND IHR VERHÄLTNIS ZUR STADTPLANUNG Koordination und Integration von Umweltfachplanungen und ihr Verhältnis zur Stadtplanung / Degreif, Stefanie (Rights reserved) ( -

    Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema

    Get PDF
    Die Prüfung der Datenqualität stellt eine unerlässliche Voraussetzung dafür dar, den hohen volkswirtschaftlichen Wert der Daten des amtlichen Liegenschaftskatasters in einem umfassenden Datenqualitätsmanagement zu erhalten und an veränderte Anforderungen der Datennutzer anzupassen. Der Qualitätsprüfung ist dabei initiale Bedeutung beizumessen, weil sie die Grundlage für weitere Funktionen des Qualitätsmanagements wie die Qualitätslenkung und -förderung darstellt. Um dem allseits anerkannten Bedarf einer Datenqualitätsprüfung im amtlichen Liegenschaftskataster angemessen begegnen zu können, ist es erforderlich, eine geeignete Modellbildung zu entwickeln und messbare Qualitätsmerkmale zu formulieren. Das in dieser Arbeit konzipierte Qualitätsmodell geht von einer Unterscheidung zwischen Design- und Ausführungsqualität aus und gliedert die vom Nutzer wahrgenommene „Endqualität“ in sogenannte Datenqualitätskomponenten: Qualität der Modellierung, Qualität der Implementierung, Qualität der Erhebung und Führung sowie Qualität der Benutzung. Das Qualitätsmodell vereint dabei unterschiedliche Qualitätssichten, wie den anwenderbezogenen und produktbezogenen Ansatz und trennt nicht zwischen Produkt- und Dienstleistungsqualität. Mit der Einführung der Datenqualitätsprüfstufen wird zusätzlich den Anforderungen einer prozessorientierten Herangehensweise Rechnung getragen. Darauf aufbauend wird für das Datenqualitätselement der logischen Konsistenz der Daten des amtlichen Liegenschaftskatasters ein umfassender Katalog von 467 Qualitätsmerkmalen definiert, beschrieben und kategorisiert. Als Maßstab für die Analyse der logischen Konsistenz dient ein als „erweitertes Anwendungsschema“ bezeichneter Rahmen, welcher sich aus der bundesweit gültigen GeoInfoDok und zahlreichen landesspezifischen Einschränkungen und Ergänzungen zusammensetzt. Dazu zählen unter anderem Landesgesetze und -verordnungen, Vorschriften, Richtlinien etc. Der Übersichtlichkeit halber wird der Merkmalskatalog in 14 thematische Gruppen gegliedert, wie zum Beispiel „Flurstück“, „Lage“ oder „Personen- und Bestandsdaten“. Des Weiteren lassen sich die Merkmale anhand ihrer inhaltlichen Bedeutung einer von sieben semantischen Kategorien zuordnen, wie beispielsweise der Domänenintegrität, der logischen Vollständigkeit, der thematischen oder der räumlichen Integrität. Außerdem liefert die Einordnung in sechs Komplexitätsgruppen Hinweise zum Prüfaufwand beziehungsweise zur Prüftechnik und spricht somit insbesondere Entwickler an. Ebenfalls eingegangen wird auf die Vorgehensweise zur Gewinnung von Datenqualitätsmerkmalen nach dem axiomatisch-normativen Ansatz, dem induktiven Ansatz und dem deduktiven Ansatz sowie auf die Alternativen zur Formalisierung der Datenqualitätsmerkmale. Basierend auf dem damit gelegten konzeptionellen Fundament werden Vorschläge zur Optimierung der Datenmodellierung unterbreitet und eine plattform- und herstellerunabhängige Implementierung eines Prüfwerkzeuges vorgenommen. Beim „NAS-Analyse-Werkzeug (NAW)“ handelt es sich um eine JAVA-Applikation, die neben Funktionen zur Validierung und beschreibenden Statistik den Katalog der Qualitätsmerkmale im Programmmodul „NAS-Analyse“ umsetzt. Ergänzung finden diese Leistungsmerkmale in der Veränderungsanalyse und der Aktualitätsprüfung, welche insbesondere für eine Datenprüfung im Aktualisierungsprozess unverzichtbar sind. Von Beginn an wurde die Architektur des „NAS-Analyse-Werkzeuges (NAW)“ auf Massendatentauglichkeit und möglichst weitreichende Parametrisierbarkeit ausgelegt, um eine Verwendung in unterschiedlichsten Prüfszenarien, aber auch im Zusammenhang mit den verschiedenen Anwendungsschemata der Bundesländer sicherzustellen. Dem zuzurechnen sind die Optionen, Anwenderprofile auszuprägen, Datenqualitätsmerkmale zu aktivieren/deaktivieren sowie unterschiedliche GeoInfoDok-Versionen anzusprechen. Durch die Spezifikation eines Datenaustauschformates wird es ermöglicht, die Ergebnisse der Datenprüfung zu transportieren und in Metainformationssysteme zu integrieren. Abrundung findet die Beschreibung des „NAS-Analyse-Werkzeuges (NAW)“ in der Untersuchung des Laufzeitverhaltens. Als Funktion der Dateigröße lässt sich die Dauer eines Analyselaufes in Abhängigkeit von der Rechnerausstattung verlässlich schätzen, so dass im Vorfeld aufwendiger Datenprüfungen Kenngrößen für die Skalierung der Auswerteprozesse gewonnen werden können. Schließlich stellen die Ausführungen zum Prototyping in der Vermessungs- und Katasterverwaltung Rheinland-Pfalz die Reife und Praxistauglichkeit für die turnusmäßige Bestandsdatenanalyse und die Qualitätssicherungsmechanismen im Aktualisierungsprozess heraus. Der Exkurs zur Ausweitung auf die Informationssysteme AFIS und VBORIS sowie die Erprobung an der Bezirksregierung Köln belegt die Erweiterbarkeit und Übertragbarkeit des Ansatzes. Darüber hinaus vermittelt die vorliegende Arbeit die zum Verständnis erforderlichen Grundlagen des Qualitätsmanagements, der Datenqualität, der Geoinformatik sowie des amtlichen Liegenschaftskataster-Informationssystems und bezieht die bestehenden Forschungsergebnisse und Normungen mit ein

    nestor Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Die Überlieferung des kulturellen Erbes, traditionell eine der Aufgaben von Bibliotheken, Archiven und Museen, ist durch die Einführung digitaler Medien und innovativer Informationstechnologien deutlich anspruchsvoller geworden. In der heutigen Zeit werden zunehmend mehr Informationen (nur) digital erstellt und veröffentlicht. Diese digitalen Informationen, die Güter des Informations- und Wissenszeitalters, sind einerseits wertvolle kulturelle und wissenschaftliche Ressourcen, andererseits sind sie z.B. durch die Kurzlebigkeit vieler Formate sehr vergänglich. Die Datenträger sind ebenso der Alterung unterworfen wie die Datenformate oder die zur Darstellung notwendige Hard- und Software. Um langfristig die Nutzbarkeit der digitalen Güter sicherzustellen, muss schon frühzeitig Vorsorge getroffen werden. Es müssen Strategien zur digitalen Langzeitarchivierung entwickelt und umgesetzt werden. ..

    E-Learning in Hochschule und Weiterbildung: Einsatzchancen und Erfahrungen

    Get PDF
    E-learning is the subject of numerous debates. The contributions to this book are meant to intensify and broaden these discussion. The authors place their focus on higher and further education as important sectors for the application of e-learning with the aim to link up both areas. Here information technology, pedagogy and Business and Human Resource Education are analysed. The authors' contributions show how educational aspects and questions of organisation and information technology can be interlinked and use this connection to derive new areas of application for e-learning concepts. The Editors Dieter Nittel is a professor at the Institute of Social Pedagogy and Adult Education. Roland Holten is Head of the Chair of ISE(Information Systems Engineering) at the Goethe University Frankfurt a. M.E-Learning ist das Thema zahlreicher Debatten. Die Beiträge in diesem Buch zielen darauf ab, die Diskussion zu intensivieren und zu vertiefen. Dabei fokussieren die Autoren die Bereiche Hochschule und Weiterbildung als wichtige Einsatzgebiete von E-Learning, mit dem Ziel einer Verbindung beider Bereiche. Dies geschieht aus Sicht der Wirtschaftsinformatik, der Erziehungswissenschaft und der Wirtschaftspädagogik. Die Autoren zeigen in ihren Beiträgen, wie pädagogische Gesichtspunkte mit Fragen der Organisation und der Informationstechnik verknüpft werden können und leiten daraus Einsatzchancen für E-Learning-Konzepte ab

    Zwischen Inter- und Transnationalismus : die Kommunikationspolitik der UNESCO nach 1989/1990

    Get PDF
    Die Dissertation mit dem Titel „Zwischen Inter- und Transnationalismus: Die Kommunikationspolitik der UNESCO nach 1989/1990“ von Sami Rabieh widmet sich dem Wandel in der UNESCO-Kommunikationspolitik seit dem Ende des Ost-West Konflikts, um zu klären, welche demokratisierenden Gestaltungspotenziale eine auf die Organisation gerichtete Kommunikationspolitik bietet und welche anderen Pfade gegebenenfalls noch darüber hinaus beschritten werden müssen. Aufbauend auf v.a. gramscianischen Theoriesträngen werden zunächst aktuelle soziale Transformationsprozesse („Globalisierung“) als Interpretationsrahmen für die Analyse der UNESCO dargestellt. Dem folgt eine historische Aufarbeitung der internationalen Kommunikationspolitik bzw. der UNESCO bis 1989/1990 sowie ein empirischer Teil, der die Entwicklung der Organisation im Politikfeld bis in die Gegenwart untersucht. Eine Synopse und Erörterung alternativer Handlungsoptionen schließen die Arbeit ab. Zusammengenommen erweist sich die Eingangsthese zur Herausbildung eines transnationalen Systems und die damit verbundene Skepsis bezüglich der Demokratisierungspotentiale inter-staatlicher Apparate als korrekt. Die politische Form und Praxis der UNESCO, in der ausschließlich Staatenvertreter zu Kommunikationsprozessen und Entscheidungen fähig und befugt sind, hat im Internetzeitalter keine Grundlage mehr und wird wegen neuer politischer Terrains sowie der Beliebtheit amerikanischer Pop- und Cyberkulturen kein „comeback“ mehr erleben. Emanzipatorische Strategien sollten sich deshalb auf eine basisdemokratische Vernetzung mittels neuer Medien konzentrieren
    corecore