15 research outputs found

    Computer, Rationalität und Mythen in der politischen Arena: Begründungen und Hintergründe von Entscheidungen über den EDV-Einsatz - am Beispiel der Bundesanstalt für Arbeit

    Full text link
    Die Dissertation entwickelt ein Konzept zur Analyse von Entscheidungen über den Computereinsatz und kombiniert hierzu Erkenntnisse aus dem organisationssoziologischen Neo-Institutionalismus (Meyer/Rowan 1977) und einer macht- und koalitionstheoretischen Perspektive (Mintzberg 1983). In der Folge rekonstruiert die Arbeit den langen Prozess der Computerisierung in der Bundesanstalt für Arbeit und die Bearbeitung der unzureichenden und enttäuschenden Ergebnisse (gemessen an den durch den Mythos hochgetriebenen Erwartungen). Gegen Ende des Beobachtungszeitraums erschöpft sich der Computermythos und macht anderen Rationalitätsmythen Platz. Die Arbeit legt eine zyklische Abfolge von Mythen nahe, bei der die Folgemythen jeweils die nicht-intendierten und nicht-antizipierten Folgen zu bearbeiten verspricht

    Prüfung der Datenqualität im amtlichen Liegenschaftskataster in Bezug auf ein erweitertes Anwendungsschema

    Get PDF
    Die Prüfung der Datenqualität stellt eine unerlässliche Voraussetzung dafür dar, den hohen volkswirtschaftlichen Wert der Daten des amtlichen Liegenschaftskatasters in einem umfassenden Datenqualitätsmanagement zu erhalten und an veränderte Anforderungen der Datennutzer anzupassen. Der Qualitätsprüfung ist dabei initiale Bedeutung beizumessen, weil sie die Grundlage für weitere Funktionen des Qualitätsmanagements wie die Qualitätslenkung und -förderung darstellt. Um dem allseits anerkannten Bedarf einer Datenqualitätsprüfung im amtlichen Liegenschaftskataster angemessen begegnen zu können, ist es erforderlich, eine geeignete Modellbildung zu entwickeln und messbare Qualitätsmerkmale zu formulieren. Das in dieser Arbeit konzipierte Qualitätsmodell geht von einer Unterscheidung zwischen Design- und Ausführungsqualität aus und gliedert die vom Nutzer wahrgenommene „Endqualität“ in sogenannte Datenqualitätskomponenten: Qualität der Modellierung, Qualität der Implementierung, Qualität der Erhebung und Führung sowie Qualität der Benutzung. Das Qualitätsmodell vereint dabei unterschiedliche Qualitätssichten, wie den anwenderbezogenen und produktbezogenen Ansatz und trennt nicht zwischen Produkt- und Dienstleistungsqualität. Mit der Einführung der Datenqualitätsprüfstufen wird zusätzlich den Anforderungen einer prozessorientierten Herangehensweise Rechnung getragen. Darauf aufbauend wird für das Datenqualitätselement der logischen Konsistenz der Daten des amtlichen Liegenschaftskatasters ein umfassender Katalog von 467 Qualitätsmerkmalen definiert, beschrieben und kategorisiert. Als Maßstab für die Analyse der logischen Konsistenz dient ein als „erweitertes Anwendungsschema“ bezeichneter Rahmen, welcher sich aus der bundesweit gültigen GeoInfoDok und zahlreichen landesspezifischen Einschränkungen und Ergänzungen zusammensetzt. Dazu zählen unter anderem Landesgesetze und -verordnungen, Vorschriften, Richtlinien etc. Der Übersichtlichkeit halber wird der Merkmalskatalog in 14 thematische Gruppen gegliedert, wie zum Beispiel „Flurstück“, „Lage“ oder „Personen- und Bestandsdaten“. Des Weiteren lassen sich die Merkmale anhand ihrer inhaltlichen Bedeutung einer von sieben semantischen Kategorien zuordnen, wie beispielsweise der Domänenintegrität, der logischen Vollständigkeit, der thematischen oder der räumlichen Integrität. Außerdem liefert die Einordnung in sechs Komplexitätsgruppen Hinweise zum Prüfaufwand beziehungsweise zur Prüftechnik und spricht somit insbesondere Entwickler an. Ebenfalls eingegangen wird auf die Vorgehensweise zur Gewinnung von Datenqualitätsmerkmalen nach dem axiomatisch-normativen Ansatz, dem induktiven Ansatz und dem deduktiven Ansatz sowie auf die Alternativen zur Formalisierung der Datenqualitätsmerkmale. Basierend auf dem damit gelegten konzeptionellen Fundament werden Vorschläge zur Optimierung der Datenmodellierung unterbreitet und eine plattform- und herstellerunabhängige Implementierung eines Prüfwerkzeuges vorgenommen. Beim „NAS-Analyse-Werkzeug (NAW)“ handelt es sich um eine JAVA-Applikation, die neben Funktionen zur Validierung und beschreibenden Statistik den Katalog der Qualitätsmerkmale im Programmmodul „NAS-Analyse“ umsetzt. Ergänzung finden diese Leistungsmerkmale in der Veränderungsanalyse und der Aktualitätsprüfung, welche insbesondere für eine Datenprüfung im Aktualisierungsprozess unverzichtbar sind. Von Beginn an wurde die Architektur des „NAS-Analyse-Werkzeuges (NAW)“ auf Massendatentauglichkeit und möglichst weitreichende Parametrisierbarkeit ausgelegt, um eine Verwendung in unterschiedlichsten Prüfszenarien, aber auch im Zusammenhang mit den verschiedenen Anwendungsschemata der Bundesländer sicherzustellen. Dem zuzurechnen sind die Optionen, Anwenderprofile auszuprägen, Datenqualitätsmerkmale zu aktivieren/deaktivieren sowie unterschiedliche GeoInfoDok-Versionen anzusprechen. Durch die Spezifikation eines Datenaustauschformates wird es ermöglicht, die Ergebnisse der Datenprüfung zu transportieren und in Metainformationssysteme zu integrieren. Abrundung findet die Beschreibung des „NAS-Analyse-Werkzeuges (NAW)“ in der Untersuchung des Laufzeitverhaltens. Als Funktion der Dateigröße lässt sich die Dauer eines Analyselaufes in Abhängigkeit von der Rechnerausstattung verlässlich schätzen, so dass im Vorfeld aufwendiger Datenprüfungen Kenngrößen für die Skalierung der Auswerteprozesse gewonnen werden können. Schließlich stellen die Ausführungen zum Prototyping in der Vermessungs- und Katasterverwaltung Rheinland-Pfalz die Reife und Praxistauglichkeit für die turnusmäßige Bestandsdatenanalyse und die Qualitätssicherungsmechanismen im Aktualisierungsprozess heraus. Der Exkurs zur Ausweitung auf die Informationssysteme AFIS und VBORIS sowie die Erprobung an der Bezirksregierung Köln belegt die Erweiterbarkeit und Übertragbarkeit des Ansatzes. Darüber hinaus vermittelt die vorliegende Arbeit die zum Verständnis erforderlichen Grundlagen des Qualitätsmanagements, der Datenqualität, der Geoinformatik sowie des amtlichen Liegenschaftskataster-Informationssystems und bezieht die bestehenden Forschungsergebnisse und Normungen mit ein
    corecore