10 research outputs found

    Wissenschaftlich-Technischer Jahresbericht 1993

    Get PDF

    Wissenschaftlich-Technischer Jahresbericht 1993

    Get PDF

    Von Datenmanagement zu Data Literacy: Informatikdidaktische Aufarbeitung des Gegenstandsbereichs Daten für den allgemeinbildenden Schulunterricht

    Get PDF
    Die Thematisierung von Daten in der Informatik befindet sich seit über einem Jahrzehnt in einem Wandel, der nicht nur technische Neuerungen nach sich zieht, sondern auch eine umfassende Neubetrachtung der Erfassung, Speicherung und Nutzung von Daten verursachte und zur Bildung eines neuen umfassenden Fachgebiets Datenmanagement führte. Die Ausmaße dieser Entwicklung zeigen sich an der zunehmenden Verarbeitung komplexer Daten (Big Data), neuen Möglichkeiten zur Datenverarbeitung und -analyse (z. B. Datenstromsysteme, Data Mining) und nicht zuletzt an der Entstehung einer eigenen Data Science. Neben fachlichen Veränderungen unterliegt aber auch die gesellschaftliche Bedeutung von Daten einem Wandel: Daten stellen nicht mehr nur ein wichtiges und innovatives Thema der Informatik, sondern das zentrale Fundament der digitalen Gesellschaft dar. Auch der Informatikunterricht konzentriert sich seit Jahren eher auf tradierte Aspekte des Fachgebiets, wie Datenbanken und Datenmodellierung, während neuere Themen allenfalls als Unterrichtskontext aufgegriffen werden. Um eine aqäquate Grundlage für den Unterricht zu diesen Themen zu schaffen, die langlebigen Aspekte der fachlichen Entwicklungen zu identifizieren und somit einen zukunftssicheren Informatikunterricht zu ermöglichen, ist eine umfassende informatikdidaktische Aufarbeitung essenziell. Somit eröffnet sich durch diese Veränderungen deutliches Potenzial, nicht nur für die Informatikdidaktik, sondern auch für die Unterrichtspraxis. In dieser Arbeit wird daher der Gegenstandsbereich Daten und insbesondere das Fachgebiet Datenmanagement aus informatikdidaktischer Sicht umfassend aufgearbeitet, mit dem Ziel ein Fundament für die weitere Forschung und die Unterrichtspraxis zu schaffen. Dazu wird das Modell der Didaktischen Rekonstruktion als Forschungsrahmen eingesetzt und das Fachgebiet aus den Perspektiven Fach, Lehrer, Schüler und Gesellschaft untersucht. Als eines der zentralen Ergebnisse wird, basierend auf einem empirisch geprägten Ansatz, ein Modell der Schlüsselkonzepte des Datenmanagements entwickelt. Um den Bogen zu allgemeinbildenden Datenkompetenzen im Sinne einer Data Literacy zu spannen, entsteht außerdem ein Data-Literacy-Kompetenzmodell, das auf Grundlagen des Datenmanagements und der Data Science fundiert wird. Um die praktische Relevanz der Ergebnisse der Arbeit zu unterstreichen, wird auf Basis der gewonnenen Erkenntnisse die Umsetzung von Datenmanagement im Informatikunterricht skizziert. Dazu werden zwei Unterrichtswerkzeuge sowie eine Unterrichtssequenz entwickelt und erprobt. Diese Arbeit schafft somit nicht nur eine Orientierung und Basis für die weitere Forschung im Kontext Daten, sondern sorgt durch die fachliche Klärung des Fachgebiets Datenmanagement auch dafür, dass dessen Kernaspekte greifbarer und klarer erkennbar werden. Sie zeigt exemplarisch, dass auch moderne und komplex erscheinende Themen des Datenmanagements unter Berücksichtigung der zugrundeliegenden Konzepte für den Unterricht geeignet aufbereitet werden können und betont die Relevanz dieser Themen, die in einer digitalen Gesellschaft und im Sinne der Schaffung einer Data Literacy zukünftig einen größeren Stellenwert im Informatikunterricht erlangen müssen

    Digitale Datenbanken: Eine Medientheorie im Zeitalter von Big Data

    Get PDF
    Wir leben längst nicht mehr nur im Informationszeitalter, sondern in der Ära von Big Data. In dieser steht die Datenbank gleichzeitig für die riesigen Erkenntnispotenziale von Informationssammlungen wie für die bedrohlichen Informationsexzesse der digitalen Medienkultur. Zudem bezeichnet der Begriff konkrete Technologien und Verfahren der Sammlung und Bereitstellung von digitalen Informationen. Zwischen diesen sehr unterschiedlichen Auffassungen gilt es, Datenbanken medientheoretisch zu verorten. Marcus Burkhardt zeichnet die Geschichte der Datenbanken nach und fragt, wie technische Verfahren der Verwaltung digitaler Informationen bedingen, was auf welche Weise in Datenbanken gefunden und durch sie gewusst werden kann.We have long moved on from a mere information age to the era of big data. Here, databases represent both the enormous potential for gaining knowledge of data collection and the alarming information excesses of digital culture. Furthermore, the term refers to concrete technologies and processes of gathering and accessing digital information. Media theory has to locate databases in between these very different conceptions. Marcus Burkhardt retraces the history of databases and asks how technical procedures of processing digital information determine what can be found how in databases and what knowledge can be gained through them

    Digitale Datenbanken

    Get PDF
    We have long moved on from a mere information age to the era of big data. Here, databases represent both the enormous potential for gaining knowledge of data collection and the alarming information excesses of digital culture. Furthermore, the term refers to concrete technologies and processes of gathering and accessing digital information. Media theory has to locate databases in between these very different conceptions. Marcus Burkhardt retraces the history of databases and asks how technical procedures of processing digital information determine what can be found how in databases and what knowledge can be gained through them

    Informationsverarbeitung im Rahmen der Jahresabschlussprüfung: Fachkonzeptuelles Modell eines integrierten Anwendungssystems zur Unterstützung der Jahresabschlussprüfung

    Get PDF
    Gegenstand der vorliegenden Untersuchung ist es, die Jahresabschlussprüfung als Prozess der Informationsverarbeitung darzustellen und diesen Prozess zu analysieren. Es wird betrachtet, ob und auf welche Art und Weise durch zielorientierte Konstruktion eines Anwendungssystems zur Unterstützung der Abschlussprüfung die Effektivität und Effizienz des Prüfungsprozesses erhöht werden kann. Dabei werden ausgehend von einer Informationsbedarfsanalyse sämtliche denkbaren Möglichkeiten des Einsatzes prüfungsunterstützender Anwen-dungssysteme untersucht. Auf dieser Basis wird im Hauptteil der Untersuchung ein fachkonzeptuelles Modell eines prüfungsunterstützenden Anwendungssystems unter Zugrunde-legung der ARIS-Methode modelliert. Die Arbeit wurde im Jahre 2002 an der wirtschaftswissenschaftlichen Fakultät der TU Dresden als Dissertation angenommen

    Historische Sozialforschung: Identifikation, Organisation, Institution

    Full text link
    Im Mittelpunkt des vorliegenden Buches steht die Darstellung von Aufgaben und Leistungen des Zentrums für Historische Sozialforschung (ZHSF) in Vergangenheit, Gegenwart und Zukunft. Das ZHSF erbringt in institutionalisierter Form seit 1987 umfassende Infrastrukturleistungen für die Historische Sozialforschung; in der Entwicklung spiegelt sich daher exemplarisch auch die Entwicklung der Historischen Sozialforschung in der Bundesrepublik Deutschland in den zurückliegenden Jahren wider. 'Institution und Funktion' der Historischen Sozialforschung lassen sich nicht hinreichend verstehen, ohne 'Identifikation und Definition' sowie 'Organisation und Diffusion' zumindest als institutionellen Hintergrund in den Blick zu nehmen. Folgende Punkte werden in diesem Kontext näher betrachtet: (1) Wissenschaftlicher Standort; (2) Forschungsstrategie; (3) Geschichte, Aufgaben und Struktur; (4) Forschungsfeld und Klientel; (5) Beratungs- und Datenservice; (6) Software; (7) Historische Statistik; (8) Publikationen; (9) Lehre und Forschung. (psz

    Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der Bibliografischen Kontrolle im Wandel

    Get PDF
    Diese Veröffentlichung geht zurück auf eine Magisterarbeit (2010) im Direktstudiengang Bibliothekswissenschaft an der Humboldt-Universität zu Berlin.Die Informationsräume Bibliothek und World Wide Web (WWW) stehen vor der gleichen Herausforderung: Eine korrekte, umfassende und nutzergerechte Erschliessung ihrer Dokumente zu leisten. Eine Lösung aus beiden Perspektiven wäre eine einfache und universelle Ressourcenbeschreibung, die implizit generiert wird. Hieraus ergibt sich eine zentrale Frage für die Bibliothekswissenschaft: Inwieweit und auf welche Weise können solche Techniken auch für die Bibliografische Kontrolle nutzbar gemacht werden? Im ersten Teil der Arbeit werden die klassischen Konzepte der Bibliografischen Kontrolle analysiert. Als aktuelle Umformungen dieser Komponenten wird auf die Konzeptmodelle des "Bibliografischen Universums" FRBR, FRAD und FRSAD eingegangen. Das Begriffskontinuum Metadaten und Ressourcenbeschreibung wird erläutert und als Bibliografisches System redefiniert, bevor die gegenwärtigen Metadatensystemen abschliessend kritisch betrachtet werden. Im zweiten Teil werden Prinzipien und Technologien beschrieben, die unter dem Begriff Semantic Web zusammengefasst werden und die Struktur des WWW durch maschinenverarbeitbare Informationen erweitern sollen. Ein Überblick über aktuelle Anwendungen in Form von Linked-Data-Projekten schliesst den Teil ab. Im letzten Abschnitt wird erläutert, wie Bibliografische Metadatensysteme durch die vorgestellten Semantic-Web-Techniken reformuliert und integriert werden können. Dies wird danach anhand des DCAM und konkreter Darstellungen von bibliografischen Metadatenschemata, Normdaten und Kontrollierten Vokabularen mittels RDF(S)/SKOS veranschaulicht. Schliesslich wird das neue Katalogisierungsregelwerk Resource Description and Access (RDA) vor diesem Hintergrund betrachtet. Die Arbeit endet mit der Schlussfolgerung, dass Semantic-Web-Techniken dazu geeignet erscheinen, die strukturelle und inhaltliche Komplexität von bibliografischen Metadaten einheitlich darzustellen sowie diese hochgradig anpassungsfähig und universell verarbeitbar zu gestalten. Im Gegenzug können qualitativ hochwertige bibliothekarische Daten als wichtige Referenzpunkte in der sich rasch entwickelnden Linked Data Cloud fungieren - und ihrerseits in ungeahntem Ausmass verknüpft und somit angereichert werden

    ‚Culture, Cooperation, Capabilities‘. Internationale Geheimdienstkooperation und europäische Polizeikooperation im Spannungsfeld von Legitimität und Effektivität

    Get PDF
    Beide Anspruchsgrößen, die der Legitimität und die der Effektivität sicherheitspolitischer Lösungen und Kooperationsarrangements, sind für geheimdienstliche und polizeiliche Akteure zentral. Auf welche Weise Sicherheitsbehörden beide Determinanten einbinden (können) und wie sie dies diskutieren, ist Untersuchungsgegenstand der vorliegenden Arbeit, die sich dem Spannungsfeld mit dem soziologischen Institutionalismus als Konzept der sozialkonstruktivistischen Analyse nähert

    Informationssicherheit und Persönlichkeit : Konzept, Empirie und Handlungsempfehlungen

    Get PDF
    [no abstract
    corecore