73 research outputs found

    Oliver Wendell Holmes Jr.’s The Path of the Law – die Geburtsstunde des American Legal Realism

    Get PDF
    In diesem Artikel wird die Bedeutung des 1897 von Oliver Wendell Holmes Jr. veröffentlichten Aufsatzes The Path of the Law für die Entstehung des American legal realism sowie dessen Auswirkungen sowohl auf die juristische Ausbildung, als auch auf die höchstrichterliche Rechtsprechung des 20. Jahrhunderts, aufgezeigt. American Legal and Constitutional History, Critical Legal Theory, Legal Theory, Supreme Court, American Realism, Legal positivism, Oliver Wendell Holmes Jr., Rechtstheorie und Rechtswissenschafte

    Erstellen und Analysieren von Gesprächskorpora mit EXMARaLDA

    Get PDF
    Dieser Aufsatz gibt einen Überblick über EXMARaLDA, ein System aus Datenmodell, Datenformaten und Software-Werkzeugen zum computergestützten Erstellen und Analysieren von Kmpora gesprochener Sprache. Der Schwerpunkt der Darstellung liegt auf der Nutzung der verschiedenen Softwarewerkzeuge- ein Patiitur-Editor zum Erstellen von Transkriptionen, ein Corpus-Manager zum Erstellen und Verwalten von Korpora und ein Suchwerkzeug zum Auswerten solcher Korpora- für gesprächsanalytische Zwecke.This paper gives an overview over EXMARaLDA, a system for the computerassisted creation and analysis of corpora of spoken language, which consists of a data model and a number of data formals and software tools. Its emphasis is on the way timt the EXMARaLDA software components - a partitur editor for transcribing, a corpus manager for creating and managing corpora and a search tool for querying such corpora - can be used for research in conversation and discourse analysis

    EXMARaLDA - Creating, Analysing and Sharing Spoken Language Corpora for Pragmatic Research

    Get PDF
    This paper presents EXMARaLDA, a system for the computer-assisted creation and analysis of spoken language corpora. The first part contains some general observations about technological and methodological requirements for doing corpus-based pragmatics. The second part explains the systems architecture and gives an overview of its most important software components a transcription editor, a corpus management tool and a corpus query tool. The last part presents some corpora which have been or are currently being compiled with the help of EXMARaLDA

    New and future developments in EXMARaLDA

    Get PDF
    We present some recent and planned future developments in EXMARaLDA, a system for creating, managing, analysing and publishing spoken language corpora. The new functionality concerns the areas of transcription and annotation, corpus management, query mechanisms, interoperability and corpus deployment. Future work is planned in the areas of automatic annotation, standardisation and workflow management

    Leitfaden zur Beurteilung von Aufbereitungsaufwand und Nachnutzbarkeit von Korpora gesprochener Sprache

    Get PDF
    Korpora gesprochener Sprache werden mindestens seit den 1950er Jahren von Sprachwissenschaftlern und Forschern anderer Disziplinen mit verschiedensten Forschungsinteressen aufgebaut. Die technischen Möglichkeiten für die Erhebung und Bereitstellung solcher Daten haben sich seitdem fortwährend und grundlegend gewandelt. Heute kann es als Normalfall angesehen werden, dass ein Korpus gesprochener Sprache digital erhoben wird. Die wissenschaftliche Community ist außerdem auf dem Wege, sich auf gewisse Mindeststandards zu einigen, die bei der Erhebung bezüglich Dokumentation, Strukturierung und Enkodierung der Daten eingehalten werden sollten, um eine möglichst nachhaltige Nutzung der Korpora zu ermöglichen. Verschiedene Datenzentren schließlich haben sich zum Ziel gesetzt, Korpora gesprochener Sprache zu einer eben solchen Nachnutzung dauerhaft zu archivieren und in digitalen Infrastrukturen bereitzustellen. Eine der wichtigsten Aufgaben solcher Zentren ist es, Korpora aus abgeschlossenen Projekten zu übernehmen und sie so aufzubereiten, dass eine dauerhafte Archivierung und Bereitstellung überhaupt möglich wird. Dieser Leitfaden basiert auf Erfahrungen, die hinsichtlich dieser Aufgabe an zwei Standorten – dem Sonderforschungsbereich 538 ‚Mehrsprachigkeit’ bzw. dem Zentrum für Sprachkorpora (HZSK) an der Universität Hamburg, sowie dem Archiv für gesprochenes Deutsch (AGD) am Institut für Deutsche Sprache in Mannheim – gesammelt wurden.1 Am SFB 538 (Laufzeit: 1999-2011) hatte das Projekt Z2 „Computergestützte Erfassungs- und Analysemethoden“ die Aufgabe übernommen, Korpora aus den Teilprojekten des SFB nach deren Abschluss für eine Archivierung und Nachnutzung vorzubereiten (siehe dazu Schmidt/Bennöhr 2007). Die Archivierung und Bereitstellung der Daten im Gesamtumfang von 30 Korpora erfolgt nun im zum Abschluss des SFB (2011) gegründeten HZSK (Hedeland/Lehmber /Schmidt/Wörner 2011). Das Archiv für Gesprochenes Deutsch bzw. dessen Vorläufer, das Deutsche Spracharchiv (Stift/Schmidt 2014), fungiert bereits seit den 1960er Jahren als eine zentrale Sammelstelle für Korpora des gesprochenen Deutsch. Im Laufe der Jahre hat es aus IDS-internen und -externen Projekten knapp 50 Korpora übernommen, die verschiedene Stadien der Aufbereitung erfahren haben und der wissenschaftlichen Gemeinschaft nun u.a. über die Datenbank für Gesprochenes Deutsch (DGD2, Schmidt/Dickgießer/Gasch 2013) zur Verfügung gestellt werden. Das derzeitige Angebot dieser beiden Einrichtungen zeigt, dass es prinzipiell möglich ist, von den im einleitenden Zitat beschriebenen Sammlungen zu dauerhaft nachnutzbaren digitalen 1 Die Konzeption dieses Leitfadens war Gegenstand eines Arbeitspakets im Projekt „Etablierung eines Schwerpunkts ‚Mehrsprachigkeit und Gesprochene Sprache‘ am Hamburger Zentrum für Sprachkorpora“, das von der Deutschen Forschungsgemeinschaft im Rahmen des Förderprogramms „Literaturversorgungs- und Informationssysteme (LIS)“ gefördert wurde. An der Umsetzung haben sich die genannten MitarbeiterInnen des HZSK und des AGD beteiligt.4 Ressourcen zu gelangen. Die Erfahrung zeigt aber auch, dass dies oft ein langwieriger Prozess mit vielen unvorhergesehenen Hindernissen ist, an dessen Ende man sich zumindest gelegentlich die Frage stellen kann, ob Aufwand und Nutzen der Datenaufbereitung in einem angemessenen Verhältnis zueinander stehen. Zweck dieses Leitfadens ist es, Kriterien für die Beurteilung von Aufbereitungsaufwand und Nachnutzbarkeit von Korpora gesprochener Sprache zu definieren, mittels derer bereits bei der Planung eines entsprechenden Projektes eine Abschätzung der Kosten und Nutzen getroffen werden kann. Kosten bezeichnen in diesem Kontext insbesondere den zeitlichen Arbeitsaufwand, der sich nicht immer leicht in monetäre Kosten umrechnen lässt. Die Nachnutzbarkeit definiert sich vor allem darüber, wie offen oder restriktiv der Zugang zum Korpus gestaltet wird und über die Quantität und Qualität der Korpusbestandteile. Der Leitfaden gliedert sich in sechs Abschnitte, die in Form von strukturierten Fragebäumen die wichtigsten Eigenschaften einer aufzubereitenden Ressource abfragen. Den Fragebäumen sind Erläuterungen zum besseren Verständnis der einzelnen Fragen vorangestellt. Die Pfade in den Fragebäumen führen jeweils zu einem "Ampelsymbol", anhand dessen über das weitere Vorgehen bei der Aufbereitung entschieden werden kann

    ZUGÄNGE ZU MÜNDLICHEN KORPORA FÜR DAF UND DAZ - Projekt, Datengrundlagen, technische Basis

    Get PDF
    Im vorliegenden Artikel wird ein Überblick über das von der DFG geförderte Projekt Zugänge zu multimodalen Korpora gesprochener Sprache – Vernetzung und zielgruppenspezifische Ausdifferenzierung (ZuMult) gegeben. Dabei wird zunächst auf die Sprachdaten und auf die technische Basis der Applikationen eingegangen, die dem Projekt zugrunde liegen. Im Anschluss werden die weiteren Beiträge in diesem Themenheft von KorDaF kurz vorgestellt. Übergeordnetes Thema von ZuMult ist die Verbesserung der Zugänglichkeit von digitalen mündlichen Sprachdaten für verschiedene Anwendungen und Zielgruppen, wobei der Fokus dieses Themenhefts auf Applikationen und Anwender:innen aus der Fremdsprachendidaktik und der DaF-/DaZ-Forschung und -Lehre liegt. Die einzelnen Beiträge beleuchten zentrale methodische und/oder technische Aspekte dieses Themas und beschreiben die Architektur und verschiedene prototypische Anwendungen, die das Projekt entwickelt hat

    Das Forschungsdatenzentrum der Universität Hamburg

    Get PDF
    The more recent discussion of research data practices at relevant conferences, workshops and respective publications suggest substantially different foci of problems and solutions in managing data between scientific disciplines. There seems to be a particularly profound gap in natural science and humanities whereas social and life sciences are placed somewhere in between. Indeed data centers tailored to the specific needs of a single discipline (physics, chemistry, climate studies) are numerous in science and tend to be nearly absent for a specific humanities subject. While the former ask for and report solutions on scaling up (larger quantities of data can be run by the same application) and scaling out (larger quantities of data can use the same infrastructure), the latter are concerned with the heterogeneity of relatively small amounts of data (long-tail problem) and a divergence of agreed standards; something we may term as cross scaling. In either case, an efficiency problem has to be solved. On the one hand, huge amounts of data have to be handled within an acceptable time frame, on the other hand, many different applications with diverse functionalities have to be handled with an acceptable number of resources.  We would like to argue here that independent from the discipline either optimization problem should be addressed. Throughout the last decade, we have also observed that projects in science diversify and prefer individualized solutions which additionally hints at increasing data heterogeneity in natural science as well while, at the same time, some humanities projects produce petabytes of data. To show the necessity of a differentiated approach, the research data center of Universität Hamburg is offered as a case in point. The evolution of the center specialized in humanities projects to a research data center offering services for the whole university whereas other disciplinary data centers continue to exist side by side illustrates the entire range of tasks of data stewardship. It includes the continuous development of services while getting more and more involved in natural science projects as well as task sharing and communication with other data institutions. A core asset to understand the requirements of each discipline is a multidisciplinary team. Yet, the main organizing principle of the offered services centers around the stages of the data life cycle (1. data creation and deposit, 2. managing active data, 3. data repositories and archives, 4. data catalog and registries). The interdigitation of these stages is paramount in the long term strategy

    Terrestrial Very-Long-Baseline Atom Interferometry:Workshop Summary

    Get PDF
    This document presents a summary of the 2023 Terrestrial Very-Long-Baseline Atom Interferometry Workshop hosted by CERN. The workshop brought together experts from around the world to discuss the exciting developments in large-scale atom interferometer (AI) prototypes and their potential for detecting ultralight dark matter and gravitational waves. The primary objective of the workshop was to lay the groundwork for an international TVLBAI proto-collaboration. This collaboration aims to unite researchers from different institutions to strategize and secure funding for terrestrial large-scale AI projects. The ultimate goal is to create a roadmap detailing the design and technology choices for one or more km-scale detectors, which will be operational in the mid-2030s. The key sections of this report present the physics case and technical challenges, together with a comprehensive overview of the discussions at the workshop together with the main conclusions

    Cold atoms in space: community workshop summary and proposed road-map

    Get PDF
    We summarise the discussions at a virtual Community Workshop on Cold Atoms in Space concerning the status of cold atom technologies, the prospective scientific and societal opportunities offered by their deployment in space, and the developments needed before cold atoms could be operated in space. The cold atom technologies discussed include atomic clocks, quantum gravimeters and accelerometers, and atom interferometers. Prospective applications include metrology, geodesy and measurement of terrestrial mass change due to, e.g., climate change, and fundamental science experiments such as tests of the equivalence principle, searches for dark matter, measurements of gravitational waves and tests of quantum mechanics. We review the current status of cold atom technologies and outline the requirements for their space qualification, including the development paths and the corresponding technical milestones, and identifying possible pathfinder missions to pave the way for missions to exploit the full potential of cold atoms in space. Finally, we present a first draft of a possible road-map for achieving these goals, that we propose for discussion by the interested cold atom, Earth Observation, fundamental physics and other prospective scientific user communities, together with the European Space Agency (ESA) and national space and research funding agencies.publishedVersio

    Cold atoms in space: community workshop summary and proposed road-map

    Get PDF
    We summarise the discussions at a virtual Community Workshop on Cold Atoms in Space concerning the status of cold atom technologies, the prospective scientific and societal opportunities offered by their deployment in space, and the developments needed before cold atoms could be operated in space. The cold atom technologies discussed include atomic clocks, quantum gravimeters and accelerometers, and atom interferometers. Prospective applications include metrology, geodesy and measurement of terrestrial mass change due to, e.g., climate change, and fundamental science experiments such as tests of the equivalence principle, searches for dark matter, measurements of gravitational waves and tests of quantum mechanics. We review the current status of cold atom technologies and outline the requirements for their space qualification, including the development paths and the corresponding technical milestones, and identifying possible pathfinder missions to pave the way for missions to exploit the full potential of cold atoms in space. Finally, we present a first draft of a possible road-map for achieving these goals, that we propose for discussion by the interested cold atom, Earth Observation, fundamental physics and other prospective scientific user communities, together with the European Space Agency (ESA) and national space and research funding agencies
    corecore