279 research outputs found

    Daten sammeln, modellieren und durchsuchen mit DARIAH - DE

    Get PDF
    Die sammlungsübergreifende Recherche und Nachnutzung geisteswissenschaftlicher Forschungsdaten stehen im Blickpunkt aktueller Forschung in den Digital Humanities. Obwohl das Interesse an einer Zusammenführung digitaler Forschungsdaten bereits kurz nach der Einführung erster digitaler Bibliotheken um die Jahrtausendwende entstand, bleibt die Integration von Forschungsdaten über Sammlungsgrenzen hinweg ein aktuelles Forschungsthema. Bei einer forschungsorientierten Betrachtung von Sammlungen digitaler Daten (also z. B. digitale Texte, Digitalisate, Normdaten, Metadaten) stellt sich die Frage nach den Anforderungen und Erfolgskriterien einer übergreifenden Föderation, Verarbeitung und Visualisierung von Forschungsdaten. Entgegen der in der Praxis üblichen Orientierung an institutionellen Anforderungen stellen die in DARIAH-DE entwickelten Konzepte und Dienste zur Verzeichnung, Korrelation und Zusammenführung von Forschungsdaten die Bedürfnisse von WissenschaftlerInnen im Kontext ihrer Forschungsfragen in den Mittelpunkt. Dies äußert sich beispielsweise darin, dass DARIAH-DE keine strukturellen Bedingungen an Forschungsdaten stellt. Stattdessen können Daten so publiziert, modelliert und integriert werden, dass eine möglichst gute Passung an den jeweiligen geisteswissenschaftlichen Kontext erreicht wird

    Geschichte Online: neue Möglichkeiten für die historische Fachinformation

    Full text link
    'Relevante Informationen aus einer immer schneller wachsenden Publikationsmenge gezielt und schnell herauszufiltern, ist heute ohne elektronische Hilfsmittel nicht mehr möglich. Online-Datenbanken spielen in der Fachinformation deshalb heute eine zentrale Rolle, aber mit ihren Nutzungsmögichkeiten in den historischen Wissenschaften hat man sich in Deutschland bisher so gut wie nicht beschäftigt. Die vorliegende Arbeit bemüht sich, dieses Defizit abzubauen und damit einen Beitrag in der Diskussion um den Aufbau einer elektronischen historischen Fachinformation zu leisten. Den Kern bildet ein Überblick über die relevanten Online-Datenbanken: angefangen bei historischen Fachbibliographien, Bibliographien aus Nachbardisziplinen und Nationalbibliographien, über Zeitungen und Zeitschriften, die im Volltext vorliegen, bis hin zu historischen Projekten auf dem Internet. Den Hintergrund bildet die Veränderung der Informationsinfrastruktur, die sich mit der Entwicklung des Computers vollzogen hat und weiter vollzieht und die zu einer Etablierung von Datenbanken, Online-Diensten und einer elektronischen Öffentlichkeit geführt hat. Das Wachstum dieser 'elektronischen Bibliothek' erhält dabei durch neue elektronische Speicher- und Zugriffsmöglichkeiten, wie sie in steigendem Maße in Dokumentations-, Bibliotheks- und Archivwesen eingesetzt werden, weitere Impulse. Es wird den vergeblichen Bemühungen um den Aufbau eines historischen Fachinformationssystems im Rahmen der staatlichen Fachinformationspolitik in den siebziger Jahren nachgegangen und die Anfänge des Computerseinsatzes in der Geschichtswissenschaft seit Ende der fünfziger Jahre skizziert. Das Konzept von History Online, einem Online-Dienst für alle, die mit historischen Informationen befaßt sind, bildet gleichsam Schlußfolgerung und Quintessenz der Arbeit.' (Autorenreferat

    The COCOMO-Models in the Light of the Agile Software Development

    Get PDF
    Aufwandsschätzungen sind wichtig, um ökonomische und strategische Entscheidungen in der Softwareentwicklung treffen zu können. Verschiedene Veröffentlichungen propagieren das Constructive Cost Model (COCOMO) als ein algorithmisches Kostenmodell, basierend auf Formeln mit objektiven Variablen für Schätzungen in der klassischen Softwareentwicklung (KS). Arbeiten aus der agilen Softwareentwicklung (AS) verweisen auf den Einsatz von erfahrungsbasierten Schätzmethoden und von subjektiven Variablen. Aufgrund der schwachen Operationalisierung im agilen Kontext sind Aussagen über konkrete Ursache- und Wirkungszusammenhänge schwer zu treffen. Hinzu kommt der einseitige Fokus der klassischen und agilen Untersuchungen auf den eigene Forschungsbereich, der nach sich zieht, dass eine Verwendung von Variablen aus COCOMO in der AS unklar ist. Wenn hierzu Details bekannt wären, könnten operationalisierte Variablen aus COCOMO auch in der AS eingesetzt werden. Dadurch wird es möglich, in einer wissenschaftlichen Untersuchung eine Konzeptionierung von konkreten kausalen Abhängigkeiten vorzunehmen – diese Erkenntnisse würden wiederum eine Optimierung des Entwicklungsprozesses erlauben. Zur Identifikation von Variablen wird dazu eine qualitative und deskriptive Arbeit mit einer Literaturrecherche und einer Auswertung der Quellen durchgeführt. Erste Ergebnisse zwischen beiden Welten zeigen dabei sowohl Unterschiede als auch Gemeinsamkeiten. Eine Vielzahl von Variablen aus COCOMO kann in der AS verwendet werden. Inwieweit dies möglich ist, ist von den objektiven und subjektiven Anteilen der Variablen abhängig. Vertreter mit erfahrungsbasiertem Hintergrund wie Analyst Capability (ACAP) und Programmer Capability (PCAP) lassen sich aufgrund von Übereinstimmungen mit personenbezogenen Merkmalen gut in die AS übertragen. Parallel dazu sind Variablen aus dem Prozess- und Werkzeugumfeld weniger gut transferierbar, da konkret die AS einen Fokus auf solche Projektmerkmale ablehnt. Eine Weiterverwendung von Variablen ist damit grundsätzlich unter der Berücksichtigung von gegebenen Rahmenbedingungen möglich.Effort estimations are important in order to make economic and strategic decisions in software development. Various publications propagate the Constructive Cost Model (COCOMO) as an algorithmic cost model, based on formulas with objective variables for estimations in classical software development (KS). Papers from agile software development (AS) refers to the use of experience-based estimation methods and subjective variables. Due to the weak operationalization in an agile context, statements about concrete cause and effect relationships are difficult to make. In addition, there is the one-sided focus of classical and agile investigations on their own research field, which suggests that the use of variables from COCOMO in the AS is unclear. If details were available, operational variables from COCOMO could also be used in the AS. This makes it possible to carry out a conceptualization of concrete causal dependencies in a scientific investigation - these findings in turn would allow an optimization of the development process. To identify variables, a qualitative and descriptive work with a literature research and an evaluation of the sources is carried out. First results between the two worlds show both differences and similarities. A large number of variables from COCOMO can be used in the AS. This is possible depending on the objective and subjective proportions of the variables. Variables with an experience-based background, such as Analyst Capability (ACAP) and Programmer Capability (PCAP), can be well transferred to the AS by matching personal characteristics. At the same time, variables from the process and tool environment are less easily transferable, because AS specifically rejects a focus on such project features. A re-use of variables is thus possible under consideration of given conditions

    Konzeption einer Komponentenarchitektur für prozessorientierte OLTP- & OLAP-Anwendungssysteme

    Get PDF
    Prozessorientierte Data-Warehouse-Systeme (DWH-Systeme) stellen, im Vergleich zu klassischen DWH-Systemen, neben entscheidungsunterstützenden Daten zum Ergebnis von Geschäftsprozessen auch Daten zu deren Ablauf bereit. Sie sind dabei auf zwei wesentliche Szenarien ausgerichtet: Das erste Szenario hat die Bereitstellung multidimensionaler, prozessbezogener Daten zum Ziel, mit denen die Gestaltung von Prozessen unterstützt werden kann. Das zweite Szenario hat die Datenbereitstellung und die Entscheidungsfindung mit niedriger Latenz zum Ziel. Es ist auf steuernde Maßnahmen in laufenden Prozessinstanzen ausgerichtet. Zur Unterstützung beider Szenarien wird im vorliegenden Beitrag ein Architekturkonzept für prozessorientierte OLTP- & OLAP-Anwendungssysteme, auf der Basis von Komponenten, vorgeschlagen. Das Architekturkonzept berücksichtigt dabei neben der Realisierung der Funktionen eines prozessorientierten DWH-Systems auch deren Integration mit Funktionen operativer Teilsysteme sowie Funktionen zur automatisierten Entscheidungsfindung. Weitere im Architekturkonzept berücksichtigte Anforderungen sind die zeit- und bedarfsgerechte Informationsversorgung heterogener Nutzergruppen sowie die flexible Anpassbarkeit an Veränderungen in Geschäftsprozessen

    EINSATZ VON RECOMMENDER-SYSTEMEN ZUR PERSONALISIERTEN INFORMATIONSVERSORGUNG IM STANDARDBERICHTSWESEN VON DATA-WAREHOUSE-SYSTEMEN

    Get PDF
    Entscheidungsträger stehen vor der Herausforderung, bei wachsendem Informationsangebot und unter zunehmendem Zeitdruck komplexe Entscheidungen treffen zu müssen. Vor diesem Hintergrund haben sich bei wiederkehrenden Informationsnachfragen Standardberichtssysteme als Hilfsmittel zur Informationsversorgung etabliert. Da mittlerweile auch Standardberichtssysteme stark an Umfang gewonnen haben und kontinuierlichen Änderungen unterworfen sind, wird es für den Entscheidungsträger immer schwieriger, die für ihn geeigneten Berichte aufzufinden. In diesem Beitrag wird untersucht, wie die aus dem eCommerce-Umfeld bekannten Konzepte von Recommender-Systemen im Standardberichtswesen anwendbar sind, um Entscheidungsträger bei der personalisierten Informationsversorgung zu unterstützen. Ausgehend von theoretischen Untersuchungen wird abschließend die Integration eines kollaborativen Recommender-Systems in ein bestehendes Data-Warehouse-System vorgestellt

    Measurement and selection bias in longitudinal data: a framework for re-opening the discussion on data quality and generalizability of social bookkeeping data

    Full text link
    'Die Autorin vergleicht Massendaten mit Umfragedaten und anderen Formen prozessproduzierter Daten und diskutiert die Relevanz von Massenakten für die historische, sozialhistorische und soziologische Forschung. Nach einer Analyse des aktuellen Stands der Forschung über Massendaten kommt sie zu dem Schluss, dass die methodologische Diskussion über Verwaltungsdaten wieder aufgegriffen werden sollte. Sie schlägt einen Analyserahmen vor, in den sie sowohl die ältere Debatte aus den 1970ern und 1980ern, als auch die neuere Debatte einordnet. Es scheinen vier Punkte zentral: a) Datenkunde und Messfehler; b) Datenselektion und Stichprobenprobleme, c) Archivierung und EDV sowie d) Datenaufbereitung. Abschließend erläutert die Autorin offene Fragen, die von der Methodenforschung geklärt werden sollten.' (Autorenreferat)'The author compares mass data with survey data and other process-generated data and discusses their relevance for historical, historical social science and sociological research. After summarizing the current state of methodological knowledge on public administrational data, she concludes that the discussion on mass data has to be re-opened. She suggests a framework for such a discussion and links the older German discussion from the 1970s and 1980s to the discussion newly arising. She suggests that the major issues are a) data lore and measurement quality; b) data selection and sampling problems; c) archiving and statistical programs and d) data preparation. After summing up the state of the debate, the authors suggests which questions should be answered in future research.' (author's abstract
    corecore