53 research outputs found

    Management von Datenanalyseprozessen

    Get PDF
    Die vorliegende Arbeit präsentiert eine umfassende, interdisziplinäre Methodik zum Management von Datenanalyseprozessen. Sie betrachtet die Planung, Steuerung und Revision dieser Prozesse und bezieht die Problemspezifikation, die Prozessspezifikation und die Ressourcen- spezifikation ein. Damit gestattet sie eine in Bezug auf die für Datenanalysevorhaben relevanten Modellierungsobjekte vollständige Repräsentation

    Organisieren von Entscheidungen über Kindeswohl. Zur Prozessierung des Schutzauftrags der öffentlichen Kinder- und Jugendhilfe

    Get PDF
    Basierend auf empirischem Material zur Thematisierung von Kindeswohl(-gefährdung) als Schlüsselkategorie für die Initiierung von Leistungen und Maßnahmen nimmt Nina Kläsener in den Blick, wie die öffentliche Kinder- und Jugendhilfe ihre personenbezogene Arbeit prozessiert und wie auf dieser Basis weitreichende Entscheidungen organisiert werden. Vor diesem Hintergrund werden technologische und normative Ordnungen herausgearbeitet, in denen Entscheidungen nicht nur zum "Ort der Macht" werden, sondern zugleich organisational eine adressierte Passungsarbeit aufrufen, die durch milieuorientierte und vergeschlechtlichte Sorgeanrufungen hergestellt wird. (DIPF/Orig.

    Sprachliche Kontrolle von Anforderungsdokumenten

    Get PDF
    In der Softwareentwicklung beschreiben Anforderungen, wie sich ein System oder eine Komponente in bestimmten Situationen verhalten soll. Anforderungen stellen also Vorgaben an die Software dar, die entwickelt werden soll. Die natürliche Sprache ist noch immer das vorherrschende Mittel, um Anforderungen zu formulieren. Aus dem Anforderungstext werden Testfälle abgeleitet, mit welchen überprüft wird, ob die in den Anforderungen beschriebenen Funktionen korrekt umgesetzt wurden. Da die Aufwendungen für die Testaktivitäten einen groÿen Teil der Entwicklungszeit und Entwicklungskosten einnehmen, besteht Bedarf an der sprachlichen Kontrolle von Anforderungstexten. Ist eine Anforderung so formuliert, dass sie beispielsweise aufgrund fehlender Information zu Interpretationsspielraum führt, kann dies dazu führen, dass ein falscher Testfall abgeleitet wird oder eine Funktion falsch entwickelt wird. Ein Ziel dieser Arbeit ist, zu untersuchen, welche Kriterien eine Anforderung aus sprachwissenschaftlicher Sicht erfüllen muss, um als testbar zu gelten bzw. welche sprachlichen Phänomene dazu führen, dass eine Anforderung nicht testbar ist. Hierfür werden Leitlinien aus der technischen Dokumentation sowie Literatur aus dem Bereich des Requirements Engineering analysiert. Die identifizierten Phänomene werden in einem Qualitätsmodell für testbare Anforderungen zusammengetragen, nach linguistischen Kriterien sortiert und nach Kritikalität bewertet. Für ausgewählte Phänomene aus dem Qualitätsmodell wird untersucht, inwiefern sich automatisierte Prüfmethoden entwickeln lassen, die kritische Instanzen der Phänomene zuverlässig identifizieren, also diejenigen, die Interpretationsspielraum verursachen können. Für die Analyse der Phänomene werden computerlinguistische Analysemethoden eingesetzt und Regeln entwickelt, die auf (morpho-)syntaktische Annotationen zugreifen. Sprachliche Phänomene, die einen Einfluss auf die Testbarkeit einer Anforderung haben, lassen sich durch die verwendeten computerlinguistischen Analysemethoden automatisiert identifizieren. Für bestimmte Phänomene können zudem Regeln entworfen werden, welche zuverlässig zwischen den kritischen und unkritischen Instanzen eines Phänomens unterscheiden. Die formbasierte Computerlinguistik stöÿt allerdings an ihre Grenzen, wenn diese Unterscheidung auf Welt- und Expertenwissen beruht. Die entwickelten Analysemethoden heben sich von existierenden Werkzeugen zur Überprüfung von Texten dadurch ab, dass nicht nur reine Wortlistenabgleiche durchgeführt werden, sondern auch der Satzkontext, in welchem die Phänomene auftreten, in die Analyse miteinbezogen wird. Dieser Ansatz kann die Anzahl der Fehlwarnungen an den Benutzer erheblich reduzieren, sodass der Aufwand bei der Durchsicht der potentiell kritischen Instanzen gesenkt werden kann.In software development, requirements describe how a system or a component is supposed to act in specific situations. Therefore, requirements provide guidelines for the software which is to be developed. Natural language is still the predominant technique used to formulate requirements. Test cases are derived from these requirements to check for correct implementation of the functions described in the requirements. Since the expenses for the test activities make up a huge part of the development time and its costs, there is need for linguistic control of requirements specifications. If a requirement is formulated in a misleading way causing various possibilities of interpretation due to missing information, it can lead to a wrong test case or in developing an incorrect function. One objective of this dissertation is to investigate which criteria must be met by a requirement from a linguistical point of view for the requirement to be considered testable; respectively which linguistic phenomena lead to untestable requirements. For this purpose, guidelines from the field of technical documentation as well as literature concerning requirements engineering are analyzed. The identified phenomena are gathered in a quality model for testable requirements, arranged from a linguistical point of view and evaluated according to criticality. For selected phenomena which are integrated in the quality model it is investigated to what extent automated checks which identify the critical instances reliably can be developed; that means those that leave room for interpretation. Computational linguistics analysis methods and rules which access morphosyntactic annotations are applied. The developed computational linguistics analysis method makes it possible to automatically identify phenomena which have an influence on the testability of a requirement. Furthermore, for specific phenomena rules can be designed which difierentiate between critical and uncritical instances. If this decision relies on world and expert knowledge, though, form-based computational linguistics reaches its limit. The developed analysis methods stand out from existing tools for revising texts insofar as not only pure word lists comparisons are executed, but also the context in which the phenomena occur is included in the analysis. This approach can significantly reduce the number of false warnings to the user reducing the effort involved in viewing the potentially critical instances

    Ein Generator mit Anfragesystem für strukturierte Wörterbücher zur Unterstützung von Texterkennung und Textanalyse

    Get PDF
    Die vorliegende Arbeit befaßt sich mit der Konzeption eines strukturierten Lexikons, welches den Zugriff auf Wörter und deren Information auf zwei grundsätzlich verschiedene Weisen erlaubt. Zum einen erfolgt der Zugriff über ein 3-faches Hashing, das in Abhängigkeit vom Grad der Erkennung der einzelnen Zeichen automatisch eine der drei verfügbaren Hashfunktionen wählt. Dabei kann der Benutzer zusätzliches Wissen in Form sogenannter Sichten zur Beschleunigung der Anfrage bzw. zur Einschränkung der zurückgelieferten Wortmenge einfließen lassen. Zum anderen ist die Benennung einer Sicht möglich. Diese Art des Zugriffs liefert alle Einträge zurück, die unter dem entsprechenden Sichtnamen zusammengefaßt worden sind. Die Realisierung solcher Sichten ist ein wesentlicher Bestandteil des Systems, da das somit implizierte Wissen von den Benutzern auf vielfältige Art genutzt werden kann: einerseits kann die Mitgliedschaft eines Eintrages zu einer Sicht in Erfahrung gebracht werden, andererseits hat man die Möglichkeit, Sichten und deren logische Verknüpfung zur direkten Abfrage bzw. zur Einschränkung des Suchraumes zu verwenden. Zum Aufbau der dafür benötigten komplexen Struktur des virtuell partitionierten Lexikons wird eine aufwendige Generierungsphase notwendig. Die vorliegende Arbeit beschreibt das zugrundegelegte Konzept und seine Vorteile gegenüber anderen Lösungsansätzen sowie den benötigten Generator und ein Laufzeitsystem, das umfangreiche Zugriffe auf dem virtuell partitionierten Lexikon erlaubt

    Konzeptionen von Förderung, Selektion und Gerechtigkeit: eine rekonstruktive Studie an Primarschulen in herausfordernden Lagen

    Full text link
    In diesem Open Access Buch wird in einer rekonstruktiven Vorgehensweise der Frage nachgegangen, inwiefern sich an Primarschulen kollektive/divergierende Orientierungen von Förderung und Selektion sowie dahinterliegende Bildungsgerechtigkeitskonzeptionen zeigen. Basierend auf einer sinngenetischen Typologie werden Vorstellungen gelungener Förderung und Selektion theoretischen Gerechtigkeitskonzeptionen gegenübergestellt. Die Analyse der Diskursverläufe zeigt, dass die Organisation eine sinngebende Struktur darstellt, wenn sich die Schulakteure aktiv in der Bearbeitung des Spannungsverhältnisses zwischen Bezugnahme zum Kontext sowie der innerorganisatorischen Ausgestaltung erleben

    Rated Tags as a Service - Konzept und Evaluierung

    Get PDF
    Durch die wachsende Bedeutung des Onlinehandels und der Zunahme an Benutzer-generierten Inhalten werden neue Ansätze benötigt, um Konsumenten bei ihrer Entscheidungsfindung zu unterstützen. Wie Studien zeigen, werden im Onlinehandel häufig Kundenrezensionen und Gesamtbewertungen eingesetzt. Allerdings sind diese beiden Werkzeuge für die Entscheidungsfindung von Konsumenten nur begrenzt hilfreich. Gesamtbewertungen zeigen zwar eine oberflächliche Zufriedenheit der Kunden, geben jedoch keine Auskunft über die Bewertung bestimmter Produktaspekte, z.B. den Tragekomfort von Kopfhörern. Diese Aspekte werden von Kunden häufig in Rezensionen beschrieben, welche jedoch aufgrund ihrer unstrukturierten Weise nicht automatisiert aufbereitet werden können. Konsumenten sind daher gezwungen Rezensionen zu lesen und die darin diskutierten Merkmale manuell zu extrahieren. Die vorliegende Arbeit leistet mehrere Beiträge zur Adressierung des oben genannten Problems und beschäftigt sich dabei mit der Konzeptionierung, Evaluierung und Dienst-orientierten Bereitstellung einer interaktiven Entscheidungshilfe für den E-Commerce. Zunächst wird anhand einer empirischen Untersuchung der umsatzstärksten Onlineshops aus Deutschland der aktuelle Einsatz von Social Media Features analysiert. Dabei zeigt sich, dass die o.g. Problematik von keinem untersuchten Onlineshop adressiert wird. Ein weiterer Beitrag ist der Entwurf sowie die prototypische Implementierung einer interaktiven Entscheidungshilfe mit der Bezeichnung Rated Tags. Rated Tags erlaubt die Benutzer-generierte Definition von bewertbaren Schlagwörtern (Tags) und kombiniert dabei Methoden aus den Bereichen Social Tagging und Bewertungssysteme. Eine nachfolgende Evaluierung des Konzepts im Rahmen einer Anwenderstudie zeigt, dass der Einsatz von Rated Tags die Entscheidungsqualität verbessern sowie den Entscheidungsaufwand von Konsumenten reduzieren kann. Zur Optimierung des Lösungsansatzes wird dann ein Ensemble-Klassifikator aus dem Bereich des überwachten Lernens zur semiautomatisierten Vereinheitlichung von semantisch ähnlichen Tags entworfen, prototypisch implementiert und evaluiert. Die Ergebnisse der Evaluierung zeigen, dass die Leistung des Klassifikators den aktuellen Stand der Technik übersteigt. Als Abschluss der Arbeit wird ein Modell mit der Bezeichnung Rated Tags as a Service vorgestellt, welches die Service-orientierte Bereitstellung des Rated Tags-Ansatzes für Onlineshops oder Bewertungsportale beschreibt

    Adaptive anwendungsspezifische Verarbeitung von XML-Dokumenten

    Get PDF
    In dieser Arbeit wird ein Konzept vorgeschlagen, mit dem neue hohere Operatoren auf der Grundlage existierender Operatoren einer XML-Transformationsprache aufgebaut werden können. Durch das Zusammenfassen von immer wieder auftretenden Operatorkombinationen zu höheren Operatoren können Transformationsdefinitionen bspw. kürzer und verständlicher beschrieben werden. Zur Umsetzung des Konzeptes ist die Ausführungsumgebung XTC entstanden. XTC koordiniert den Ablauf, um höhere Operatoren in niedrigere, letztendlich elementare Operatoren einer Basistransformationssprache zu überführen. Neben XTC wird das Generatorsystem XOpGen entwickelt, welches den Implementierungsaufwand für die neuen höheren Operatoren weiter verringert. Das Potential von höheren Operatoren wird an der vom W3C standardisierten XML-Transformationssprache XSLT demonstriert. XSLT wird mit verschiedenen, sowohl universellen als auch domänenspezifischen, Operatoren erweitert

    Semiautomatischer Aufbau und Anwendung von EFGT-Netzen

    Get PDF

    Engineering wissensbasierter Navigation und Steuerung autonom-mobiler Systeme

    Get PDF
    Die autonome Steuerung mobiler, technischer Systeme in nicht exakt vorherbestimmbaren Situationen erfordert Methoden der autonomen Entscheidungsfindung, um ein planvolles, zielgerichtetes Agieren und Reagieren unter Echtzeitbedingungen realisieren zu können. Während mittels mathematischer Formeln Basisverhalten, wie beispielsweise in einer Geradeausbewegung, einer Drehung, bei einem Abbremsen, und in Gefahrenmomenten schnelle Reaktionen, berechnet werden, benötigt man auf der anderen Seite ein Regelsystem, um darüber hinaus "intelligentes", d.h. situationsangepaßtes Verhalten zu produzieren und gleichzeitig im Hinblick auf ein Missionsziel planvoll agieren zu können. Derartige Regelsysteme müssen sich auf einer abstrakten Ebene formulieren lassen, sollen sie vom Menschen problemlos entwickelbar, leicht modifizierbarund gut verifizierbar bleiben. Eine aufgrund ihres Konzeptes geeignete Programmierwelt ist die Logikprogrammierung. Ziel der Logikprogrammierung ist es weniger, Arbeitsabläufe zu beschreiben, als vielmehr Wissen in Form von Fakten zu spezifizieren und mit Hilfe von Regeln Schlußfolgerungen aus diesen Fakten ziehen zu können. Die klassische Logikprogrammierung ist jedoch aufgrund ihres Auswertungsmechanismus der SLD-Resolution (linear resolution with selected function for definite clauses) zu langsam für die Anwendung bei Echtzeitsystemen. Auch parallele Sprachformen, die ebenfalls mit SLD-Resolution arbeiten, erreichen beim Einsatz auf (von Neumann-) Mehrprozessorsystemen bislang nicht die notwendige Effizienz. Das Anwendungsgebiet der deduktiven Datenbanken hat im Vergleich dazu durch Bottom-Up Techniken einen anderen Auswertungsansatz mit deutlich höherer Effizienz geliefert. Viele dort auftretenden Probleme können jedoch nur durch die Integration anforderungsgetriebener Abarbeitung gelöst werden. Auf der anderen Seite stellen Datenflußrechnerarchitekturen aufgrund der automatisierten Ausbeutung feinkörniger Parallelität einen hervorragenden Ansatz der Parallelverarbeitung dar. Bei Datenflußrechnerarchitekturen handelt es sich um (Mehrprozessor-) Systeme, deren datengetriebener Abarbeitungsmechanismus sich grundlegend vom weit verbreiteten kontrollflußgesteuerten von Neumann-Prinzip unterscheidet.Überlegungen zur Struktur von Steuerungssystemen werden ergeben, daß es mittels Ansätzen aus dem Gebiet der deduktiven Datenbanken möglich ist, ein für diese Aufgabenstellung neuartiges, ausschließlich datengetriebenes Auswertungsmodell zu generieren. Dabei vermeidet es Probleme, die bei Bottom-Up Verfahren auftreten können, wie z.B. das Auftreten unendlicher Wertemengen und die späte Einschränkung auf relevante Werte, ohne gleichzeitig die Stratifizierung von Programmen zu gefährden. Ergebnis der Arbeit ist eine anwendungsbezogene, problemorientierte Entwicklungsumgebung, die einerseits die Entwicklung und Verifikation der Spezifikation mit existierenden Werkzeugen erlaubt und andererseits die effiziente, parallele Ausführung auf geeigneten Rechensystemen ermöglicht. Zusätzlich wird die Voraussetzung geschaffen, verschiedene weitere, für die Steuerung autonomer Systeme unverzichtbare Komponenten in das Abarbeitungsmodell zu integrieren. Simulationsergebnisse werden belegen, daß das vorgestellte Berechnungsmodell bezüglich realer Anwendungsbeispiele bereits in einer Monoprozessorversion Echtzeitbedingungen genügt. Damit ist die Voraussetzung für die Ausführung zukünftiger, weitaus komplexerer Steuerungsprobleme, ggf. auf Mehrprozessorsystemen, in Echtzeit geschaffen

    Gewaltige Liebe

    Get PDF
    How do young women experience violence in their first own relationships? What role do experiences of violence play in the family of origin and how do they shape one's own relationship conceptions? In the European context, the research discourse on violence in adolescent relationships is scarcely developed. Above all, however, the subject perspective is missing: the experiences that young and young women make in their first love relationships. Eva Maria Lohner makes clear the societal relevance of this perspective and shows that significant background points for socio-educational support and accompaniment can be deduced against her background
    corecore