8 research outputs found

    Eine Technologie für das durchgängige und automatisierte Testen eingebetteter Software

    Get PDF
    Eingebettete Systeme unterliegen Anforderungen, die den Test der Software erforderlich machen. Zur Automatisierung werden dabei verschiedene Technologien eingesetzt: Für den Test nah am Quelltext sind spezielle Unit-Test Werkzeuge erforderlich, der Test von Steuer- und Regelfunktionen erfordert Model-, Software- und Hardware-in-the-Loop Werkzeuge. In dieser Arbeit wird deren Integrierbarkeit untersucht. Der Fokus liegt auf einer neuen Programmiersprache zur Implementierung von Testfällen

    Semantische Informationsintegration - Konzeption eines auf Beschreibungslogiken basierenden Integrationssystems fĂĽr die Produktentwicklung

    Get PDF
    Aufgrund der Notwendigkeit, unkontrolliert aufkommende Datenfluten zu beherrschen sowie der steigenden Produktkomplexität resultiert der Handlungsbedarf, skalierbare Informationsintegrationslösungen zu finden, die einen effizienten und kontextbezogenen Zugriff auf Wissen unterstützen. Einsatz eines semantischen Integrationskonzepts in der Produktentwicklung erweitert den Wissensbeschaffungsraum des Ingenieurs enorm und ermöglicht die Interoperabilität heterogener Informationssysteme

    Werkzeuge fĂĽr Rechtsdatenbanken

    Get PDF
    Wenn in Rechtstexten Wissen über das Recht enthalten ist, dann müsste in vielen Texten viel Recht zu finden sein. Die Korpuslinguistik bearbeitet linguistische Fragestellungen anhand großer Textmengen, die ausgewählt, erworben, aufbereitet (annotiert) und dann durchsucht/bearbeitet werden. Die fünf Kapitel dieser Arbeit widmen sich jeweils einem wichtigen Thema, zu dem Methoden vorgestellt, in Werkzeugen implementiert und diskutiert werden. Im ersten Kapitel (Dokumentklassifikation) wird eine Methode vorgestellt, mit der gezielt Rechtstexte aus dem Internet ausgewählt, akquiriert und geordnet in ein Korpus abgelegt werden können. Auch hier sollen die Voraussetzungen so gering wie möglich gehalten werden, damit möglichst breiter Gebrauch von der Methode gemacht werden kann. Die Einteilung des Rechts in einzelne Fachgebiete hat weitreichende Folgen. Sowohl Texte wie Rechtskonzepte erlangen ihre spezielle Bedeutung durch ihr Fachgebiet. Das zweite Kapitel (Fachgebietsklassifikation) gibt einen Überblick über die Problematik der Fachgebietseinteilung und stellt zwei automatische Fachgebietserkenner vor, die diese Spezialaufgabe besser lösen als die in Kapitel 1 vorgestellte allgemeine Dokumentklassifikation. Eine große Veränderung erfährt die Rechtsterminologie und -terminografie durch den Übergang von der physischen zur elektronischen Schrift. Damit muss nicht mehr eine Darstellungsweise allen Anforderungen gerecht werden, sondern die Darstellung kann dynamisch an die Umstände angepasst werden. Im dritten Kapitel (Dynamische Termdarstellung) wird das Konzept einer dynamischen Termdarstellung vorgestellt und seine technische Umsetzung skizziert. Das vierte Kapitel Termextraktion durch Beispielterme stellt eine automatische Termextraktionsmethode vor, die mit relativ geringen Voraussetzungen gute Ergebnisse liefert und damit für weniger stark verbreitete Sprachen eine Alternative zu kommerziellen Programmen darstellt. Dieses Instrument kann bei der zentralen Aufgabenstellung der Terminografie, dem Auffinden und der Auswahl der Termini, eingesetzt werden. Hier wird aber auch gezeigt, wie die Termextraktion zur Indizierung des in den meisten terminografischen Projekten vorhandenen Hintergrundkorpus verwendet werden kann. Das fünfte Kapitel (Organisation rechtlichen Wissens) gibt einen Überblick über die vielfältigen Möglichkeiten der Einteilung und Repräsentation von (rechtlichem) Wissen. Eine Methode der Wissensrepräsentation mit formaler Sprache, die logische Operationen ermöglicht, ist eine Ontologie. Es wurde eine Ontologie für eine Rechtsdatenbank erstellt und alle damit zusammenhängenden Aspekte diskutiert. Im Fazit wird schließlich diskutiert, für welche Bereiche der Arbeit mit Rechtsdatenbanken bereits jetzt relativ einfache Werkzeuge zur Verfügung stehen und wo die Entwicklung von weiteren Werkzeugen ansetzen könnte. Die Kapitel sind so geschrieben, dass sie auch einzeln gelesen werden können, ohne jedoch allzu starke Überschneidungen zuzulassen.La thèse de doctorat «Outils pour des bases de données juridiques» traîte des méthodes linguistiques et informatiques pour comprendre, mémoriser et communiquer des connaissances juridiques. Les sujets traités sont: I. La classification de documents Je discute les classes importantes pour des documents juridiques et je propose une classi-fication automatique qui n’utilise pas seulement le texte du document, mais aussi d’autres critères comme l’adresse du document, l’adresse des liens et le contexte de la recherche de documents. II. L’identification de disciplines en terminographie Je prétends que toute répartition en disciplines et sous-disciplines est par nature relative. Puis je présente deux méthodes pour l’identification de la discipline d’un texte. La pre-mière utilise les termes et la deuxième les textes (définitions et contextes) présents dans la base de données terminographique. III. La présentation dynamique de termes Je discute les problèmes de la présentation de termes traditionnelle pour livres et les avantages d’une présentation adaptée dynamiquement aux besoins concrets de chaque client. Pour prouver la faisabilité de cette nouvelle approche, j’indique la technologie applicable pour chaque fonction et je présente une mise en œuvre dans le système termi-nographique BISTRO (www.eurac.edu/bistro) IV. L’extraction de termes Je discute les caractéristiques des trois méthodes pour l’extraction de termes. Après je montre l’efficacité de la méthode basée sur des exemples lors d’une expérience. L’outil est librement accessible en Internet et peut servir pour l’indexation d’un corpus. V. L’organisation du savoir juridique Je discute exhaustivement tous les systèmes répandus d’organisation du savoir, de mots-clés jusqu’aux ontologies. Ensuite je décrits le procédé et les problèmes concrets pour organiser une base de données juridiques avec une ontologie

    Transformation von Multiphysics-Modellen in einen FPGA-Entwurf für den echtzeitfähigen HiL-Test eingebetteter Systeme

    Get PDF
    Mit der vorliegenden Arbeit wird eine durchgängige Werkzeugkette von der Modellbildung physikalischer Simulationen bis zur Entwurfsautomatisierung für FPGA-basierte Echtzeitsimulationen etabliert. Modelica wurde als vielseitige, intuitive und objektorientierte Sprache zur Modellbildung ausgewählt. Die entwickelte Werkzeugkette nutzt Methoden der High-Level-Synthese, um einen Entwurf in VHDL zu generieren. Dabei können sowohl Entwürfe in Fließkomma-, als auch Festkomma-Arithmetik erzeugt werden

    Generation of Objects for 3D Urban Models

    Get PDF
    Der Bedarf an 3D-Stadtmodellen wächst stetig. Sie werden für unterschiedlichste Anwendungen benötigt. Darunter fallen beispielsweise Funknetzplanungen, Simulationen für die Raumplanung aber auch als Hintergrund für Spielumgebungen und andere Anwendungen. Die Verfahren und die darauf beruhende Software, die bisher für die Erzeugung von Objekten für 3D-Stadtmodellen verwendet werden, haben überwiegend photogrammetrischen Bezug. Sie müssen von Fachleuten bedient werden, benötigen hochwertige Eingangsdaten und verursachen relativ hohe Kosten mit einem ansprechendem Ergebnis. Zudem rechnen sich die Verfahren nur, wenn relativ große Gebiete bearbeitet werden, da bereits in der Verfahrensvorbereitung hohe Fixkosten entstehen. Mit dem in dieser Arbeit entwickelten Verfahren wird versucht, Kosten zu reduzieren, indem auf ein photogrammetrisches Verfahren verzichtet wird und als Eingangsdaten bereits bestehende Datensätze verwendet werden. Die Daten, beispielsweise Grundrissdaten, Bebauungspläne, Katasterunterlagen, wurden also eigentlich zu anderen Zwecken ermittelt und erhalten so eine Mehrfachnutzung. Die Mehrfachnutzung der Daten, macht diese besonders kosteneffizient. Basis für das Verfahren ist eine umfassende Definition der Objektklassen, die in 3D-Stadtmodellen häufig vorkommen. Als Objektklassen wurden Gebäude und Vegetation ausgewählt. Die Klasse der Vegetationsobjekte wird beschrieben, indem Attributwerte zu Objekthöhe und Kronendurchmesser, sowie Alter und Baumart gemacht werden. Daraus werden die drei Modellrichtungen Kugelform, L-System und Kreuztextur entwickelt. Kugelbaum-Modelle vereinfachen die Umrissform der Baumkrone zu einem in alle Richtungen skalierbaren Sphäroid. Der Baumstamm wird als Zylinder dargestellt. Mit L-Systemen wird versucht, den Wachstumsprozess von Pflanzen nachzuvollziehen. Es entsteht je Baum ein Baumstamm, sowie Äste und Blätter als Baumteile. Je nach Baumalter entstehen weitere Verästelungen. Kreuztafelmodelle verwenden ebene bildliche Projektionen der jeweiligen Baumart. Mit dem Bild werden zwei Flächen texturiert, welche dann kreuzweise zueinander aufgestellt werden. Texturen für Vegetationsobjekte können aus Fotografien aber auch aus Abbildungen künstlich erstellter Baumvisualisierungen, hervorgegangen aus L-Systemen, gewonnen werden. Die vorgestellten Modelle können mit unterschiedlichem Detaillierungsgrad realisiert werden, um die Vereinfachungsmöglichkeiten bei zunehmendem Abstand vom Betrachter (Level of Detail) nutzen zu können. Zur Modellierung der Gebäude sind unterschiedliche Dachformen bereitgestellt worden. Insgesamt werden 16 Dachformen unterstützt. Die in Europa üblichen Dachformen werden gebildet aus Kombinationen von traufeseitige Formen (Giebel, Walm, Krüppelwalm) und giebelseitigen Formen (Sattel, Mansarde, Pult). Hinzu kommen noch Sonderformen wie das Flachdach. Auf das Mauerwerk werden Fenster aufgebracht. Das Gebäudemodell wird durch ein Texturmodell verfeinert. Es sind unterschiedliche Texturen für Mauerwerk, Fenster, Dachunterseite und Dachoberseite möglich. Die Speicherung der Daten erfolgt im XML-Format

    Untersuchung zur Wechselwirkung ausgewählter Regeln der Kontrollierten Sprache mit verschiedenen Ansätzen der Maschinellen Übersetzung

    Get PDF
    Examining the general impact of the Controlled Languages rules in the context of Machine Translation has been an area of research for many years. The present study focuses on the following question: How do the Controlled Language (CL) rules impact the Machine Translation (MT) output individually? Analyzing a German corpus-based test suite of technical texts that have been translated into English by different MT systems, the study endeavors to answer this question at different levels: the general impact of CL rules (rule- and system-independent), their impact at rule level (system-independent), their impact at system level (rule-independent), and at rule and system level. The results of five MT systems (a rule-based system, a statistical system, two differently constructed hybrid systems, and a neural system) are analyzed and contrasted. For this, a mixed-methods triangulation approach that includes error annotation, human evaluation, and automatic evaluation was applied. The data were analyzed both qualitatively and quantitatively based on the following parameters: number and type of MT errors, style and content quality, and scores from two automatic evaluation metrics. In line with many studies, the results show a general positive impact of the applied CL rules on the MT output. However, at rule level, only four rules proved to have positive effects on all parameters; three rules had negative effects on the parameters; and two rules did not show any significant impact. At rule and system level, the rules affected the MT systems differently, as expected. Some rules that had a positive impact on earlier MT approaches did not show the same impact on the neural MT approach. Furthermore, the neural MT delivered distinctly better results than earlier MT approaches, namely the highest error-free, style and content quality rates both before and after the rules application, which indicates that the neural MT offers a promising solution that no longer requires CL rules for improving the MT output, what in turn allows for a more natural style

    Tagungsband Mechatronik 2011: Dresden 31. März – 1. April 2011

    Get PDF
    Mit dieser sechsten Auflage der Tagung MECHATRONIK 2011 verbindet sich neben dem 10-jährigen Tagungsjubiläum (die erste Tagung fand im Jahre 2001 statt) auch gleichzeitig eine Premiere. Nachdem die ersten fünf Tagungen erfolgreich unter den Fittichen des VDI bzw. des VDI-Wissensforums stattgefunden hatten, beginnt das zweite MECHATRONIK-Dezennium in einem geänderten Format und mit neuen Verantwortlichkeiten und wird dennoch die bewährten Traditionen der deutschsprachigen Mechatronik-Fachgemeinde weiter pflegen. Academia trifft Industrie — Mechatronik und mechatronische Produkte sind seit jeher geprägt durch die Verknüpfung von interdisziplinärem methodenorientierten Wissen und nutzerorientierter Produktgestaltung. Diese Verknüpfung bildet sich höchst erfolgreich speziell in der deutschsprachigen Mechatronik-Fachgemeinde ab, nicht zuletzt deshalb haben deutsche Mechatronikprodukte weltweit eine exzellente Marktpräsenz. Diese enge Verzahnung ist aber ebenso im Tagungsgeschehen etabliert, wo seit vielen Jahren, im Gegensatz zu vielen anderen Ländern und internationalen Tagungen, eine gute Balance zwischen Teilnehmern aus Hochschulen und Industrie gegeben ist. Dies trifft auch auf die MECHATRONIK 2011 zu, mit 47 (70 %) Beiträgen aus Hochschulen und 20 (30 %) Beiträgen aus der Industrie bzw. Industriebeteiligung. Academia trifft Industrie — Dieser Sachverhalt wird zukünftig auch ganz transparent an den Tagungsorten und dem Tagungsumfeld sichtbar sein. Ab diesem Jahr 2011 wird die Organisation und Ausrichtung durch akademische Tagungsveranstalter durchgeführt werden. Die bisherigen wissenschaftlichen Tagungsleiter Prof. Burkhard Corves (Rheinisch- Westfälische Technische Hochschule - RWTH Aachen) und Prof. Klaus Janschek (Technische Universität Dresden) werden zukünftig gemeinsam mit Prof. Torsten Bertram (Technische Universität Dortmund) für die Ausrichtung und Durchführung verantwortlich zeichnen. Als Veranstaltungsort sind entsprechende Räumlichkeiten an den beteiligten Universitäten geplant (2011 in Dresden, 2013 in Aachen, 2015 in Dortmund). Neben einer Kostenersparnis erwarten sich die Veranstalter durch das gegenüber Kongresszentren doch intimere Umfeld einen lebendigen Gedankenaustausch zwischen Wissenschaftlern, Industrievertretern und nicht zuletzt mit dem wissenschaftlichen Nachwuchs. Speziell Studierenden soll damit ein einfacherer Zugang in die Welt des wissenschaftlichen Diskurses mit Experten aus der Industrie und Praxis ermöglicht werden. Academia trifft Industrie — Eine Stärke der bisherigen MECHATRONIK-Tagungen war immer die breite fachliche Verankerung durch die verantwortliche Trägerschaft der VDI-Gesellschaft Produkt- und Prozessgestaltung (VDI-GPP) und VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (VDI/VDEGMA). Im Selbstverständnis dieser Fachgesellschaften spielt die Bereitstellung von Kommunikationsplattformen zwischen Hochschulen und Industrie eine zentrale Rolle. In den verschiedenen Fachausschüssen von VDI-GPP und VDI/VDE-GMA findet dieser Meinungs- und Informationsaustausch regelmäßig statt. Um eine breitere Fachöffentlichkeit in diese Diskussionen einzubeziehen, ist eine gemeinsame Tagung zum Thema Mechatronik eine logische und fruchtbare Konsequenz. Auch zukünftig wird der enge fachliche und institutionelle Kontakt der Tagung MECAHTRONIK zu den Fachgesellschaften aufgrund der personellen Verankerung der Tagungsveranstalter in den Fachgesellschaften VDI-GPP und VDI/VDE-GMA erhalten bleiben. Das Tagungsprogramm 2011 bietet ein breit gefächertes Angebot an aktuellen und innovativen Fragestellungen zur Mechatronik: mechatronische Produkte, Serienfertigung mechatronischer Produkte, Ressourceneffizienz, Nutzerfreundlichkeit und Akzeptanz, Entwicklungsmethoden und -werkzeuge sowie innovative Konzepte

    Radiointerviews zur Vermittlung der rezeptiven Grammatik der gesprochenen Sprache. Eine qualitative Studie zur Rezeption von Radiointerviews bei Lernern des Deutschen als Fremdsprache, mit dem Fokus auf äußerungsinitialen und äußerungsfinalen Konstrukten sowie Parenthesen

    Get PDF
    Untersucht wird in der vorliegenden Dissertation die didaktische Relevanz der äußerungsinitialen, -finalen Konstrukte und Parenthesen für die rezeptive Grammatik der gesprochenen Sprache im Kontext des Deutschen als Fremdsprache – beim Übergang vom B2- zum C1-Lernniveau. Analysiert werden die Verarbeitungspräferenzen der Lerner im Online- und Offline-Modus sowie allgemeine Probleme der Rezeption auf der Diskursebene, hier auf jene in Radiointerviews bezogen. Ferner werden – ausgehend von den Annahmen der Outer-Syntax (Linell 2009), des Cue-Competition-Modells, der Konstruktionsgrammatik und Konversationsanalyse – die diskursspezifischen Funktionen dieser pragmasyntaktischen Konstrukte in Radiointerviews untersucht. Darüber hinaus wird die Gesprächssorte Radiointerview und ihre didaktischen Potenziale genauer betrachtet sowie ihre aktuelle Verortung in den Lehrwerken für die Mittel- und Oberstufe. Der Beitrag dieser Arbeit liegt außerdem in der Erprobung einer Interface-Methode, die es ermöglicht, dass durch die Triangulation der prozessualen und statischen Daten, bzw. der rezeptiven Produkte und der authentischen Dynamik der Verarbeitung sowie der rezeptiven Konstrukte und Einstellungen – die rezeptiven Verarbeitungsstrategien im Gesprächsverlauf explorativ-deskriptiv und rekonstruktiv-interpretativ und somit aus einer neuen Perspektive für Deutsch als Fremdsprache beleuchtet werden
    corecore