24 research outputs found

    Schaffung einer Basis fĂŒr die kontinuierliche QualitĂ€tsanalyse

    Get PDF
    Die QualitĂ€t der Software ist ein wesentlicher Faktor fĂŒr den wirtschaftlichen Erfolg von Softwaresystemen, die langlebig und erweiterbar sein sollen. Sie hat vor allem entscheidenden Einfluss auf die Effizienz der Wartung und Weiterentwicklung. ErfahrungsgemĂ€ĂŸ nimmt aber die QualitĂ€t der Software mit der Zeit ab. Die kontinuierlichen Änderungen und Erweiterungen des Quellcodes, sich stĂ€ndig Ă€ndernde Anforderungen und die Anpassungen der Software an unterschiedliche technische Umgebungen können zum schleichenden QualitĂ€tsverfall fĂŒhren. Um diesem Verfall der QualitĂ€t entgegenzuwirken, ist es notwendig gewisse Regeln zu definieren und durch eine kontinuierliche Analyse die Einhaltung dieser Regeln zu kontrollieren. Dabei soll nicht nur der Entwicklungsprozess, sondern auch das Produkt selbst analysiert und verbessert werden. Auf Grund der GrĂ¶ĂŸe heutiger Softwaresysteme ist es empfehlenswert solch eine QualitĂ€tsĂŒberprĂŒfung sowohl durch manuelle Inspektionen, als auch mittels dafĂŒr geeigneten Werkzeugen durchzufĂŒhren. Die Werkzeuge, die zur Operationalisierung der kontinuierlichen SoftwarequalitĂ€tsanalyse dienen, werden Software Quality Dashboards genannt. Diese Werkzeuge sammeln und liefern Daten ĂŒber den aktuellen QualitĂ€tszustand eines Softwaresystems in Form von Tabellen, Trends- und Übersichtsgrafiken. Mit Hilfe dieser Daten können spĂ€ter Aussagen ĂŒber die QualitĂ€t und die WeiterentwicklungsfĂ€higkeit des Softwaresystems gemacht werden

    QualitÀtssicherung mittels Feature-Modellen

    Get PDF
    Modern business applications are getting increasingly distributed as multi-tenant software as a service (SaaS). This leads to new challenges in terms of quality assurance, because all customers are directly affected by software changes. The resulting problem is to proactively determinate evolutionary effects. Because SaaS applications are often realized in the sense of a software product line, this thesis examines ways of using feature models to face the mentioned problem. For this purpose, two approaches are analyzed: extended feature models with quality attributes annotated per feature and the analysis of structural aspects of feature models and corresponding concrete configurations. The presented attributed feature model approach measures the quality of concrete configurations to make configurations comparable according to specific quality goals. Criteria are elicited for when configurations can be compared to draw helpful conclusions. The structural approach focuses economic questions that are quality assurance related, such as identifying features that none of the tenants selected in their application configurations. Furthermore, three algorithms are presented that demonstrate the structural analysis approach to gather information relevant to quality assurance

    Evolution und Komposition von Softwaresystemen: Software-Produktlinien als Beitrag zu FlexibilitÀt und Langlebigkeit

    Get PDF
    Software systems are today bigger, more complex and of higher importance for products and services than a decade before. At the same time changes are required many more frequently and of a larger size. Furthermore, they have to be implemented faster. Additionally, the software must achieve a higher life span, particularly because of the cost of its development. In the past, Object-Oriented Programming and Reuse techniques did not provide the expected success. The introduction of software product lines respectively system families makes possible it to reach a degree of prefabrication similar to the one of serial production. At the same time they facilitate the delivery of product variants with a short time to market. In this work methods of the methods of domain analysis are integrated with Reuse approaches and techniques of Generative Programming, and a methodology for product line development is presented. Feature models are used as means expressing variability and product configurations, so that the prefabrication be planned and the production of customer-specific products can be controlled. By enforcing the formalization in terms of syntax and semantics, feature models are made accessible to tools and automation. Object-oriented design models and architecture are separated into fine-granular components in such a way that new products can easily be developed as combinations of those components. The implementation of such products is automated by the composition of source code components. The composition of object models separated similarly enables a uninterrupted automation for the product development, which is controlled by a customer by means of a feature selection. To facilitate such a composition, the Hyperspace approach is applied to UML to Hyper/UML, which makes possible a feature-driven separation and composition of object models. In this way slim products can be developed, containing only the actually needed functionality. For the evolution of product lines and for the integration of existing solutions and components into the evolution, Reverse Engineering and Refactoring techniques are integrated. Requirements, models and implementation are connected by Traceability links to perform changes consistently. As a consequence, the loss of architectural quality - so-called Architectural Decay - can be avoided during the iterative development process. Measures for the improvement of the project and quality management are regarded briefly, as far as they are of importance for the effectiveness of the developed methods. The applicability and suitability of the results of the work were examined in several industrial projects.Softwaresysteme sind heute umfangreicher, komplexer und von entscheidenderer Bedeutung fĂŒr Produkte und Dienstleistungen als eine Dekade zuvor. Gleichzeitig sind Änderungen viel hĂ€ufiger und in grĂ¶ĂŸerem Umfang erforderlich. Sie mĂŒssen auch schneller realisierbar sein. Zudem muss die Software eine höhere Lebensdauer erreichen, vor allem wegen des Aufwandes zu ihrer Entwicklung. Objektorientierte Programmierung und Wiederverwendungstechniken haben dabei nicht den erwarteten Erfolg gebracht. Die EinfĂŒhrung von Software-Produktlinien beziehungsweise Systemfamilien ermöglichen es, einen der Serienfertigung Ă€hnlichen Vorfertigungsgrad zu erreichen und erlauben es gleichzeitig, kurzfristig Produktvarianten zu erstellen. In dieser Arbeit werden Methoden der DomĂ€nenanalyse mit WiederverwendungsansĂ€tzen und Generativen Programmiertechniken verknĂŒpft und eine Methodik zur Produktlinien-Entwicklung vorgestellt. Featuremodelle werden als Ausdrucksmittel fĂŒr VariabilitĂ€t und Produktkonfigurationen eingesetzt, damit die Vorfertigung geplant und die Erstellung von kundenspezifischen Produkten gesteuert werden kann. Durch PrĂ€zisierung ihrer Syntax und Erweiterung ihrer Semantik werden Featuremodelle einer Nutzung in Werkzeugen zugĂ€nglich gemacht. Objektorientierte Entwurfsmodelle und Architektur werden so in feingranulare Komponenten zerlegt, dass Varianten als neue Produkte mit geringem Aufwand erstellbar sind. Die Erstellung der Implementierung solcher Produkte wird durch die Komposition von Quelltext-Komponenten automatisiert. Die Komposition von ebenfalls zerlegten Objektmodellen ermöglicht eine durchgehende Automatisierung der Produkterstellung, die durch einen Kunden mittels der Feature-Auswahl gesteuert wird. DafĂŒr wird mit Hyper/UML eine Umsetzung des Hyperspace-Ansatzes auf die Modellierungssprache UML entwickelt, die eine Feature-gesteuerte Zerlegung und Komposition von Objektmodellen ermöglicht. Damit lassen sich schlanke Produkte entwickeln, die nur die tatsĂ€chlich benötigte FunktionalitĂ€t enthalten. Zur Evolution von Produktlinien und zur Einbindung existierender Lösungen und Komponenten in die Evolution werden Reverse-Engineering- und Refactoring-Techniken integriert. Anforderungen, Modelle und Implementierung werden durch Traceability-Links verbunden, damit Änderungen konsistent durchgefĂŒhrt werden können. Diese Mittel tragen dazu bei, dass wĂ€hrend einer iterativen Entwicklung der Verlust an Architektur-QualitĂ€t, das sogenannte Architectural Decay, vermieden werden kann. Maßnahmen zur Verbesserung des Projekt- und QualitĂ€tsmanagements werden kurz betrachtet, soweit sie wichtige Randbedingungen fĂŒr die Wirksamkeit der Methoden schaffen mĂŒssen. Die Anwendbarkeit und Eignung der Ergebnisse der Arbeiten wurde in mehreren industriellen Projekten ĂŒberprĂŒft.Ilmenau, Techn. Univ., Habil.-Schr., 200

    Systematische ProzessunterstĂŒtzung fĂŒr die Entwicklung laufzeitkritischer Softwaresysteme: Systematische ProzessunterstĂŒtzung fĂŒr die Entwicklung laufzeitkritischer Softwaresysteme: PROKRIS-Methodik und -Framework

    Get PDF
    In vielen Bereichen des tĂ€glichen Lebens, angefangen vom Online-Banking bis hin zur Steuerung im Flugzeug, kommt Software mit laufzeitkritischen nicht-funktionalen Eigenschaften (NFE) zum Einsatz. Die ErfĂŒllung der NFE spielt in diesen Anwendungen eine zentrale Rolle. Um dies zu erreichen, ist eine systematische und zielorientierte Behandlung dieser Anforderungen wĂ€hrend der Entwicklung zwingend erforderlich. NFE zeichnen sich im Gegensatz zu funktionalen Eigenschaften durch besondere Merkmale aus, die ein adaptives Vorgehen zur Definition des Entwicklungsprozesses erzwingen. In der Arbeit wird eine Methodik zur kontextbasierten Anpassung von Vorgehensmodellen an laufzeitkritische NFE auf der Basis von Prozessmustern sowie das PROKRIS-Framework als unterstĂŒtzende Umgebung vorgestellt

    Ein Framework als Grundlage der Ausgestaltung von Quality-Gate-Referenzprozessen fĂŒr die Software-Entwicklung

    Get PDF
    [no abstract

    Method and Technology for Model-based Test Automation of Context-sensitive Mobile Applications

    Get PDF
    Smartphone und Tablet Computer haben sich zu universalen Kommunikations- und Unterhaltungsplattformen entwickelt, die durch stĂ€ndige VerfĂŒgbarkeit mobilen Internets die Verwendung mobiler, digitaler Dienste und Anwendungen immer mehr zur NormalitĂ€t werden lassen und in alle Bereiche des Alltags vordringen. Die digitalen MarktplĂ€tze zum Vertrieb von Apps, sogenannten App Stores, sind Blockbuster-MĂ€rkte, in denen wenige erfolgreiche Produkte in kurzen Zeitintervallen den Großteil des Gesamtgewinns des Marktes erzielen. Durch dynamische, summative Bewertungssysteme in App Stores wird die QualitĂ€t einer App zu einem unmittelbaren Wert- und Aufwandstreiber. Die QualitĂ€t einer App steht in direktem Zusammenhang mit der Anzahl Downloads und somit mit dem wirtschaftlichen Erfolg. Mobile GerĂ€te zeichnen sich gegenĂŒber Desktop-Computern vorrangig dadurch aus, dass sie durch Sensoren in der Lage sind, Parameter ihrer Umgebung zu messen und diese Daten fĂŒr Anwendungsinhalte aufzubereiten. AnwendungsfĂ€lle fĂŒr solche Technologien sind beispielsweise ortsbasierte digitale Dienste, die Verwendung von Standortinformationen fĂŒr Fahrzeug- oder FußgĂ€ngernavigation oder die Verwendung von Sensoren zur Interaktion mit einer Anwendung oder zur grafischen Aufbereitung in Augmented Reality-Anwendungen. Anwendungen, die Parameter ihrer Umgebung messen, aufbereiten und die Steuerung des Kontrollflusses einfließen lassen, werden als kontextsensitive Anwendungen bezeichnet. KontextsensitivitĂ€t hat prĂ€genden Einfluss auf die fachliche und technische Gestaltung mobiler Anwendungen. Die fachliche Interpretation von Kontextparametern ist ein nicht-triviales Problem und erfordert eine sorgfĂ€ltige Implementierung und grĂŒndliches Testen. Herausforderungen des Testens kontextsensitiver, mobiler Anwendungen sind Erstellung und DurchfĂŒhrung von Tests, die zum einen die zu testende Anwendung adĂ€quat abdecken und zum anderen Testdaten bereitstellen und reproduzierbar in die zu testende Anwendung einspeisen. In dieser Dissertation wird eine Methode und eine Technologie vorgestellt, die wesentliche Aspekte und TĂ€tigkeiten des Testens durch modellbasierte Automatisierung von menschlicher Arbeitskraft entkoppelt. Es wird eine Methode vorgestellt, die Tests fĂŒr kontextsensitive Anwendungen aus UML-AktivitĂ€tsdiagrammen generiert, die durch Verwendung eines UML-Profils zur Kontext- und Testmodellierung um Testdaten angereichert werden. Ein Automatisierungswerkzeug unterstĂŒtzt die TestdurchfĂŒhrung durch reproduzierbare Simulation von Kontextparametern. Durch eine prototypische Implementierung der Generierung von funktionalen Akzeptanztests, der Testautomatisierung und Kontextsimulation wurde Machbarkeit des vorgestellten Ansatzes am Beispiel der mobilen Plattform Android praktisch nachgewiesen.Smartphones and tablet computers have evolved into universal communication and entertainment platforms. With the ubiquitous availability of mobile internet access, digital services and applications have become a commodity that permeates into all aspects of everyday life. The digital marketplaces for mobile app distribution, commonly referred to as App Stores, are blockbuster markets, where few extraordinarily successful apps generate the major share of the market's overall revenue in a short period of time. Through the implementation of dynamic, summative rating mechanisms in App Stores, app quality becomes a key value-driver of app monetarization, as app quality is directly associated with the number of app downloads, and hence with economic success. In contrast to desktop computers, mobile devices are uniquely characterized by a variety of sensors that measure environmental parameters and make them available as input to software. Potential uses of these technologies range from location-based digital services that use the user's location for vehicle or pedestrian navigation to augmented reality applications that use sensor information for user experience enhancement. Apps instrumenting physical and non-physical environmental parameters to control workflows or user interfaces are called context-aware applications. Context-awareness has a formative impact on the functional and technical design of mobile applications. The algorithmic interpretation of context data is a non-trivial problem that makes thorough implementation and careful testing mandatory to ensure adequate application quality. Major challenges of context-aware mobile application testing are test case creation and test execution. The impact of context-awareness on test case creation is the attainability of adequate test coverage, that in contrast to non-context-aware application extends beyond traditional input data. It requires the identification and characterization of context data sources and the provisioning of suitable, reproducible test data. This thesis addresses a method and technology to decouple test case creation and test execution from manual labor through the extensive use of model-driven automation technology. A method is presented that generates test cases for context-aware mobile applications from UML Activity Models by means of model transformation technology. A test execution framework facilitates the reproducible simulation of context data derived from an enriched system model. The approach is validated using a prototypical implementation of the test case generation algorithm. The simulation of context data during test execution ist validated using a modified implementation of the Android operation system

    Diagnosis of automotive electronic systems by structure analyses

    Get PDF
    In heutigen Fahrzeugsystemen ist ein großer Anteil der FunktionalitĂ€t auf den Wunsch nach hoher Sicherheit, großem Komfort und der Reduktion der Schadstoffemissionen zurĂŒckzufĂŒhren. Diese Funktionen werden durch den Einsatz von immer mehr Elektrik und Elektronik realisiert, die im Rahmen der Fahrzeugdiagnose in der Werkstatt aufgrund der unĂŒbersehbaren Anzahl von AbhĂ€ngigkeiten und Varianten nur schwer beherrscht werden können. Um diesen Problemen zu begegnen, werden in der Arbeit unterschiedliche Diagnoseverfahren miteinander verglichen und unter den Aspekten der effizienten Einbindung in den Entwicklungsprozess bei insgesamt guten Diagnoseergebnissen und Beherrschung der Variantenvielfalt bewertet. Dabei wurde ermittelt, dass kein bisher bekanntes Verfahren direkt diese Anforderungen erfĂŒllt, und ein neuer Ansatz gefunden werden musste. Dieses Problem wurde gelöst, indem aus der Kombination der erkannten StĂ€rken bekannter Diagnoseverfahren ein passendes neues Konzept entwickelt wurde. FĂŒr die neue Diagnoselösung wurde die bei probabilistischen Netzwerken verwendete Systemstruktur als wesentliches Element verwendet. Der wechselseitige Einfluss zwischen Funktionen und SteuergerĂ€ten wird systematisch betrachtet, indem die Fehlerfortpflanzungsmöglichkeiten direkt aus dem Entwicklungsprozess bestimmt werden. Dabei werden neben den ĂŒblicherweise fĂŒr die Diagnose verwendeten elektrischen AbhĂ€ngigkeiten auch logische Beziehungen in die Diagnoselösung einbezogen, die sich aus der Software und der Kommunikation der SteuergerĂ€te untereinander ergeben. Wichtiger Aspekt der Betrachtungen ist die Frage "Wie hĂ€ngen die Systemkomponenten voneinander ab?" um an sich völlig unterschiedliche Teilsysteme miteinander zu verbinden und diese Informationen fĂŒr die Diagnose nutzbar zu machen. Gleichzeitig ist die praxisnahe Definition einer Anbindung an den Softwareentwicklungsprozess fĂŒr eingebettete Systeme wesentlicher Bestandteil der Arbeit.In todays automotive systems a high percentage of the functionality is a result of the customers wish for security, comfort and reduced emissions. These functions are realized by more and more electric and electronic components. Existing garages' diagnostic systems insufficiently deal with the resulting systems because of the innumerable dependencies and variants. In order to address this problem, this paper compares different diagnostic approaches concerning their efficiency of the integration into the development process, diagnosis quality and variant management. As a result it is stated that no well-known method completely meets these requirements. Therefore a new approach has been developed consisting of a combination of the identified advantages of the known methods. As a basic element the new diagnostic system includes the system structure used by probabilistic networks. The reciprocal influence between functions and electronic control units is orderly addressed by deduction of the paths of error propagation from development models. Additionally to the derived electrical structures commonly used by diagnostic systems also logic dependencies are integrated into the diagnostic system. These logic dependencies are derived from software functions and communication links between electronic control units. In order to combine physically different parts of the system, an important question is "What are the system components interdependencies?" By answering this question, these dependencies can be used by a diagnosis system as part of a combined system structure. At the same time the practical definition of a connection to the development process for embedded systems is an essential part of the work

    Entwicklung und Erprobung eines Instruments zur Messung informatischer Modellierungskompetenz im fachdidaktischen Kontext

    Get PDF
    Die Auswertung der Ergebnisse internationaler Vergleichsstudien haben MĂ€ngel am deutschen Bildungssystem aufgedeckt. In diesem Zusammenhang rĂŒckte die Vermittlung von Kompetenzen in das Zentrum bildungspolitischer Lösungsstrategien. Um die QualitĂ€t des deutschen Bildungssystems zu sichern, wird die Entwicklung nationaler Bildungsstandards gefordert, die verbindliche Anforderungen an das Lehren und Lernen in der Schule darstellen. Diese Bildungsstandards sollen sich nach Vorgaben des Bildungsministeriums fĂŒr Bildung und Forschung auf wissenschaftlich fundierte Kompetenzmodelle stĂŒtzen, die in Zusammenarbeit von Fachdidaktikern, Fachwissenschaftlern und Psychologen entwickelt werden. Ebenso wird hier explizit die Einbeziehung und Entwicklung entsprechender Verfahren zur Testentwicklung gefordert.In Anbetracht dieser bildungspolitischen UmstĂ€nde, beschreibt die vorliegende Dissertationsschrift die Entwicklung eines wissenschaftlich fundierten Kompetenzstrukturmodells und eines Kompetenzmessinstruments fĂŒr einen zentralen Teilbereich der informatischen Bildung, der objektorientierten Modellierung. Um die Bedeutung des Gegenstandsbereichs zu verdeutlichen, wird die Relevanz der Modellierung fĂŒr die Informatik aus fachwissenschaftlicher und fachdidaktischer Perspektive erörtert. Im weiteren Verlauf wird dargestellt, wie die Gestaltung eines Kompetenzstrukturmodells in zwei Schritten erfolgen kann. ZunĂ€chst erfolgt eine normativ theoretische Ableitung von Kompetenzdimensionen und -komponenten anhand von einschlĂ€giger Fachliteratur. In einem weiteren Schritt findet die empirische Verfeinerung des theoretischen Rahmenmodells durch eine Expertenbefragung (durchgefĂŒhrt in 2009 und 2010), bei der Fachwissenschaftler, Fachdidaktiker und Fachleiter fĂŒr das Fach Informatik befragt wurden, statt. Auf Grundlage des wissenschaftlich fundierten Kompetenzmodells wirdBased on the outcomes of international studies, which show the inadequateness of the German education system, fostering learners' competencies becomes increasingly relevant. In order to further improve the quality of the German education system, educational policy requires the education system to implement national educational standards. These standards delineate how learning and teaching in schools should take place. Teaching and learning should be based on empirically-grounded competence models that should be developed by domain experts and psychologists cooperatively. For the evaluation of these competence models, educational policy demands the development of appropriate instruments to measure relevant competencies as well. In order to fulfill these demands, the development of an empirically-grounded competence model and a respective instrument will be described for the domain of computer science modeling. First, the relevance of object-oriented modeling for computer science education will be shown. Hereafter, the development of an empirically-grounded competence model and an associated test instrument will be shown.The development of the competence model requires two intermediate steps: In the first step it will be shown how the dimensions and components of the model can be derived theoretically. In a second step, the competence model will be refined empirically by referring to the results of the qualitative content analysis of experts interviews conducted in 2009 and 2010. In the interviews, three groups of experts have been interviewed: (1) experts of computer science, (2) experts of computer science education and (3) expert computer science teachers.Based on the empirically-grounded competence model, the development of an instrument for measuring competencies will be described. Here, the creation of items to prove the respective competencies covered in the competence model will be illustrated.Tag der Verteidigung: 05.06.2013Paderborn, Univ., Diss., 201

    Formalized Terminologies of Technical Systems and their Reliability

    Get PDF
    WĂ€hrend des Lebenslaufs eines technischen Systems kommunizieren Fachleute mit verschiedenen Ausbildungs- und ErfahrungshintergrĂŒnden miteinander. Nur ein gleiches VerstĂ€ndnis auf der Grundlage eines gemeinsamen TerminologoegebĂ€udes ermöglicht zueinander passendes Handeln. Existierende AnsĂ€tze der Terminologiearbeit erfĂŒllen die AnsprĂŒche an eine eindeutige, widerspruchsfreie, prĂ€zise, mehrsprachige und domĂ€nenĂŒbergreifende terminologische Basis allerdings nicht. Um einen reibungslosen Ablauf der gewerkeĂŒbergreifenden Zusammenarbeit ĂŒber den gesamten Lebenslauf technischer Systeme zu ermöglichen, mĂŒssen die GrenzfĂ€lle und UnschĂ€rfen bestehender Terminologieabbildungen gelöst werden. Die in dieser Arbeit ausgearbeitete methodische Grundlage besteht in einer eindeutigen Festlegung von Termini durch die durchgĂ€ngige Nutzung einheitlicher formaler Beschreibungsmittel. Auf dieser Basis aufbauend wird die Basisterminologie der leittechnischen Modellwelt beschrieben. Sie stellt das Fundament fĂŒr eine weitergehende Modellbildung dar. Die im Rahmen dieser Arbeit konzipierte Vorgehensweise wird auf die Modellierung eines formalisierten TerminologiegebĂ€udes zur VerlĂ€sslichkeit technischer Systeme angewendet. Die einzelnen Termini werden hierbei durch ein Netz zwischen ihnen bestehender Bedeutungsbeziehungen abgebildet und so zu einem neuen TerminologiegebĂ€ude zusammengefĂŒgt. Gleichwertige Benennungen werden identifiziert und somit ein Beitrag zur Eindeutigkeit des Fachvokabulars geleistet. In dieser Arbeit wird ein Terminologiemanagementsystem konzipiert, welches die Sprache in ihrer KomplexitĂ€t abzubilden vermag und somit ĂŒber eine bloße Auflistung von Bezeichnungen und den ihnen zugeordneten Definitionen hinausgeht. Es erlaubt die verteilte Erarbeitung und Abstimmung eines Fachwortschatzes in der Normungsarbeit und in der industriellen Praxis und ermöglicht dort eine fachĂŒbergreifende Kommunikation, wo bisher nur UnverstĂ€ndnis, MissverstĂ€ndnis und Ablehnung bestanden.In the lifecycle of a technical system experts with different educational backgrounds and experiences communicate with each other. Only a common understanding allows for coordinated and coherent action. Existing approaches of terminology management can not adequately fulfill the unambiguous, consistent, precise, multilingual conceptualization across different domains. In order to allow for an unobstructed interdisciplinary cooperation a harmonization of heterogeneous information is required and the fuzziness of the currently existing terminology needs to be overcome. The methodical framework to do this is developed in this work. The formalization of unambiguously defined technical terms is supported by the integrated use of formal means of description. Based on this approach the basic terms and definitions of control technology can be formally described. A standardized and well defined vocabulary is the basis for subsequently defined concepts and models. The methodical approach outlined in this work is applied to the formalization of a concept system of the dependability of technical systems. The individual concepts will be identified and integrated into a network structure by means of semantic relations. Equivalent designations for identical concepts can be identified and the currently existing frequent use of synonyms can be avoided. This helps to overcome the existing problems and to improve communication across different domains. As language is a complex phenomenon tool support is of utmost importance. This work lays the basis for a terminology management system which can model various facets of language and thus goes far beyond the scope and expressiveness of currently existing terminology management systems. The terminology management system introduced allows for the distributed and collaborative development of a terminology in standardization as well as in industrial applications

    Innovationsforum open4INNOVATION2012 regional kooperativ-global innovativ: BeitrÀge zum Fachforum

    Get PDF
    Die Zukunft liegt bereits heute schon im Internet der Dinge, Daten, Dienste und Personen. Informations- und Kommunikationstechnologien (IKT) beeinflussen vermehrt die alltĂ€glichen AblĂ€ufe, ĂŒbernehmen im Ernstfall lebenserhaltende Körperfunktionen, unterstĂŒtzen Arbeits- und Produktionsprozesse und halten Einzug in unsere Wohnbereiche. Dabei rĂŒckt der Gedanke einer anwendungsnahen und integrierten Sicht von Software zunehmend in den Vordergrund und verlangt deshalb interdisziplinĂ€re AnsĂ€tze. Eine frĂŒhzeitige technische Abstimmung zwischen Soft- und Hardware sowie unterschiedlichen technischen Öko-Systemen wird dabei notwendiger und fordert Politik, Wissenschaft und Wirtschaft in gleichem Maße. Das Innovationsforum open4INNOVATION2012 am 9.Mai bot dazu Praktikern und Akademikern eine Plattform fĂŒr den interdisziplinĂ€ren und fachbereichsĂŒbergreifenden Austausch zu neuen und anwendungsnahen IKT-AnsĂ€tzen. Unter dem Motto regional kooperativ, global innovativ galt es dabei regional politische, wirtschaftliche und wissenschaftliche Kompetenzen zu bĂŒndeln, um globale MĂ€rkte erfolgreich zu bestreiten. In dem vorliegenden Tagungsband finden Sie die BeitrĂ€ge des Fachforums, welches ein Hauptformat der Veranstaltung darstellte. ZusĂ€tzlich kam es auf dem Innovationsforum open4INNOVATION2012 erstmals zur aktiven Vernetzung sĂ€chsischer Forschergruppen, deren wissenschaftlicher Schwerpunkt die Robotik ist. Auf diesem ersten sĂ€chsischen Robotertreffen stand vor allem die Arbeit mit humanoiden Robotern im Mittelpunkt
    corecore