75 research outputs found

    The Design and Implementation of the Management Action Language and the Life Cycle of Other DSLs

    Get PDF

    AniMAL - a user interface prototyper and animator for MAL interactor models

    Get PDF
    Engineering correct software is one of the grand challenges of computer science. Practical design and verification methodologies to ensure correct software can have a substantial impact on how programs are built by the industry. As human-machine systems become more functional, they also become more complex. Consequently, the interactions between the machine and its users becomes less predictable and more difficult to analyse. Using Model Checking it is possible to automatically analyse the behaviour of a modelled system. Hence, different authors have investigated the applicability of model checking to the analysis of human-machine interactions. The IVY workbench is a tool that supports system design and verification, by providing a model checking based integrated modelling and analysis environment. The tool is based around a plugin architecture, and although it features a verification results' analyser, it thus far lacked the ability to visually expose the sequence of events that lead to a system failure on a system's prototype. We propose the AniMAL plugin as an extension to the IVY workbench, providing automatic user interface prototyping and verification results' animation, while allowing thorough customisation

    New Fault Detection, Mitigation and Injection Strategies for Current and Forthcoming Challenges of HW Embedded Designs

    Full text link
    Tesis por compendio[EN] Relevance of electronics towards safety of common devices has only been growing, as an ever growing stake of the functionality is assigned to them. But of course, this comes along the constant need for higher performances to fulfill such functionality requirements, while keeping power and budget low. In this scenario, industry is struggling to provide a technology which meets all the performance, power and price specifications, at the cost of an increased vulnerability to several types of known faults or the appearance of new ones. To provide a solution for the new and growing faults in the systems, designers have been using traditional techniques from safety-critical applications, which offer in general suboptimal results. In fact, modern embedded architectures offer the possibility of optimizing the dependability properties by enabling the interaction of hardware, firmware and software levels in the process. However, that point is not yet successfully achieved. Advances in every level towards that direction are much needed if flexible, robust, resilient and cost effective fault tolerance is desired. The work presented here focuses on the hardware level, with the background consideration of a potential integration into a holistic approach. The efforts in this thesis have focused several issues: (i) to introduce additional fault models as required for adequate representativity of physical effects blooming in modern manufacturing technologies, (ii) to provide tools and methods to efficiently inject both the proposed models and classical ones, (iii) to analyze the optimum method for assessing the robustness of the systems by using extensive fault injection and later correlation with higher level layers in an effort to cut development time and cost, (iv) to provide new detection methodologies to cope with challenges modeled by proposed fault models, (v) to propose mitigation strategies focused towards tackling such new threat scenarios and (vi) to devise an automated methodology for the deployment of many fault tolerance mechanisms in a systematic robust way. The outcomes of the thesis constitute a suite of tools and methods to help the designer of critical systems in his task to develop robust, validated, and on-time designs tailored to his application.[ES] La relevancia que la electrónica adquiere en la seguridad de los productos ha crecido inexorablemente, puesto que cada vez ésta copa una mayor influencia en la funcionalidad de los mismos. Pero, por supuesto, este hecho viene acompañado de una necesidad constante de mayores prestaciones para cumplir con los requerimientos funcionales, al tiempo que se mantienen los costes y el consumo en unos niveles reducidos. En este escenario, la industria está realizando esfuerzos para proveer una tecnología que cumpla con todas las especificaciones de potencia, consumo y precio, a costa de un incremento en la vulnerabilidad a múltiples tipos de fallos conocidos o la introducción de nuevos. Para ofrecer una solución a los fallos nuevos y crecientes en los sistemas, los diseñadores han recurrido a técnicas tradicionalmente asociadas a sistemas críticos para la seguridad, que ofrecen en general resultados sub-óptimos. De hecho, las arquitecturas empotradas modernas ofrecen la posibilidad de optimizar las propiedades de confiabilidad al habilitar la interacción de los niveles de hardware, firmware y software en el proceso. No obstante, ese punto no está resulto todavía. Se necesitan avances en todos los niveles en la mencionada dirección para poder alcanzar los objetivos de una tolerancia a fallos flexible, robusta, resiliente y a bajo coste. El trabajo presentado aquí se centra en el nivel de hardware, con la consideración de fondo de una potencial integración en una estrategia holística. Los esfuerzos de esta tesis se han centrado en los siguientes aspectos: (i) la introducción de modelos de fallo adicionales requeridos para la representación adecuada de efectos físicos surgentes en las tecnologías de manufactura actuales, (ii) la provisión de herramientas y métodos para la inyección eficiente de los modelos propuestos y de los clásicos, (iii) el análisis del método óptimo para estudiar la robustez de sistemas mediante el uso de inyección de fallos extensiva, y la posterior correlación con capas de más alto nivel en un esfuerzo por recortar el tiempo y coste de desarrollo, (iv) la provisión de nuevos métodos de detección para cubrir los retos planteados por los modelos de fallo propuestos, (v) la propuesta de estrategias de mitigación enfocadas hacia el tratamiento de dichos escenarios de amenaza y (vi) la introducción de una metodología automatizada de despliegue de diversos mecanismos de tolerancia a fallos de forma robusta y sistemática. Los resultados de la presente tesis constituyen un conjunto de herramientas y métodos para ayudar al diseñador de sistemas críticos en su tarea de desarrollo de diseños robustos, validados y en tiempo adaptados a su aplicación.[CA] La rellevància que l'electrònica adquireix en la seguretat dels productes ha crescut inexorablement, puix cada volta més aquesta abasta una major influència en la funcionalitat dels mateixos. Però, per descomptat, aquest fet ve acompanyat d'un constant necessitat de majors prestacions per acomplir els requeriments funcionals, mentre es mantenen els costos i consums en uns nivells reduïts. Donat aquest escenari, la indústria està fent esforços per proveir una tecnologia que complisca amb totes les especificacions de potència, consum i preu, tot a costa d'un increment en la vulnerabilitat a diversos tipus de fallades conegudes, i a la introducció de nous tipus. Per oferir una solució a les noves i creixents fallades als sistemes, els dissenyadors han recorregut a tècniques tradicionalment associades a sistemes crítics per a la seguretat, que en general oferixen resultats sub-òptims. De fet, les arquitectures empotrades modernes oferixen la possibilitat d'optimitzar les propietats de confiabilitat en habilitar la interacció dels nivells de hardware, firmware i software en el procés. Tot i això eixe punt no està resolt encara. Es necessiten avanços a tots els nivells en l'esmentada direcció per poder assolir els objectius d'una tolerància a fallades flexible, robusta, resilient i a baix cost. El treball ací presentat se centra en el nivell de hardware, amb la consideració de fons d'una potencial integració en una estratègia holística. Els esforços d'esta tesi s'han centrat en els següents aspectes: (i) la introducció de models de fallada addicionals requerits per a la representació adequada d'efectes físics que apareixen en les tecnologies de fabricació actuals, (ii) la provisió de ferramentes i mètodes per a la injecció eficient del models proposats i dels clàssics, (iii) l'anàlisi del mètode òptim per estudiar la robustesa de sistemes mitjançant l'ús d'injecció de fallades extensiva, i la posterior correlació amb capes de més alt nivell en un esforç per retallar el temps i cost de desenvolupament, (iv) la provisió de nous mètodes de detecció per cobrir els reptes plantejats pels models de fallades proposats, (v) la proposta d'estratègies de mitigació enfocades cap al tractament dels esmentats escenaris d'amenaça i (vi) la introducció d'una metodologia automatitzada de desplegament de diversos mecanismes de tolerància a fallades de forma robusta i sistemàtica. Els resultats de la present tesi constitueixen un conjunt de ferramentes i mètodes per ajudar el dissenyador de sistemes crítics en la seua tasca de desenvolupament de dissenys robustos, validats i a temps adaptats a la seua aplicació.Espinosa García, J. (2016). New Fault Detection, Mitigation and Injection Strategies for Current and Forthcoming Challenges of HW Embedded Designs [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/73146TESISCompendi

    Integrating BIM and GIS for design collaboration in railway projects

    Get PDF
    Collaboration is essential to achieve project targets and minimising rework in any project including railway projects. The railway project is considered as a megaproject that requires effective collaboration in order to achieve efficiency and effectiveness. To ensure that the railway continues to provide safe, reliable, cost-effective services, and remains environmentally friendly while driving economic growth, engaging new technologies and new types of work models are required. Among these technologies, Building Information Modelling (BIM) and Geographic Information Systems (GIS) are recent technologies that support collaboration. However, using these technologies to achieve effective collaboration is challenging, especially in railway projects as they are amongst the most complicated projects and often numerous parties are involved in making important decisions. Currently, there is a lack of evidence-based guidelines or processes for effective collaboration in railway projects throughout their design stage. Therefore, this thesis has focused on developing a process model to improve collaboration in the design stage of railway projects using BIM and GIS. This research adopted a mixed-methods approach to examine and identify the issues that hinder collaboration in railway projects to assist in developing theBIM and GIS-enabled collaboration process model. An online questionnaire was designed and distributed to professionals to assess the state-of-the-art in BIM and GIS followed by two rounds of in-depth interviews with experts. The first round aimed to identify collaboration issues and consisted of 15 in-depth, face to face and videoconference/telephone interviews; while the second round consisted of 10 in-depth interviews to identify the process model components of the collaborative process using IDEF technique.The questionnaire data were analysed using descriptive statistics and statistical tests (for example, Regression analysis, Wilcoxon Signed Ranks and Kruskal-Wallis Test). The results showed a lack of training in BIM and GIS and identified collaboration as a significant factor for railway projects, but there were many challenges to achieve effective collaboration. These challenges have been further investigated during the first round of interviews using content and thematic analysis. The results revealed that the most common challenges were getting the right information at the right time for the right purposes followed by resistance to change. Furthermore, the findings indicated that developing a process model, based on a clear plan of work demonstrating the collaboration process, is a potential solution to tackle these challenges. Thus, a Collaborative Plan of Work (CPW) has been developed through combining the RIBA (Royal Institute of British Architects) Plan of Work and the GRIP (Governance for Railway Investment Projects) stages. This CPW will be the basis to develop a process model for BIM and GIS-enabled collaboration. The results from the second round of the interviews identified the process model components which are: key players’ roles and responsibilities, tasks (BIM and GIS Uses), BIM and GIS-based deliverables, and critical decision points for collaborative process design. Moreover, this process model was formulated utilising Integrated DEFinition (IDEF) structured diagramming techniques (IDEF0 and IDEF3).In conclusion, the process model of the collaboration process and the integrated implementation of BIM and GIS sets out role and responsibilities, deliverables, and key decision points. Finally, the research outcomes have been validated through a focus group and interviews with professionals in the biggest Railway company where the proposed process model was operationalised using a commercial Common Data Environment platform (viewpoint 4project). From their discussion, feedback and recommendations the IDEF processes model have been refined. It is concluded that such a process is crucial for effective collaboration in railway projects as it enables the management of the design process in terms of technologies used, activities, deliverables, and decision points. Therefore, the research findings support the notion that BIM and GIS can help to achieve effective collaboration by delivering the right information at the right time for the right purposes. As a result, they help to achieve the projects’ objectives efficiently in terms of time, cost and effort.</div

    Development of a 2-DoF Ankle Exoskeleton

    Get PDF

    Innovation by demand: An interdisciplinary approach to the study of demand and its role in innovation

    Get PDF
    The structure and regulation of consumption and demand has recently become of great interest to sociologists and economists alike, and at the same time there is growing interest in trying to understand the patterns and drivers of technological innovation. This book brings together a range of sociologists and economists to study the role of demand and consumption in the innovative process. The book starts with a broad conceptual overview of ways that the sociological and economics literatures address issues of innovation, demand and consumption. It goes on to offer different approaches to the economics of demand and innovation through an evolutionary framework, before reviewing how consumption fits into evolutionary models of economic development. Food consumption is then looked at as an example of innovation by demand, including an examination of the dynamic nature of socially-constituted consumption routines. The book includes a number of illuminating case studies, including an analysis of how black Americans use consumption to express collective identity, and a number of demand-innovation relationships within matrices or chains of producers and users or other actors, including service industries such as security, and the environmental performance of companies. The involvement of consumers in innovation is looked at, including an analysis of how consumer needs may be incorporated in the design of high-tech products. The final chapter argues for the need to build an economic sociology of demand that goes from micro-individual through to macro-structural features

    The CAID Information System

    Get PDF
    None provided

    Improving product design and development performances in SMEs with user centred design activities

    Get PDF
    The study is framed within the context and knowledge that companies that continually achieve product design and development success, habitually work more closely with customers and users. They do this to discover needs and wants in order that these might be translated into new or improved product or service offerings. It is widely recognised that many companies achieve success by reaching-out to customers and users directly in order to tap into what matters most to the people that will purchase and use their products and services: such engagement enables the development of a healthy pipeline of breakthrough products and services. The importance of connecting with customers and users is not a new phenomenon: building-in the voice of the customer is a critical element of well-established tools such as Quality Functional Deployment (QFD) in large organisations. Awareness of this sparked the simple question, ‘why, with so much support and clear evidence of the benefits of customer- and user-involvement in identifying and fulfilling needs has the practice not become universally embedded within product design and development activities?’ The main aim of this study is to build upon the work of organisations such as the Design Council and NESTA, and authors such as Herstatt and von Hippell, Cooper and Kleinschmidt and Ulrich and Eppinger. These agencies and researchers have indicated - in numerous studies and publications - that direct contact with customers and end-users is one of the best means of generating information about new product ideas. They also assert that ‘experiencing’ the use environment of a particular product or function is a prerequisite for generating high quality information. Many studies provide useful insights into generic best practices and offer evidence to support the assertion that direct contact with customers and end-users is important for large organisations. The research reported below continues in this vein but extends the analysis to examine specifically: (i) the importance (to business success) of fulfilling customer needs, (ii) the extent of customer and user involvement in identifying and fulfilling needs, (iii) the range of activities in which stakeholders and users are typically involved, (iv) the classes of issues discussed in engagement practices, and (v) the issues that contribute to success and failure in product development in SMEs. The study is important in two key respects. First, because even though organisations such as the Design Council and NESTA have highlighted the positive impact that fulfilling user needs can have on business growth, there remains a mismatch between perceived wisdom and practice. Second, from a research perspective, it builds upon existing theory and provides a level of granularity that both extends understanding and provides novel insights with respect to how the gap between theory (known value) and practice (adoption and use) might be bridged. The research was undertaken in three key phases. The first involved a series of scoping and context-setting interviews with respondents in selected, innovating SMEs. The second phase involved the development of a sector-based sample of SMEs and the distribution of a comprehensive qualitative-quantitative survey questionnaire. Following data analysis, a third phase witnessed the validation and nuancing of initial results via further engagement with selected innovating SMEs in the safety, general products, and healthcare sectors. Key findings from the study include the following: users and customers are an excellent source of ideas and intelligence in the product development process, however, many companies fail to exploit customers optimally (or at all) as a development resource; identifying user needs is an integral component in the product design process, but many companies lack the skills and knowledge to undertake this work adequately; where customer/user engagement is witnessed, it is frequently at non-optimal phases in the development process and limited in ambit (or undertaken by functions that are poorly-equipped to reap full benefits); and, whilst theory relating to user-involvement is widely recognised in the SME community, this is rarely translated effectively into cutting-edge practice. The study provides a contribution to new knowledge by focusing on the improvement of front-end product design and development performance via the deployment of user-centred design activities. It unpacks and details the factors that impact on identifying and fulfilling customer needs in front-end product development in UK SME manufacturing companies, and develops a framework that aids in reducing uncertainty and maximising effective practice in the development process. Further, the work maps and analyses state-of-the-art research in the domain and presents an agenda for future investigation designed to stimulate and support improved user-engagement activity and thus improved product development outcomes

    Specification Languages for Preserving Consistency between Models of Different Languages

    Get PDF
    In dieser Dissertation stellen wir drei Sprachen für die Entwicklung von Werkzeugen vor, welche Systemrepräsentationen während der Softwareentwicklung konsistent halten. Bei der Entwicklung komplexer informationstechnischer Systeme ist es üblich, mehrere Programmiersprachen und Modellierungssprachen zu nutzen. Dabei werden Teile des Systems mit unterschiedlichen Sprachen konstruiert und dargestellt, um verschiedene Entwurfs- und Entwicklungstätigkeiten zu unterstützen. Die übergreifende Struktur eines Systems wird beispielsweise oft mit Hilfe einer Architekturbeschreibungssprache dargestellt. Für die Spezifikation des detaillierten Verhaltens einzelner Systemteile ist hingegen eine zustandsbasierte Modellierungssprache oder eine Allzweckprogrammiersprache geeigneter. Da die Systemteile und Entwicklungstätigkeiten in Beziehung zueinander stehen, enthalten diese Repräsentationen oftmals auch redundante Informationen. Solche partiell redundanten Repräsentationen werden meist nicht statisch genutzt, sondern evolvieren während der Systementwicklung, was zu Inkonsistenzen und damit zu fehlerhaften Entwürfen und Implementierungen führen kann. Daher sind konsistente Systemrepräsentationen entscheidend für die Entwicklung solcher Systeme. Es gibt verschiedene Ansätze, die konsistente Systemrepräsentationen dadurch erreichen, dass Inkonsistenzen vermieden werden. So ist es beispielsweise möglich, eine zentrale, redundanzfreie Repräsentation zu erstellen, welche alle Informationen enthält, um alle anderen Repräsentationen daraus projizieren zu können. Es ist jedoch nicht immer praktikabel solch eine redundanzfreie Repräsentation und editierbare Projektionen zu erstellen, insbesondere wenn existierende Sprachen und Editoren unterstützt werden müssen. Eine weitere Möglichkeit zur Umgehung von Inkonsistenzen besteht darin Änderungen einzelner Informationen nur an einer eindeutigen Quellrepräsentation zuzulassen, sodass alle anderen Repräsentationen diese Information nur lesen können. Dadurch können solche Informationen in allen lesend zugreifenden Repräsentationen immer überschrieben werden, jedoch müssen dazu alle editierbaren Repräsentationsbereiche komplett voneinander getrennt werden. Falls inkonsistente Repräsentationen während der Systementwicklung nicht völlig vermieden werden können, müssen Entwickler oder Werkzeuge aktiv die Konsistenz erhalten, wenn Repräsentationen modifiziert werden. Die manuelle Konsistenthaltung ist jedoch eine zeitaufwändige und fehleranfällige Tätigkeit. Daher werden in Forschungseinrichtungen und in der Industrie Konsistenthaltungswerkzeuge entwickelt, die teilautomatisiert Modelle während der Systementwicklung aktualisieren. Solche speziellen Software-Entwicklungswerkzeuge können mit Allzweckprogrammiersprachen und mit dedizierten Konsistenthaltungssprachen entwickelt werden. In dieser Dissertation haben wir vier bedeutende Herausforderungen identifiziert, die momentan nur unzureichend von Sprachen zur Entwicklung von Konsistenthaltungswerkzeugen adressiert werden. Erstens kombinieren diese Sprachen spezifische Unterstützung zur Konsistenthaltung nicht mit der Ausdrucksmächtigkeit und Flexibilität etablierter Allzweckprogrammiersprachen. Daher sind Entwickler entweder auf ausgewiesene Anwendungsfälle beschränkt, oder sie müssen wiederholt Lösungen für generische Konsistenthaltungsprobleme entwickeln. Zweitens unterstützen diese Sprachen entweder lösungs- oder problemorientierte Programmierparadigmen, sodass Entwickler gezwungen sind, Erhaltungsinstruktionen auch in Fällen anzugeben, in denen Konsistenzdeklarationen ausreichend wären. Drittens abstrahieren diese Sprachen nicht von genügend Konsistenthaltungsdetails, wodurch Entwickler explizit beispielsweise Erhaltungsrichtungen, Änderungstypen oder Übereinstimmungsprobleme berücksichtigen müssen. Viertens führen diese Sprachen zu Erhaltungsverhalten, das oft vom konkreten Anwendungsfall losgelöst zu sein scheint, wenn Interpreter und Übersetzer Code ausführen oder erzeugen, der zur Realisierung einer spezifischen Konsistenzspezifikation nicht benötigt wird. Um diese Probleme aktueller Ansätze zu adressieren, leistet diese Dissertation die folgenden Beiträge: Erstens stellen wir eine Sammlung und Klassifizierung von Herausforderungen der Konsistenthaltung vor. Dabei diskutieren wir beispielsweise, welche Herausforderungen nicht bereits adressiert werden sollten, wenn Konsistenz spezifiziert wird, sondern erst wenn sie durchgesetzt wird. Zweitens führen wir einen Ansatz zur Erhaltung von Konsistenz gemäß abstrakter Spezifikationen ein und formalisieren ihn mengentheoretisch. Diese Formalisierung ist unabhängig davon wie Konsistenzdurchsetzungen letztendlich realisiert werden. Mit dem vorgestellten Ansatz wird Konsistenz immer anhand von beobachteten Editieroperationen bewahrt, um bekannte Probleme zur Berechnung von Übereinstimmungen und Differenzen zu vermeiden. Schließlich stellen wir drei neue Sprachen zur Entwicklung von Werkzeugen vor, die den vorgestellten, spezifikationsgeleiteten Ansatz verfolgen und welche wir im Folgenden kurz erläutern. Wir präsentieren eine imperative Sprache, die verwendet werden kann, um präzise zu spezifizieren, wie Modelle in Reaktion auf spezifische Änderungen aktualisiert werden müssen, um Konsistenz in eine Richtung zu erhalten. Diese Reaktionssprache stellt Lösungen für häufige Probleme bereit, wie beispielsweise die Identifizierung und das Abrufen geänderter oder korrespondierender Modellelemente. Außerdem erreicht sie eine uneingeschränkte Ausdrucksmächtigkeit, indem sie Entwicklern ermöglicht, auf eine Allzweckprogrammiersprache zurückzugreifen. Eine zweite, bidirektionale Sprache für abstrakte Abbildungen kann für Fälle verwendet werden, in denen verschiedene Änderungsoperationen nicht unterschieden werden müssen und außerdem die Erhaltungsrichtung nicht immer eine Rolle spielt. Mit dieser Abbildungssprache können Entwickler Bedingungen deklarieren, die ausdrücken, wann Modellelemente als konsistent zueinander angesehen werden sollen, ohne sich um Details der Überprüfung oder Durchsetzung von Konsistenz bemühen zu müssen. Dazu leitet der Übersetzer automatisch Durchsetzungscode aus Überprüfungen ab und bidirektionalisiert Bedingungen, die für eine Richtung der Konsistenthaltung spezifiziert wurden. Diese Bidirektionalisierung basiert auf einer erweiterbaren Menge von komponierbaren, operatorspezifischen Invertierern, die verbreitete Round-trip-Anforderungen erfüllen. Infolgedessen können Entwickler häufig vorkommende Konsistenzanforderungen konzise ausdrücken und müssen keinen Quelltext für verschiedene Konsistenthaltungsrichtungen, Änderungstypen oder Eigenschaften von Modellelementen wiederholen. Eine dritte, normative Sprache kann verwendet werden, um die vorherigen Sprachen mit parametrisierbaren Konsistenzinvarianten zu ergänzen. Diese Invariantensprache übernimmt Operatoren und Iteratoren für Elementsammlungen von der Object Constraint Language (OCL). Außerdem nimmt sie Entwicklern das Schreiben von Quelltext zur Suche nach invariantenverletzenden Elementen ab, da Abfragen, welche diese Aufgaben übernehmen, automatisch anhand von Invariantenparametern abgeleitet werden. Die drei Sprachen können in Kombination und einzeln verwendet werden. Sie ermöglichen es Entwicklern, Konsistenz unter Verwendung verschiedener Programmierparadigmen und Sprachabstraktionen zu spezifizieren. Wir stellen auch prototypische Übersetzer und Editoren für die drei Konsistenzspezifikationssprachen vor, welche auf dem Vitruvius-Rahmenwerk für Multi-Sichten-Modellierung basieren. Mit diesem Rahmenwerk werden Änderungen in textuellen und graphischen Editoren automatisch beobachtet, um Reaktionen auszulösen, Abbildungen durchzusetzen und Invarianten zu überprüfen. Dies geschieht indem der von unseren Übersetzern erzeugte Java-Code ausgeführt wird. Außerdem haben wir für alle Sprachen, die in dieser Dissertation vorgestellt werden, folgende theoretischen und praktischen Eigenschaften evaluiert: Vollständigkeit, Korrektheit, Anwendbarkeit, und Nutzen. So zeigen wir, dass die Sprachen ihre vorgesehenen Einsatzbereiche vollständig abdecken und analysieren ihre Berechnungsvollständigkeit. Außerdem diskutieren wir die Korrektheit jeder einzelnen Sprache sowie die Korrektheit einzelner Sprachmerkmale. Die operatorspezifischen Invertierer, die wir zur Bidirektionalisierung von Abbildungsbedingungen entwickelt haben, erfüllen beispielsweise immer das neu eingeführte Konzept bestmöglich erzogener Round-trips. Dieses basiert auf dem bewährten Konzept wohlerzogener Transformationen und garantiert, dass übliche Round-trip-Gesetze erfüllt werden, wann immer dies möglich ist. Wir veranschaulichen die praktische Anwendbarkeit mit Fallstudien, in denen Konsistenz erfolgreich mit Hilfe von Werkzeugen erhalten wurde, die in den von uns vorgestellten Sprachen geschrieben wurden. Zum Schluss diskutieren wir den potenziellen Nutzen unserer Sprachen und vergleichen beispielsweise Konsistenthaltungswerkzeuge die in zwei Fallstudien realisiert wurden. Die Werkzeuge, die mit der Reaktionssprache entwickelt wurden, benötigen zwischen 33% und 71% weniger Zeilen Quelltext als funktional gleichwertige Werkzeuge, die mit in Java oder dem Java-Dialekt Xtend entwickelt wurden

    Computer Aided Verification

    Get PDF
    This open access two-volume set LNCS 11561 and 11562 constitutes the refereed proceedings of the 31st International Conference on Computer Aided Verification, CAV 2019, held in New York City, USA, in July 2019. The 52 full papers presented together with 13 tool papers and 2 case studies, were carefully reviewed and selected from 258 submissions. The papers were organized in the following topical sections: Part I: automata and timed systems; security and hyperproperties; synthesis; model checking; cyber-physical systems and machine learning; probabilistic systems, runtime techniques; dynamical, hybrid, and reactive systems; Part II: logics, decision procedures; and solvers; numerical programs; verification; distributed systems and networks; verification and invariants; and concurrency
    corecore