28 research outputs found

    A Property Graph Data Model for a Context-Aware Design Assistant

    Get PDF
    The design of a product requires to satisfy a large number of design rules so as to avoid design errors. [Problem] Although there are numerous technological alternatives for managing knowledge, design departments continue to store design rules in nearly unusable documents. Indeed, existing propositions based on basic information retrieval techniques applied to unstructured engineering documents do not provide good results. Conversely, the development and management of structured ontologies are too laborious. [Proposition] We propose a property graph data model that paves the way to a context-aware design assistant. The property graph data model is a graph-oriented data structure that enables us to formally define a design context as a consolidated set of five sub-contexts: social, semantic, engineering, operational IT, and traceability. [Future work] Connected to or embedded in a Computer Aided Design (CAD) environment, our context-aware design assistant will extend traditional CAD capabilities as it could, for instance, ease: 1) the retrieval of rules according to a particular design context, 2) the recommendation of design rules while a design activity is being performed, 3) the verification of design solutions, 4) the automation of design routines, etc

    A requirement mining framework to support complex sub-systems suppliers

    Get PDF
    The design of engineered socio-technical systems relies on a value chain within which suppliers must cope with larger and larger sets of requirements. Although 70 % of the total life cycle cost is committed during the concept phase and most industrial projects originally fail due to poor requirements engineering [1], very few methods and tools exist to support suppliers. In this paper, we propose to methodologically integrate data science techniques into a collaborative requirement mining framework so as to enable suppliers to gain insight and discover opportunities in a massive set of requirements. The proposed workflow is a five-phase process including: (1) the extraction of requirements from documents and (2) the analysis of their quality by using natural language processing techniques; (3) the segmentation of requirements into communities using text mining and graph theory; (4) the collaborative and multidisciplinary estimation of decision making criteria; and (5) the reporting of estimations via an analytical dashboard of statistical indicators. We conclude that the methodological integration of data science techniques is an effective way to gain insight from hundreds or thousands of requirements before making informed decisions early on. The software prototype that supports our workflow is a JAVA web application developed on top of a graph-oriented data model implemented with the NoSQL NEO4J graph database. As a future work, the semi-structured as-required baseline could be a sound input to feed a formal approach, such as model- and simulation-based systems engineering

    CACDA: A knowledge graph for a context-aware cognitive design assistant

    Get PDF
    The design of complex engineered systems highly relies on a laborious zigzagging between computer-aided design (CAD) software and design rules prescribed by design manuals. Despite the emergence ofknowledge management techniques (ontology, expert system, text mining, etc.), companies continue tostore design rules in large and unstructured documents. To facilitate the integration of design rules andCAD software, we propose a knowledge graph that structures a large set of design rules in a computableformat. The knowledge graph organises entities of design rules (nodes), relationships among design rules(edges), as well as contextual information. The categorisation of entities and relationships in four sub-contexts: semantic, social, engineering, and IT – facilitates the development of the data model, especiallythe definition of the “design context” concept. The knowledge graph paves the way to a context-awarecognitive design assistant. Indeed, connected to or embedded in a CAD software, a context-aware cog-nitive design assistant will capture the design context in near real time and run reasoning operationson the knowledge graph to extend traditional CAD capabilities, such as the recommendation of designrules, the verification of design solutions, or the automation of design routines. Our validation experi-ment shows that the current version of the context-aware cognitive design assistant is more efficientthan the traditional document-based design. On average, participants using an unstructured design rulesdocument have a precision of 0.36 whereas participants using our demonstrator obtain a 0.61 precisionscore. Finally, designers supported by the design assistant spend more time designing than searching forapplicable design rules compared to the traditional design approach.Capgemini DEM

    Proposition d'un environnement numérique dédié à la fouille et à la synthèse collaborative d'exigences en ingénierie de produits

    No full text
    It is broadly accepted that 70 % of the total life cycle cost is committed during the specification phase. However, nowadays, we observe a staggering increase in the number of requirements. We consider the tremendous volume of requirements as big data with which sub-contractors struggle to make strategic decisions early on. Thus, we propose to methodologically integrate data science techniques into a collaborative requirement mining framework, which enables decision-makers to gain insight and discover opportunities in a massive set of requirements. Initially, classification models extract requirements from prescriptive documents. Requirements are subsequently analysed with natural language processing techniques so as to identify quality defects. After having removed the quality defects, the analyst can navigate through clusters of requirements that ease the exploration of big data. Each cluster gathers the requirements that belong to a functional area (mechanics, electronics, IT, etc.). Each domain expert can therefore easily filter out the requirements subset that is relevant for him. A complementary approach consists in detecting communities of requirements by analysing the topology of a graph. Each community owns a customisable set of decision-making criteria which are estimated by all functional areas. A dashboard of statistical visuals distils the estimation results from which a decision maker can make informed decisions. We conclude that the theoretical and empirical validation of our proposition corroborates the assumption that data science is an effective way to gain insight from hundreds or thousands of requirements.Il est communément admis que 70 % des coûts du cycle de vie d’un produit sont engagés dès la phase de spécification. Or, aujourd’hui, dans chacune des relations contractuelles client-fournisseur, le fournisseur doit faire face à un amas d’exigences à partir duquel il est difficile de prendre des décisions stratégiques avisées. Pour aider les sous-traitants, nous proposons une méthode outillée de synthèse des exigences, laquelle est supportée par un environnement numérique basé sur les sciences des données. Des modèles de classification extraient les exigences des documents. Les exigences sont ensuite analysées au moyen des techniques de traitement du langage naturel afin d’identifier les défauts de qualité qui mettent en péril le reste du cycle de vie. Pour faciliter leur exploitation, les exigences, dépourvues de leurs principaux défauts, sont non seulement classifiées automatiquement au sein de catégories métiers grâce aux techniques d’apprentissage machine, mais aussi segmentées en communautés au moyen des récentes avancées en théorie des graphes. Chacune des communautés d’exigences est caractérisée par un ensemble configurable de critères d’aide à la décision, dont l’estimation collaborative est assurée par des experts représentant les diverses fonctions de l’entreprise. Enfin, une synthèse graphique des estimations est restituée au décideur via un tableau de bord de résumés statistiques descriptifs facilitant la prise de décisions informées. La validation théorique et empirique de notre proposition corrobore l’hypothèse que les sciences des données est un moyen de synthétiser plusieurs centaines ou milliers d’exigences

    Proposition d'un environnement numérique dédié à la fouille et à la synthèse collaborative d'exigences en ingénierie de produits

    No full text
    It is broadly accepted that 70 % of the total life cycle cost is committed during the specification phase. However, nowadays, we observe a staggering increase in the number of requirements. We consider the tremendous volume of requirements as big data with which sub-contractors struggle to make strategic decisions early on. Thus, we propose to methodologically integrate data science techniques into a collaborative requirement mining framework, which enables decision-makers to gain insight and discover opportunities in a massive set of requirements. Initially, classification models extract requirements from prescriptive documents. Requirements are subsequently analysed with natural language processing techniques so as to identify quality defects. After having removed the quality defects, the analyst can navigate through clusters of requirements that ease the exploration of big data. Each cluster gathers the requirements that belong to a functional area (mechanics, electronics, IT, etc.). Each domain expert can therefore easily filter out the requirements subset that is relevant for him. A complementary approach consists in detecting communities of requirements by analysing the topology of a graph. Each community owns a customisable set of decision-making criteria which are estimated by all functional areas. A dashboard of statistical visuals distils the estimation results from which a decision maker can make informed decisions. We conclude that the theoretical and empirical validation of our proposition corroborates the assumption that data science is an effective way to gain insight from hundreds or thousands of requirements.Il est communément admis que 70 % des coûts du cycle de vie d’un produit sont engagés dès la phase de spécification. Or, aujourd’hui, dans chacune des relations contractuelles client-fournisseur, le fournisseur doit faire face à un amas d’exigences à partir duquel il est difficile de prendre des décisions stratégiques avisées. Pour aider les sous-traitants, nous proposons une méthode outillée de synthèse des exigences, laquelle est supportée par un environnement numérique basé sur les sciences des données. Des modèles de classification extraient les exigences des documents. Les exigences sont ensuite analysées au moyen des techniques de traitement du langage naturel afin d’identifier les défauts de qualité qui mettent en péril le reste du cycle de vie. Pour faciliter leur exploitation, les exigences, dépourvues de leurs principaux défauts, sont non seulement classifiées automatiquement au sein de catégories métiers grâce aux techniques d’apprentissage machine, mais aussi segmentées en communautés au moyen des récentes avancées en théorie des graphes. Chacune des communautés d’exigences est caractérisée par un ensemble configurable de critères d’aide à la décision, dont l’estimation collaborative est assurée par des experts représentant les diverses fonctions de l’entreprise. Enfin, une synthèse graphique des estimations est restituée au décideur via un tableau de bord de résumés statistiques descriptifs facilitant la prise de décisions informées. La validation théorique et empirique de notre proposition corrobore l’hypothèse que les sciences des données est un moyen de synthétiser plusieurs centaines ou milliers d’exigences

    Proposition d'un environnement numérique dédié à la fouille et à la synthèse collaborative d'exigences en ingénierie de produits

    No full text
    It is broadly accepted that 70 % of the total life cycle cost is committed during the specification phase. However, nowadays, we observe a staggering increase in the number of requirements. We consider the tremendous volume of requirements as big data with which sub-contractors struggle to make strategic decisions early on. Thus, we propose to methodologically integrate data science techniques into a collaborative requirement mining framework, which enables decision-makers to gain insight and discover opportunities in a massive set of requirements. Initially, classification models extract requirements from prescriptive documents. Requirements are subsequently analysed with natural language processing techniques so as to identify quality defects. After having removed the quality defects, the analyst can navigate through clusters of requirements that ease the exploration of big data. Each cluster gathers the requirements that belong to a functional area (mechanics, electronics, IT, etc.). Each domain expert can therefore easily filter out the requirements subset that is relevant for him. A complementary approach consists in detecting communities of requirements by analysing the topology of a graph. Each community owns a customisable set of decision-making criteria which are estimated by all functional areas. A dashboard of statistical visuals distils the estimation results from which a decision maker can make informed decisions. We conclude that the theoretical and empirical validation of our proposition corroborates the assumption that data science is an effective way to gain insight from hundreds or thousands of requirements.Il est communément admis que 70 % des coûts du cycle de vie d’un produit sont engagés dès la phase de spécification. Or, aujourd’hui, dans chacune des relations contractuelles client-fournisseur, le fournisseur doit faire face à un amas d’exigences à partir duquel il est difficile de prendre des décisions stratégiques avisées. Pour aider les sous-traitants, nous proposons une méthode outillée de synthèse des exigences, laquelle est supportée par un environnement numérique basé sur les sciences des données. Des modèles de classification extraient les exigences des documents. Les exigences sont ensuite analysées au moyen des techniques de traitement du langage naturel afin d’identifier les défauts de qualité qui mettent en péril le reste du cycle de vie. Pour faciliter leur exploitation, les exigences, dépourvues de leurs principaux défauts, sont non seulement classifiées automatiquement au sein de catégories métiers grâce aux techniques d’apprentissage machine, mais aussi segmentées en communautés au moyen des récentes avancées en théorie des graphes. Chacune des communautés d’exigences est caractérisée par un ensemble configurable de critères d’aide à la décision, dont l’estimation collaborative est assurée par des experts représentant les diverses fonctions de l’entreprise. Enfin, une synthèse graphique des estimations est restituée au décideur via un tableau de bord de résumés statistiques descriptifs facilitant la prise de décisions informées. La validation théorique et empirique de notre proposition corrobore l’hypothèse que les sciences des données est un moyen de synthétiser plusieurs centaines ou milliers d’exigences

    Formation à la réalité virtuelle pour l'industrie 4.0

    No full text
    Je n'ai pas vu comment adapter le papier aux review. Une très bonne et la seconde que je peux comprendre, mais qui n'appelle pas réellement de changement de papier. Nous avons présenté ce papier comme un témoignage pédagogique, pas comme un résultat scientifique et l'objet n'était pas de faire un benchmark de ce qui pratique dans les formations françaises, mais de témoigner de notre approche pour la partager et justement participer à ce débat dans la communauté s.mart.International audienceDans cet article, nous présentons une unité d’enseignementvisant la formation d’étudiants d’écoles d’ingénieurs aux usages destechnologies de réalité virtuelle et augmentée pour l’industrie 4.0.Ces technologies ne sont pas récentes mais sont en pleine évolution.Il y a lieu de trouver un équilibre entre concepts techniques etsolutions commerciales qui ont une pérennité réduite. Il ne s’agitpas d’enseigner un environnement logiciel ou un périphérique, maisd’utiliser des périphériques pour percevoir les opportunités d’usagedans les processus industriels. Nous optons donc sur l’enseignementde la mise en place d’une chaîne numérique qui intègre destechnologies de réalité virtuelle ou de réalité augmen

    Human-Centric Co-Design of Model-Based System Architecture

    No full text
    International audienceModel-Based Systems Engineers, particularly those moving from software to systems engineering, claim that SysML-like notations, which are symbolic two-dimensional diagrams made of boxes and lines, are domain-independent, thus very convenient to support the cross-functional design of a system architecture. However, the abstract diagramming syntax of MBSE notations makes their adoption difficult, especially by notational nonexperts, and using iconic graphics is one way of improvement. Very few studies attempted to replace 2D diagrams with immersive 3D visuals without objective evidence. We assume that it is due to a lack of quality criteria to compare 2D diagrams with 3D visuals. This paper will argue that human-centric 3D visuals should replace MBSE diagrams where appropriate. A new human-centric MBSE modelling environment motivates the adoption of interactive and immersive 3D visuals to facilitate communication and participation in multidisciplinary co-design activities from mission to concept definition. Our claim is not supported by measured evidence, but a functional demonstrator provides observed evidence and, compared to existing studies, we discuss our proposal based on the Physics of Notation. Future studies will concentrate on the modelling of the behavioural and structural views and the definition of criteria to validate the human-centric MBSE modelling environment

    Benchmarking of 3D Modelling in Virtual Reality

    No full text
    International audienc
    corecore