46 research outputs found

    Couplage des réseaux bayésiens et des fonctions de croyance pour l'évaluation du risque.Application à la déconstruction d'avion

    Get PDF
    Cette communication a pour objectif de présenter des travaux sur la gestion des connaissances appliqués à la déconstruction des avions en fin de vie. Nous proposons un modèle utilisant les réseaux bayésiens pour évaluer les risques et nous présentons trois approches destinées à intégrer les fonctions de croyance dans le modèle d'évaluation des risques proposé

    Propositions de méthodologies pour la valorisation de la médecine traditionnelle fondées sur une ontologie

    Get PDF
    The work presented in this thesis focuses on the problematic of the valorization of traditional medicine. Traditional medicine is a very rich biological andcultural diversity. His practise is widespread and occurs in various forms. The valorization of this medicine is now a very important issue; it will capitalize this knowledge to popularize, and thus improve its performance in terms of diagnosis, treatment and cost. World Health Organization (WHO)proposes its integration into the national health system. But the practice and exercise of this medicine face many problems which make its implementation difficult. Among these problems, we can list the informal nature of its practice, its content is not formalized, its access mode is not determined, etc. We propose in this thesis, practices more efficient based on the new technology of information and communications; they based specifically on semantic resource such as the ontology which is the formal structure of an acquaintance. The methods proposed in this thesis allow to formalize the contents of this medicine, to facilitate its exercise and ultimately to succeed its revalorization.Le travail présenté dans cette thèse porte sur la problématique de la valorisation de la médecine traditionnelle. La médecine traditionnelle est d’une diversité biologique et culturelle très riche. Sa pratique est très répandue et se fait sous des formes variées . La valorisation de cette médecine constitue aujourd’hui un enjeu très important ; elle permettra de capitaliser ce savoir, de le vulgariser, et donc d’améliorer ses prestations en termes de diagnostic, de traitement et de coût. L’Organisation Mondiale de la Santé (OMS) propose, du reste, de l’intégrer dans le système national de santé. Mais la pratique et l’exercice de cette médecine rencontrent de nombreux problèmes qui rendent son application difficile. Parmi ces problèmes, nous pouvons relever le caractère informel de sa pratique, son contenu non formalisé, son mode d’accès non déterminé, etc. Nous proposons, dans cette thèse, des techniques de pratiques plus efficaces puisque basées sur les nouvelles technologies de l’information et de la communication ; celles-ci reposent plus spécifiquement sur la ressource sémantique telle que l’ontologie qui est la structuration formelle d’une connaissance. Les méthodes proposées dans cette thèse permettent de formaliser le contenu de cette médecine, pour en faciliter l’exercice et en définitive, pour aboutir à sa revalorisation

    Intégration du web sémantique dans un système d'aide à la décision pour le génie logiciel

    Get PDF
    Avoir à sa disposition des données et des connaissances et savoir à quoi elles servent c'est bien, savoir s'en servir c'est encore mieux. La qualité est un critère recherché dans tous les domaines. Dans des domaines qui font allusion aux objets matériels, il est facile de définir, d'observer et de savoir comment obtenir un produit fini de bonne qualité. Dans le domaine du génie logiciel, il est bien plus difficile de définir et d'observer la qualité d'un produit. On fait appel aux métriques, aux normes de qualité, aux modèles de qualité, etc., pour pouvoir déterminer, évaluer et améliorer la qualité d'un logiciel. Les résultats des études empiriques et les connaissances des experts à ce sujet ne sont malheureusement pas partagés avec tous les acteurs du domaine, ce qui entraine des interprétations différentes, la répétition des études ou l'ignorance de certains faits importants pour produire un logiciel de qualité. Dans le souci de permettre et faciliter le partage des connaissances et des données sur la qualité logicielle, nous avons exploité ce que le web sémantique offre (RDF, RDFS, OWL-DL). Nous avons aussi tiré avantage du web sémantique pour encourager la communauté du génie logiciel à unir leur savoir afin d'avoir la même compréhension et interprétation des données et connaissances sur la qualité logicielle. Nous avons réalisé une ontologie qui regroupe ces connaissances et données (modèles de qualité, attributs de qualité, métriques, etc.) indépendamment de leurs formats de sauvegarde. Nous avons mis cette ontologie à la disposition de tous et tout acteur avec le droit d'écriture peut apporter sa contribution à cet effort de centralisation, d'uniformisation et partage des connaissances. En faisant partie intégrante d'un système d'aide à la décision, cette ontologie est destinée à contribuer, dans les phases de conception, d'implémentation et de maintenance.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : modèles de qualité, métriques, web sémantique, ontologie

    Développement d'un système tutoriel intelligent pour l'apprentissage du raisonnement logique

    Get PDF
    Le raisonnement est un processus cognitif nous permettant de tirer à partir de règles, des conclusions sur des faits et situations de la vie. Il est considéré dans la littérature comme étant une partie intégrante de plusieurs autres processus humains comme la perception (résultat d'une combinaison inductive entre les senseurs et la mémoire), la catégorisation, la compréhension, la prise de décision, la résolution de problèmes. L'humain a tendance à effectuer des raisonnements erronés sans s'en rendre compte. Les erreurs de raisonnement seraient des inférences créatives dans un contexte où il aurait été approprié de faire une inférence déductive. L'acquisition de la compétence en raisonnement consiste alors à apprendre à être déductif et ainsi à acquérir des structures plus organisées pour mieux systématiser notre information et pour devenir cognitivement plus performants. L'avènement des technologies de l'information allié à l'évolution du domaine de l'Intelligence Artificielle, a permis le développement de systèmes tel que les systèmes tutoriels intelligents (STI). Ces systèmes sont caractérisés par le fait qu'ils permettent d'automatiser l'enseignement et de favoriser l'apprentissage sans l'intervention d'un tuteur humain. Ce projet vise le développement d'un STI générique appelé Muse-logique et dédié à l'apprentissage du raisonnement logique. Dans ce document, nous présentons en premier lieu la problématique et les objectifs de notre projet. Une étude détaillée des domaines en jeu est faite par la suite. Enfin, l'architecture, les éléments conceptuels et les résultats d'implémentation du système, sont exposés ainsi qu'une validation préliminaire du système. Le contenu et l'élaboration des différents composants du STI on fait l'objet d'un travail minutieux effectué avec la participation active des membres d'une équipe multidisciplinaire. Le composant expert est soutenu par un ensemble de règles du domaine. Le modèle cognitif de l'apprenant est soutenu par un réseau bayésien et enfin, le modèle pédagogique est soutenu par des règles tutorielles étudiées et validées théoriquement. La particularité et la robustesse de Muse-logique résident dans son cadre de développement composé d'experts en sciences cognitives, en systèmes tutoriels intelligent et en raisonnement logique. Des perspectives futures sont envisagées pour les prochaines versions.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : raisonnement logique, systèmes tutoriels intelligents, logique, système adaptatif, réseau bayésien, feedbacks, représentation des connaissances

    Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants

    Get PDF
    With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptationAvec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicil

    Le filtrage basé sur le contenu pour la recommandation de cours (FCRC)

    Get PDF
    RÉSUMÉ La recherche d'un cours sur un sujet précis dans un répertoire d'une ou de plusieurs universités peut s'avérer fastidieuse. Seulement à Montréal, on compte plusieurs milliers de cours universitaires offerts. Le problème est accentué par la multidisciplinarité de certains cours. Les étudiants de cycle supérieur sont responsables de ¬¬¬choisir leur plan d’études, les cours pertinents à leur domaine de recherche, mais ce n’est pas évident qu’ils puissent faire le bon choix des cours sans avoir besoin d’être guidés ou orientés. Encore, les étudiants du premier cycle ont souvent le problème du nombre de places limité dans un groupe de cours. Avec un outil permettant d'établir la similarité entre des cours, les étudiants pourraient trouver rapidement des cours similaires à ceux qui, pour une raison ou une autre, ne sont pas disponibles à un trimestre ou pour leur plan d’étude. A cette fin, plusieurs systèmes de filtrage ont été proposés, mais le filtrage basé sur le contenu pour la recommandation de cours, n’a jamais été abordé avant. L’objectif est de créer un système permettant d’établir la similarité entre les cours en se basant sur leurs descriptions et sur le calcul de leur distance dans un espace vectoriel . Ce mémoire présente le système FCRC (Filtrage basé Contenu pour la Recommandation de Cours) qui fournit des suggestions de cours sur la base de leur similarité sémantique. Les résultats montrent que la mesure de similarité basée sur le cosinus fournit des recommandations relativement précises et complètes. Le coefficient de Dice permet aussi d’obtenir de bons résultats. Ces deux mesures sont les plus performantes. Nous sommes arrivés à identifier plus que cinq cours les plus similaires à l’intérieur des dix premiers résultats.----------ABSTRACT Searching for courses on a topic in a university database or listing of courses can prove difficult. Strictly in Montreal universities, the number of courses range in the thousands. The problem is exacerbated by the fact that many courses are multidisciplinary. For graduate students in particular, who should look for courses on a topic related to their research, it implies that defining their course plan can be a difficult process that requires some assistance. Even when a course that is relevant is found, it often is not offered in the right semester or it is filled to capacity. Therefore, a system that provides a means of finding courses based on their similarity would prove very useful. A number of systems have been developed to provide course recommendations to students, but we aim to define an approach that is solely content-based, using the similarity of course descriptions. The algorithm is based on the vector-space model of the term-document matrix. This thesis presents the FCRC approach (content-based course recommender) which offers recommendations based on course similarity measures. Results show that the similarity measured on the cosine between document vectors offers relatively complete and precise recommendations. The Dice coefficient is also a good measure of similarity. In general, the first 5 of 10 recommendations are relevant based on this approach, and the recall rate is close to 100%

    Une approche autonome pour la gestion logicielle des espaces intelligents

    Get PDF
    Depuis une vingtaine d'années, les développements dans les technologies de l'information ont fait évoluer les paradigmes de l'informatique. L'arrivée d'approches telles que l'informatique diffuse et l'intelligence ambiante ont fait émerger de nouvelles technologies permettant d'améliorer la qualité des interactions avec les systèmes informatisés. Entre autres, l'application de l'informatique diffuse et de l'intelligence ambiante à des environnements tels que des habitats, les espaces intelligents, offre des milieux où une assistance contextualisée est offerte aux utilisateurs dans la réalisation de leurs activités quotidiennes. Toutefois, la démocratisation de l'informatique diffuse et la mise en place des espaces intelligents rencontrent un bon nombre de problèmes. Le nombre important de composantes matérielles et logicielles, les dépendances entre celles-ci et leurs natures hétérogènes contribuent à la complexité de déploiement et de gestion de ces milieux, entraînant des coûts élevés. Cette thèse vise à contribuer à la gestion logicielle des espaces intelligents par la réduction de la complexité des tâches de gestion. Notre proposition consiste en une approche autonome de la gestion logicielle, fondée sur l'approche de l'informatique diffuse autonome. L'objectif est de fournir un ensemble de fonctionnalités et de mécanismes permettant de rendre autonome la majeure partie des tâches de gestion des logiciels déployés dans des espaces intelligents. Dans le cadre de ce travail, nous proposons une solution permettant l'organisation autonome des logiciels des espaces intelligents. Ainsi, cette solution utilise les informations contextuelles des milieux afin de déterminer quelle répartition des logiciels parmi les appareils des milieux correspond le mieux aux besoins des applications, aux caractéristiques propres des environnements et, non le moindre, aux modalités et préférences d'interaction des utilisateurs de ces milieux. La solution proposée a été implémentée et évaluée à l'aide d'une série de tests et de mises en situation d'organisation logicielle. Les contributions de ce travail à l'état de l'art de la gestion des espaces intelligents sont multiples avec comme principales innovations la présentation d'une vision de l'informatique diffuse autonome, l'implémentation d'un intergiciel d'organisation logicielle autonome basé sur une sensibilité au contexte macroscopique et microscopique et l'intégration des modalités d'interaction des utilisateurs dans le raisonnement portant sur l'organisation des logiciels. Enfin, ce travail de thèse se déroule dans le contexte des recherches du laboratoire DO-MUS de l'Université de Sherbrooke, Canada, et du laboratoire Handicom de Telecom SudParis, France. Ces deux laboratoires travaillent à la conception de solutions permettant d' améliorer la qualité de vie et l' autonomie de personnes dépendantes, atteinte par exemple de troubles cognitifs ou de handicaps physiques

    Modélisation des signes dans les ontologies biomédicales pour l'aide au diagnostic.

    Get PDF
    Introduction : Établir un diagnostic médical fiable requiert l identification de la maladie d un patient sur la base de l observation de ses signes et symptômes. Par ailleurs, les ontologies constituent un formalisme adéquat et performant de représentation des connaissances biomédicales. Cependant, les ontologies classiques ne permettent pas de représenter les connaissances liées au processus du diagnostic médical : connaissances probabilistes et connaissances imprécises et vagues. Matériel et méthodes : Nous proposons des méthodes générales de représentation des connaissances afin de construire des ontologies adaptées au diagnostic médical. Ces méthodes permettent de représenter : (a) Les connaissances imprécises et vagues par la discrétisation des concepts (définition de plusieurs catégories distinctes à l aide de valeurs seuils ou en représentant les différentes modalités possibles). (b) Les connaissances probabilistes (les sensibilités et les spécificités des signes pour les maladies, et les prévalences des maladies pour une population donnée) par la réification des relations ayant des arités supérieures à 2. (c) Les signes absents par des relations et (d) les connaissances liées au processus du diagnostic médical par des règles SWRL. Un moteur d inférences abductif et probabiliste a été conçu et développé. Ces méthodes ont été testées à l aide de dossiers patients réels. Résultats : Ces méthodes ont été appliquées à trois domaines (les maladies plasmocytaires, les urgences odontologiques et les lésions traumatiques du genou) pour lesquels des modèles ontologiques ont été élaborés. L évaluation a permis de mesurer un taux moyen de 89,34% de résultats corrects. Discussion-Conclusion : Ces méthodes permettent d avoir un modèle unique utilisable dans le cadre des raisonnements abductif et probabiliste, contrairement aux modèles proposés par : (a) Fenz qui n intègre que le mode de raisonnement probabiliste et (b) García-crespo qui exprime les probabilités hors du modèle ontologique. L utilisation d un tel système nécessitera au préalable son intégration dans le système d information hospitalier pour exploiter automatiquement les informations du dossier patient électronique. Cette intégration pourrait être facilitée par l utilisation de l ontologie du système.Introduction: Making a reliable medical diagnosis requires the identification of the patient s disease based on the observation of signs. Moreover, ontologies provide an adequate and efficient formalism for medical knowledge representation. However, classical ontologies do not allow representing knowledge associated with medical reasoning such as probabilistic, imprecise, or vague knowledge. Material and methods: In the current work, general knowledge representation methods are proposed. They aim at building ontologies fitting to medical diagnosis. They allow to represent: (a) imprecise or vague knowledge by discretizing concepts (definition of several distinct categories thanks to threshold values or by representing the various possible modalities), (b) probabilistic knowledge (sensitivity, specificity and prevalence) by reification of relations of arity greater than 2, (c) absent signs by relations and (d) medical reasoning and reasoning on the absent signs by SWRL rules. An abductive reasoning engine and a probabilistic reasoning engine were designed and implemented. The methods were evaluated by use of real patient records. Results: These methods were applied to three domains (the plasma cell diseases, the dental emergencies and traumatic knee injuries) for which the ontological models were developed. The average rate of correct diagnosis was 89.34 %. Discussion-Conclusion: In contrast with other methods proposed by Fenz and García-crespo, the proposed methods allow to have a unique model which can be used both for abductive and probabilistic reasoning. The use of such a system will require beforehand its integration in the hospital information system for the automatic exploitation of the electronic patient record. This integration might be made easier by the use of the ontology on which the system is based.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Assistance Ă  la construction et Ă  la comparaison de techniques de diagnostic des connaissances

    Get PDF
    Comparing and building knowledge diagnostic is a challenge in the field of Technology Enhanced Learning (TEL) systems. Knowledge diagnostic aims to infer the knowledge mastered or not by a student in a given learning domain (like mathematics for high school) using student traces recorded by the TEL system. Knowledge diagnostics are widely used, but they strongly depend on the learning domain and are not well formalized. Thus, there exists no method or tool to build, compare and evaluate different diagnostics applied on a given learning domain. Similarly, using a diagnostic in two different domain usually imply to implementing almost both from scratch. Yet, comparing and reusing knowledge diagnostics can lead to reduce the engineering cost, to reinforce the evaluation and finally help knowledge diagnostic designers to choose a diagnostic. We propose a method, refine in a first platform, to assist knowledge diagnostic designers to build and compare knowledge diagnostics, using a new formalization of the diagnostic and student traces. To help building diagnostics, we used a semi-automatic machine learning algorithm, guided by an ontology of the traces and the knowledge designed by the designer. To help comparing diagnostics, we use a set of comparison criteria (either statistical or specific to the field of TEL systems) applied on the results of each diagnostic on a given set of traces. The main contribution is that our method is generic over diagnostics, meaning that very different diagnostics can be built and compared, unlike previous work on this topic. We evaluated our work though three experiments. The first one was about applying our method on three different domains and set of traces (namely geometry, reading and surgery) to build and compare five different knowledge diagnostics in cross validation. The second experiment was about designing and implementing a new comparison criteria specific to TEL systems: the impact of knowledge diagnostic on a pedagogical decision, the choice of a type of help to give to a student. The last experiment was about designing and adding in our platform a new diagnostic, in collaboration with an expert in didactic.Cette thèse aborde la thématique de la comparaison et de la construction de diagnostics des connaissances dans les Environnements Informatiques pour l'Apprentissage Humain (EIAH). Ces diagnostics sont utilisés pour déterminer si les apprenants maîtrisent ou non les connaissances ou conceptions du domaine d'apprentissage (par exemple math au collège) à partir des traces collectées par l'EIAH. Bien que ces diagnostics soient récurrents dans les EIAH, ils sont fortement liés au domaine et ne sont que peu formalisés, si bien qu'il n'existe pas de méthode de comparaison pour les positionner entre eux et les valider. Pour la même raison, utiliser un diagnostic dans deux domaines différents implique souvent de le redévelopper en partie ou en totalité, sans réelle réutilisation. Pourtant, pouvoir comparer et réutiliser des diagnostics apporterait aux concepteurs d'EIAH plus de rigueur pour le choix, l'évaluation et le développement de ces diagnostics. Nous proposons une méthode d'assistance à la construction et à la comparaison de diagnostics des connaissances, réifiée dans une première plateforme, en se basant sur une formalisation du diagnostic des connaissances en EIAH que nous avons défini et sur l'utilisation de traces d'apprenant. L'assistance à la construction se fait via un algorithme d'apprentissage semi-automatique, guidé par le concepteur du diagnostic grâce à une ontologie décrivant les traces et les connaissances du domaine d'apprentissage. L'assistance à la comparaison se fait par application d'un ensemble de critères de comparaison (statistiques ou spécifiques aux EIAH) sur les résultats des différents diagnostics construits. La principale contribution au domaine est la généricité de notre méthode, applicable à un ensemble de diagnostics différents pour tout domaine d'apprentissage. Nous évaluons notre travail à travers trois expérimentations. La première porte sur l'application de la méthode à trois domaines différents (géométrie, lecture, chirurgie) en utilisant des jeux de traces en validation croisée pour construire et appliquer les critères de comparaison sur cinq diagnostics différents. La seconde expérimentation porte sur la spécification et l'implémentation d'un nouveau critère de comparaison spécifique aux EIAH : la comparaison des diagnostics en fonction de leur impact sur une prise de décision de l'EIAH, le choix d'un type d'aide à donner à l'apprenant. La troisième expérimentation traite de la spécification et de l'ajout d'un nouveau diagnostic dans notre plateforme, en collaborant avec une didacticienne

    Amélioration des techniques d'optimisation combinatoire par retour d'expérience dans le cadre de la sélection de scénarios de Produit/Projet

    Get PDF
    La définition et l’utilisation d'un modèle couplant la conception de produit et la conduite du projet dès les phases amont de l’étude d’un système correspondent à une forte demande industrielle. Ce modèle permet la prise en compte simultanée de décisions issues des deux environnements produit/projet mais il représente une augmentation conséquente de la dimension de l'espace de recherche à explorer pour le système d'aide à la décision, notamment lorsque il s'agit d'une optimisation multiobjectif. Les méthodes de type métaheuristique tel que les algorithmes évolutionnaires, sont une alternative intéressante pour la résolution de ce problème fortement combinatoire. Ce problème présente néanmoins une particularité intéressante et inexploitée : Il est en effet courant de réutiliser, en les adaptant, des composants ou des procédures précédemment mis en œuvre dans les produits/projets antérieurs. L'idée mise en avant dans ce travail consiste à utiliser ces connaissances « a priori » disponibles afin de guider la recherche de nouvelles solutions par l'algorithme évolutionnaire. Le formalisme des réseaux bayésiens a été retenu pour la modélisation interactive des connaissances expertes. De nouveaux opérateurs évolutionnaires ont été définis afin d'utiliser les connaissances contenues dans le réseau. De plus, le système a été complété par un processus d'apprentissage paramétrique en cours d'optimisation permettant d'adapter le modèle si le guidage ne donne pas de bons résultats. La méthode proposée assure à la fois une optimisation plus rapide et efficace, mais elle permet également de fournir au décideur un modèle de connaissances graphique et interactif associé au projet étudié. Une plateforme expérimentale a été réalisée pour valider notre approche. ABSTRACT : The definition and use of a model coupling product design and project management in the earliest phase of the study of a system correspond to a keen industrial demand. This model allows simultaneous to take into account decisions resulting from the two environments (product and project) but it represents a consequent increase of the search space dimension for the decision-making system, in particular when it concerns a multiobjective optimization. Metaheuristics methods such as evolutionary algorithm are an interesting way to solve this strongly combinative problem. Nevertheless, this problem presents an interesting and unexploited characteristic: It is indeed current to re-use, by adapting them, the components or the procedures previously implemented in pasted product or project. The idea proposed in this work consists in using this “a priori” knowledge available in order to guide the search for new solutions by the evolutionary algorithm. Bayesian network was retained for the interactive modeling of expert knowledge. New evolutionary operators were defined in order to use knowledge contained in the network. Moreover, the system is completed by a process of parametric learning during optimization witch make it possible to adapt the model if guidance does not give good results. The method suggested ensures both a faster and effective optimization, but it also makes it possible to provide to the decision maker a graphic and interactive model of knowledge linked to studied project. An experimental platform was carried out to validate our approach
    corecore