89 research outputs found

    Extraction et intégration des données à partir des pages WEB

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Aide à la Facilitation pour une prise de Décision Collective : Proposition d'un Modèle et d'un Outil

    Get PDF
    Decision Support Systems (DSS) were designed to resolve ill or non-structured decision problems. Problems where priorities, judgements, intuitions and experience of the decision-maker are essential, where the sequence of operations such as searching for a solution, formalization and structuring of problem is not beforehand known, when criteria for the decision making are numerous, in conflict or hard dependent on the perception of the user and where resolution must be acquired at restricted time. However, traditional DSS have been closed systems and are limited to the data and models contained within the system. In general, the type of support provided is relatively passive because decision makers are expected to scan internal and external data, and find discrepancies and deviations from expectations invoking ad hoc queries and reports that run on operational databases. In the other hand, Furthermore, many mission-critical, decision making situations happen in dynamic, rapidly changing, and often unpredictable distributed environments and require synchronous cooperative session. Unlike other decision making tools, decision support systems (DSS) designed for such situations are challenged by the need to access this decentralised information at time, from anywhere, under tight time constraints. In this thesis we consider, the paradigm of distributed decision-support systems where several decision-makers must reach a common decision. As a solution we propose an integrated framework based on a distributed architecture based on two cooperation modes: (1) Man-machine cooperation (2) Mediated man-man cooperation. According to the former cooperation mode, each decision-maker uses a specific cooperative intelligent decision support system allowing him to solve problem and to generate alternative solutions. The support system is viewed as a set of computer-based tools integrating expert knowledge and using collaboration technologies that help decision-makers and provide them with interactive capabilities to enhance their understanding and information base about options through use of models and data processing. By endowing the machine of additional capacities to intelligently guide the decision maker in its problem solving process, the system plays a collaborator's role with the decision-maker. This implies a human decision-maker and an automated system sharing dynamically the tasks and jointly working towards a decision. We assume that putting the human operator effectively in the loop of such decision support system represents the major guarantee of mastering efficiently the inherent complexity of the problems. Whilst considering the latter mode, The Group Decision Support (GDSS) tools allow the group of decision makers and the facilitator to make collective decision. This kind of cooperation uses a machine as an intermediate communication medium. As many group facilitation tasks can be automated, at least partially to increase the bandwidth of group communication and the ability of the facilitator to monitor and control the meeting process, an automated process to aid even the most inexperienced facilitator. The support to facilitators is considered by incorporating a model of the decision making process. The selected model provides a detailed view of decision making process. Having a model of the decision making process built into the system should enable intelligent decisional guidance. It enables the facilitator to appropriately choose and use the framework's tools and techniques in the group decision-making processes, to monitor group's behaviour, to know when to employ particular tools and techniques to move the group towards congruence. and to provide cues and customized explanations accordingly. We illustrate the applicability and relevance of this framework through a case study related to the management system of the boiler combustion which is one of the most critical systems for the good functioning of an oil plant. It has a high impact on the methods of thinking and apprehension of various problems related to maintenance. It is a multi-participant process with high level interactivity.Nous nous plaçons dans le contexte de situations décisionnelles critiques où les activités de prise de décision collective sont généralement caractérisées par des sessions de coopération synchrones au sein d'environnements distribués dynamiques, évolutifs et souvent imprévisibles. Au cours de ces sessions, les participants agissent simultanément et depuis des points d'accès distribués sur des objets partagés en suivant des règles de coordination pouvant être implicites ou explicites et en utilisant un ensemble d'outils qui leur permettent de progresser de façon coordonnée. Chacun des participants prend quelques décisions partielles, celles-ci servant de base aux suivantes. La prise de décision nécessite alors une synergie d'efforts de plusieurs membres afin que chacun d'eux mette à contribution son savoir-faire. Les membres ayant différents intérêts, compétences et expériences ne sont plus situés dans la même pièce mais utilisent des informations venant d'autres acteurs via des réseaux de type Internet ou intranet. D'ailleurs, c'est grâce à cette synergie que les membres peuvent atteindre des résultats supérieurs à ceux que qu'ils auraient pu réaliser individuellement. Ainsi l'outil pour décider devient l'outil pour décider ensemble. La contribution principale de cette thèse dans le domaine d'aide à la facilitation de la prise de décision collaborative se trouve dans la conception et la mise en œuvre d'un modèle et d'un système dédiée à la facilitation de la prise de décision de groupe synchrone distribuée. Cette structure collective entre agents humains permet d'une part d'additionner et de mutualiser les savoirs et les capacités créatrices, et d'autre part de limiter l'incertitude inhérente au processus de prise de décision par l'échange et la comparaison des points de vue. L'idée directrice de ce modèle est de renforcer la communication ainsi que la coopération entre les différents acteurs impliqués dans la prise de décision collective. Il s'agit d'une phase de production et de résolution créative de problème individuelle précédant la présentation des contributions au collectif. Cette dynamique d'éclatement puis de regroupement implique des mécanismes de coopération et de communication entre le groupe et l'individu

    Un système multi-agents pour la gestion des connaissances hétérogènes et distribuées

    Get PDF
    La gestion des connaissances permet d'identifier et de capitaliser les savoirs faires de l'entreprise afin de les organiser et de les diffuser. Cette thèse propose un système de gestion des connaissances hétérogènes et distribuées, appelé OCEAN. Basé sur les ontologies et sur un système multi-agents, OCEAN a pour but de résoudre le problème de la capitalisation et de réutilisation des connaissances provenant de plusieurs sources différentes, afin d aider les acteurs métiers dans le processus de développement de produits mécaniques. Le système OCEAN repose sur un cycle de vie de quatre étapes Ce cycle de vie possède les phases : d identification, d extraction, de validation et se termine par la réutilisation des connaissances. Chaque phase constitue l objectif d une organisation d agents.L identification dans le système OCEAN consiste à définir les connaissances par un expert métier sous la forme d une ontologie. Les ontologies sont utilisées dans notre système pour représenter les connaissances définis d une façon structurée et formelle afin d être compréhensible par les machines. L extraction des connaissances dans OCEAN est réalisée par les agents de manière automatique à l aide des ontologies créées par les experts métiers. Les agents interagissent avec les différentes applications métiers via des services web. Le résultat de cette phase est stocké dans une mémoire organisationnelle. La validation des connaissances consiste à permettre aux acteurs métiers de valider les connaissances de la mémoire organisationnelle dans un wiki sémantique. Ce wiki permet de présenter les connaissances de la mémoire organisationnelle aux acteurs pour les réutiliser, les évaluer et les faire évoluer. La réutilisation des connaissances dans OCEAN est inspiré de travaux antérieurs intégrés au sein d OCEAN. Les quatre phases du cycle de vie des connaissances traitées dans cette thèse nous ont permis de réaliser un système apte à gérer les connaissances hétérogènes et distribuées dans une entreprise étendue.Among the goals of Knowledge Management we can cite the identification and capitalization of the know-how of companies in order to organize and disseminate them. This thesis proposes a heterogeneous and distributed knowledge management system, called OCEAN. Based on ontologies and multi-agents system, OCEAN aims to solve the problem of capitalization and reuse of multi-sources knowledge in order to assist business actors in the development process of mechanical products. The OCEAN system is based on a knowledge life cycle composed by four steps. This knowledge life cycle begins with the identification then extraction, validation and finishes with knowledge reuse. Each step is the goal of an organization of agents.The identification in OCEAN system consists in the definition of knowledge by a business expert with an ontology. Ontologies are used in our system to represent the knowledge, defined by the business expert, in a structured and formal way in order to be understandable by machines. Agents according to the ontology defined by business experts realize knowledge extraction in OCEAN automatically. Agents interact with professional softwares via web services. The result of this extraction is stored in an organizational memory (OM). Validation of knowledge in OCEAN relies on business actors that validate the knowledge of the OM in a semantic wiki. This wiki allows also the presentation of this knowledge to business actors in order to reuse, evaluate or evolve it. Previous works, integrated within OCEAN, inspires the knowledge reuse step. The four steps lifecycle discussed in this thesis has enabled us to achieve a system that can manage heterogeneous and distributed knowledge in an extended enterprise.BELFORT-UTBM-SEVENANS (900942101) / SudocSudocFranceF

    Contribution à la spécification et à l'élaboration d'une plateforme de maintenance orientée connaissances

    Get PDF
    Le maintien en condition opérationnelle des équipements industriels est un des enjeux importants de l'entreprise, et a fait passer la maintenance d'un centre de coût à un centre de profit, ce qui a eu pour conséquence une éclosion de logiciels d'aide à la maintenance allant de la GMAO aux plateformes de e-maintenance. Ces systèmes d'aide fournissent aux différents acteurs de la maintenance, un support à la décision et un ensemble de services permettant une gestion informatisée d'activités de base appartenant au processus de maintenance (exemple l'intervention, la planification, le diagnostic, etc.). Toutefois, les besoins des utilisateurs évoluent dans le temps en fonction de nouvelles contraintes, de leur expertise, des nouvelles connaissances. Par contre les services fournis n'évoluent pas et nécessitent une réactualisation. Afin de tenir compte de l'évolution de ces connaissances, pour que ces systèmes d'aide puissent répondre aux besoins des utilisateurs et puissent proposer des services à la demande et des services évolutifs nous avons fait le point dans cette thèse sur les avantages et limites des systèmes informatiques d'aide existants notamment les plateformes de e-maintenance (systèmes les plus avancés aujourd'hui en maintenance). Pour pallier le manque des systèmes existants, nous avons proposé le concept de s-maintenance qui est caractérisé principalement par les échanges collaboratifs entre applications et utilisateurs, par des connaissances communes du domaine de maintenance. Pour mettre en œuvre ce concept, nous avons proposé une plateforme orientée connaissances assurant des fonctionnalités auto-x (auto-traçabilité, auto-apprentissage, autogestion) qui permettent de répondre aux caractéristiques de la s-maintenance. L'architecture à base de composants de cette plateforme prend appui sur une base de connaissances partagée entre les différents composants qu'elle intègre au profit de l'interopérabilité sémantique ainsi que de la capitalisation des connaissances. Nous avons par ailleurs développé une ontologie du domaine de maintenance sur laquelle s'appuie cette base de connaissances. Finalement, afin de développer les fonctionnalités auto-x assurées par la plateforme nous avons proposé un système à base de traces exploitant la base de connaissances et l'ontologie associéeOperational condition maintenance of industrial equipment is a principal challenge for the firm production. This fact transfer the maintenance from the cost center to the profit center which has lead to massif development of maintenance support system starting from the GMAO to the e-maintenance platform. These systems provide to the maintenance agent, decision-support, and set of services allowing a computerized management of core activities for maintenance process. (e.g. intervention, planning, diagnostic,...). However, the user request continues evolving in time with respect of their expertise, their renewed knowledge and new constraints. On the other hand, the existing services are not following their requirements and they need to be updated. In this thesis, an overview on the advantage and drawback of existing computerized support system, in particular the e-maintenance platform (the most advanced maintenance system) is presented in order to meet the users needs and propose scalable and on-demand services. To overcome the existing system shortage, we propose the s-maintenance concept characterized by the collaborative exchange between users and applications and the common knowledge of the maintenance field. Thus, to implement this concept, a knowledge-oriented platform is proposed providing the auto-x functionalities (auto-traceability, auto-learning and auto-management) and meeting the s-maintenance characteristics. The architecture based on components of this platform, is also based on shared knowledge between integrated components for the benefit of the semantic interoperability as well as for the knowledge capitalization. Maintenance domain ontology is also developed on which the knowledge base is rested. Finally, in order to develop the auto-x functionalities, provided by the platform, a trace-based system is proposed by exploiting the knowledge base and the associated ontology.BESANCON-Bib. Electronique (250560099) / SudocSudocFranceF

    Towards a maintenance semantic architecture.

    No full text
    International audienceTechnological and software progress with the evolution of processes within company have highlighted the need to evolve systems of maintenance process from autonomous systems to cooperative and sharing information system based on software platform. However, this need gives rise to various maintenance platforms. The first part of this study investigates the different types of existing industrial platforms and characterizes them compared to two criteria namely : information exchange and relationship intensity. This allowed identifying the e-maintenance architecture as the current most efficient architecture. despite its effectiveness, this latter can only guarantee technical interoperability between various components. Therefore, the second part of this study proposes a semantic-knowledge based architecture, thereby ensuring a higher level of semantic interoperability. To this end, specific maintenance ontology has been developed

    Agents mobiles coopérants pour les environnements dynamiques

    Get PDF
    A partir de l'étude de la mobilité dans les paradigmes de programmation pour les systèmes distribués et des différents architectures réseaux, et principalement celles sans-fils, nous avons pu identifier le problème de la gestion des unités mobiles (PDA, smartphone, ...) lorsque l'on souhaite les intégrer dans Internet. Leurs déplacements introduisent un fort dynamisme matériel qui ne permet plus d'utiliser les techniques classiques d'un internet et d'obtenir un système gérant globalement la localisation de toutes les unités. Cette absence de gestion globale remet en cause les méthodes classiques de conception fondées sur un système offrant une représentation stable de l'environnements. Dans ce contexte, nous avons étudié la conception basée sur les agents mobiles, programmes se déplaçant de site en site de manière autonome, afin de démontrer leur utilité dans des environnements dynamiques à l'échelle d'Internet, et ce, en l'absence d'un système capable de gérer la localisation globale. ABSTRACT : From the study of programming paradigms used in distributed systems and recent network architectures, especially wireless ones, we distinguish the problem of mobile unit management (PDA, smartphone, ...) when they are involved in the Internet. Their mobility introduces a high physical dynamism which leads to reconsider design patterns used in an intranet. Such systems do not allow to provide a global view of the distribution. This absence of global view implies to revisit classical design approaches based upon a system supplying a stable context representation. Therefore, we have studied a design approach based upon mobile agents, namely programs moving from site to site in an autonomous way. We demonstrate their usefulness in such dynamic environments at large scale in the Internet, in which there exits non global location service

    Systèmes interactifs auto-adaptatifs par systèmes multi-agents auto-organisateurs : application à la personnalisation de l'accès à l'information

    Get PDF
    Les réseaux de systèmes d'information tendent à devenir de plus en plus complexes en raison de leur hétérogénéité, de leur dynamique et de leur croissance permanente. Afin de gérer cette complexité et ces problèmes de surcharge informationnelle, les moteurs de recherche actuels s'appuient sur la notion de profil usager qui représente les centres d'intérêts, les préférences et les besoins d'un individu. Or, ces techniques dérivées de la recherche d'information et de l'apprentissage artificiel ne proposent pas de solution réellement adaptative pour la prise en compte de l'aspect évolutif du profil et le respect de la vie privée de l'utilisateur. Nous proposons d'exploiter le paradigme des systèmes multi-agents, et plus spécifiquement l'approche par AMAS (Adaptive Multi-Agent System), pour apporter une solution distribuée à la personnalisation et à l'adaptation des services offerts aux utilisateurs. Nos contributions portent tout d'abord sur l'évaluation adaptative et personnalisée du feedback implicite de l'utilisateur, puis sur la construction adaptative de son profil à partir de documents textuels représentant ses intérêts. Elles proposent également une plateforme nommée SWAPP dédiée à la recherche d'information personnalisée sur le Web. Ce cadre applicatif a permis d'expérimenter nos deux premières contributions individuellement, puis conjointement. Cette évaluation simultanée a mis en évidence un nouveau problème théorique : le couplage de deux AMAS conçus de manière totalement indépendante. Ce travail propose ainsi une première approche pour la conception de systèmes de systèmes auto-adaptatifs.Networks of information systems are becoming more and more complex due to their heterogeneity, their dynamics and their continuous growing. In order to cope with this information overload and this complexity, nowadays search engines make use of the notion of user profile that aim to model main interests, preferences and user's needs. Nevertheless, these techniques, derived from information retrieval and artificial learning research field, does not represent truly adaptive solutions able to cope with user profiles evolutions and to ensure user's privacy. Faced to these challenges, we propose to use the multi-agent system paradigm, and more specifically the AMAS approach (Adaptive Multi-Agent System), in order to provide a distributed solution for the personalisation and the adaptation of services and information access. Our first contribution consists in the adaptive and personalised evaluation of user implicit feedback. The second contribution studies the adaptive modelling of user profile from textual documents that represents its interests. We also propose the SWAPP platform which is dedicated to the evaluation of our approach to the web personalised information retrieval. After the individual experimentation and validation of these two first contributions within this applicative framework, they have been evaluated together. This last evaluation underlined a new theoretical problem : the coupling of two AMAS that were independently designed. Thus, this study proposes a first approach for the design of systems of self-adaptive systems

    Modèle multi-agents pour le filtrage collaboratif de l'information

    Get PDF
    Les systèmes de recommandation sont nés de la volonté de pallier le problème de surcharge d'information du web. Combinant des techniques de filtrage d'information, personnalisation, intelligence artificielle, réseaux sociaux et interaction personne-machine, les systèmes de recommandation fournissent à des utilisateurs des suggestions qui répondent à leurs besoins et préférences informationnelles. En effet, les systèmes de recommandation sont particulièrement sollicités dans les applications de commerce électronique. Cependant, ce type de système a été en grande partie confiné à une architecture centralisée. Récemment, l'architecture distribuée a connu une popularité croissante, comme en témoigne par exemple, les réseaux pair-à-pair (« peer-to-peer »), le calcul distribué (« Grid computing »), le web sémantique, etc., et s'impose peu à peu comme une alternative à l'approche client/serveur classique. L'hypothèse des chercheurs est que les systèmes de recommandation peuvent tirer profit d'une architecture distribuée. Dans cette thèse, nous étudions les défis que posent les systèmes de recommandation distribués et nous proposons une nouvelle architecture pair-à-pair, de filtrage collaboratif, basée sur la discrimination du voisinage. Nous étudions l'évolution de la performance, de la couverture et de la qualité des prédictions pour différentes techniques de recommandation. En outre, nous identifions la méthode de recommandation la plus efficace pour cette nouvelle architecture pair-à-pair. Bien que cette thèse se concentre essentiellement sur le domaine décentralisé de système de recommandation, nos contributions ne se limitent pas strictement à ce domaine de recherche. En effet, ces contributions touchent des problèmes de recherche dans plusieurs autres domaines de recherche (système multi-agents, gestions profils utilisateurs, réduction de la complexité computationnelle, collecte des préférences utilisateurs, PageRank, etc.). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Filtrage de l'information, Filtrage collaboratif, Système de recommandation, Système distribué, Agent social

    Modèles et protocoles de cohérence de données, décision et optimisation à la compilation pour des architectures massivement parallèles.

    Get PDF
    Manycores architectures consist of hundreds to thousands of embedded cores, distributed memories and a dedicated network on a single chip. In this context, and because of the scale of the processor, providing a shared memory system has to rely on efficient hardware and software mechanisms and data consistency protocols. Numerous works explored consistency mechanisms designed for highly parallel architectures. They lead to the conclusion that there won't exist one protocol that fits to all applications and hardware contexts. In order to deal with consistency issues for this kind of architectures, we propose in this work a multi-protocol compilation toolchain, in which shared data of the application can be managed by different protocols. Protocols are chosen and configured at compile time, following the application behaviour and the targeted architecture specifications. The application behaviour is characterized with a static analysis process that helps to guide the protocols assignment to each data access. The platform offers a protocol library where each protocol is characterized by one or more parameters. The range of possible values of each parameter depends on some constraints mainly related to the targeted platform. The protocols configuration relies on a genetic-based engine that allows to instantiate each protocol with appropriate parameters values according to multiple performance objectives. In order to evaluate the quality of each proposed solution, we use different evaluation models. We first use a traffic analytical model which gives some NoC communication statistics but no timing information. Therefore, we propose two cycle- based evaluation models that provide more accurate performance metrics while taking into account contention effect due to the consistency protocols communications.We also propose a cooperative cache consistency protocol improving the cache miss rate by sliding data to less stressed neighbours. An extension of this protocol is proposed in order to dynamically define the sliding radius assigned to each data migration. This extension is based on the mass-spring physical model. Experimental validation of different contributions uses the sliding based protocols versus a four-state directory-based protocol.Le développement des systèmes massivement parallèles de type manycores permet d'obtenir une très grande puissance de calcul à bas coût énergétique. Cependant, l'exploitation des performances de ces architectures dépend de l'efficacité de programmation des applications. Parmi les différents paradigmes de programmation existants, celui à mémoire partagée est caractérisé par une approche intuitive dans laquelle tous les acteurs disposent d'un accès à un espace d'adressage global. Ce modèle repose sur l'efficacité du système à gérer les accès aux données partagées. Le système définit les règles de gestion des synchronisations et de stockage de données qui sont prises en charge par les protocoles de cohérence. Dans le cadre de cette thèse nous avons montré qu'il n'y a pas un unique protocole adapté aux différents contextes d'application et d'exécution. Nous considérons que le choix d'un protocole adapté doit prendre en compte les caractéristiques de l'application ainsi que des objectifs donnés pour une exécution. Nous nous intéressons dans ces travaux de thèse au choix des protocoles de cohérence en vue d'améliorer les performances du système. Nous proposons une plate-forme de compilation pour le choix et le paramétrage d'une combinaison de protocoles de cohérence pour une même application. Cette plate- forme est constituée de plusieurs briques. La principale brique développée dans cette thèse offre un moteur d'optimisation pour la configuration des protocoles de cohérence. Le moteur d'optimisation, inspiré d'une approche évolutionniste multi-objectifs (i.e. Fast Pareto Genetic Algorithm), permet d'instancier les protocoles de cohérence affectés à une application. L'avantage de cette technique est un coût de configuration faible permettant d'adopter une granularité très fine de gestion de la cohérence, qui peut aller jusqu'à associer un protocole par accès. La prise de décision sur les protocoles adaptés à une application est orientée par le mode de performance choisi par l'utilisateur (par exemple, l'économie d'énergie). Le modèle de décision proposé est basé sur la caractérisation des accès aux données partagées selon différentes métriques (par exemple: la fréquence d'accès, les motifs d'accès à la mémoire, etc). Les travaux de thèse traitent également des techniques de gestion de données dans la mémoire sur puce. Nous proposons deux protocoles basés sur le principe de coopération entre les caches répartis du système: Un protocole de glissement des données ainsi qu'un protocole inspiré du modèle physique du masse-ressort
    • …
    corecore