1,189 research outputs found

    Méthodologie d’aide à l’innovation par l’exploitation des brevets et des phénomènes physiques impliqués

    Get PDF
    The aim of this thesis work is the development of a methodology for knowledge extraction from patents to assist design engineers in the industrial problem-solving phase. The methodology is based on three pillars: definition, search / analysis and innovation. A comprehensive definition of the main function of the industrial system delimits the research field and allows the retrieval of initial keywords through a detailed analysis of what is currently available. The iterative patent search is based on functional decomposition and physical analysis. The analysis phase uses energy functional decomposition to identify energies, transmitted functional flows and physical phenomena involved in the energy conversion process in order to select potentially relevant physical effects. To delineate the exploration field we formulate search queries from a keywords database composed by initial, physical, and technological keywords. A discovery matrix based on the intersections between these keywords allows the classification of pertinent patents. The research for innovation opportunities exploits the discovery matrix in order to decipher the evolutionary trends followed by inventions. Opportunities are deduced from an analysis of the discovery matrix empty cells, an analysis of the evolution trends, and from changing the concept by energy converter substitution. We propose evolution trends constructed from the evolution laws of TRIZ theory, design heuristics, and rules of the art of the engineering. An application case concerning the study of the evolution and the proposal of innovative biphasic separation systems in deep offshore highlights the method.L’objectif de ce travail de thèse est de développer une méthodologie d’extraction de connaissances à partir de brevets pour aider les concepteurs dans la phase de résolution de problèmes industriels. La méthodologie est fondée sur trois piliers : la définition, la recherche / analyse et l’innovation. La définition exhaustive de la fonction principale du système industriel cible le champ de recherche et permet la récupération de mots clés initiaux grâce à une analyse approfondie de l’existant. La recherche itérative des brevets se base sur la décomposition fonctionnelle et sur l’analyse physique. L’analyse intègre la décomposition fonctionnelle énergétique pour déceler les énergies, les flux fonctionnels transmis et les phénomènes physiques impliqués dans le processus de conversion énergétique afin de sélectionner des effets physiques potentiellement pertinents. Pour délimiter le champ d’exploration nous formulons des requêtes de recherche à partir d’une base de données de mots clés constituée par des mots clés initiaux, des mots clés physiques et des mots clés technologiques. Une matrice des découvertes basée sur les croisements entre ces mots clés permet le classement des brevets pertinents. La recherche des opportunités d’innovation exploite la matrice des découvertes pour déceler les tendances évolutives suivies par les inventions. Les opportunités sont déduites à partir de l’analyse des cellules non pourvues de la matrice des découvertes, de l’analyse par tendances d’évolution et du changement de concept par la substitution du convertisseur énergétique. Nous proposons des tendances d’évolution construites à partir de lois d’évolution de la théorie TRIZ, d’heuristiques de conception et de règles de l’art de l’ingénieur. Un cas d’application concernant l’étude d’évolution et la proposition de nouveaux systèmes de séparation de mélanges bi-phasiques en offshore profond met en valeur la méthode

    Élaboration d'un outil d'intelligence compétitive utile à la gestion stratégique en PME

    Get PDF
    Dans l’environnement économique moderne, les capacités des gestionnaires à accéder à l’information qui concerne les performances de l’entreprise et l’état de son marché sont essentielles. Dans l’optique où les entreprises évoluent dans des marchés de plus en plus changeants, l’analyse de l’environnement externe, soit l’Intelligence compétitive, doit faire partie intégrante du processus de planification stratégique des entreprises. L’arrivée du Web 2.0 et des technologies Big Data promettent un changement important dans la façon dont les entreprises implanteront ou modifieront leurs pratiques d’Intelligence compétitive. Cette recherche a pour objectif principal de développer et de vérifier la pertinence d’un outil d’Intelligence compétitive novateur qui s’intègre à la gestion stratégique d’une PME. Dans une perspective des technologies de l’information, la conception de ce type d’outil, que nous appelons écran stratégique, s’inspire des meilleurs pratiques et des technologies de l’Intelligence d’affaires, du Big Data et de la visualisation de l’information en vue d’exploiter le Web 2.0 comme principale source de données. Les écrans stratégiques sont en quelques sortes une version du tableau de bords adaptés au contexte et aux besoins spécifiques de l’Intelligence compétitive. Pour en arriver à proposer un prototype, la méthodologie de recherche Design Science identifie deux étapes, soit la conception de l'artéfact et son évaluation. D’abord, une méthode de conception et une infrastructure technologique sont proposées afin de supporter un outil d’Intelligence compétitive utile dans la gestion stratégique des PME. La conception et l’utilisation d’un prototype d’outil sont alors documentées dans une preuve de concept. Il s’agit en fait d’un cas de planification stratégique réel dans une PME que nous appellerons Neventure. Ensuite, un modèle de mesure, une version adaptée du CI Measurment Model (CIMM) de Davison (2001), est utilisé afin d’estimer la valeur du projet d’Intelligence compétitive, d’évaluer la pertinence de l’outil d’Intelligence compétitive dans son contexte d’utilisation et de critiquer l’expérience d’utilisation de cet outil de visualisation. L’analyse des résultats du modèle de mesure permet de tirer trois principales conclusions : 1. L’utilisation de l’outil d’Intelligence compétitive engendre un retour sur investissement positif estimé et une réduction de l’incertitude par rapport à la prise de décision stratégique. 2. Le processus de gestion stratégique itératif est pertinent au cas de Neventure en laissant toutefois place à certaines améliorations. 3. L’outil d’Intelligence compétitive est utile et pertinent au processus de gestion stratégique itérative. Cependant, la conception d’un tel outil laisse encore place à différentes améliorations au niveau de la facilité d’usage et des capacités de visualisation. Quarte enjeux principaux ont été rencontrés lors du développement du prototype : la complétude du Web 2.0 en tant que source de données d’Intelligence compétitive, les limites d’intégration des données, les finalités d’utilisation de l’outil et la maîtrise du domaine de connaissance et d’expertise. Conjointement, une amélioration au modèle de mesure de Davison (2001) est proposée. Les résultats de cette recherche sont transposables à la gestion stratégique d’une PME, plus particulièrement une startup. Le CIMM de Davison (2001) a été adapté au contexte de cette recherche afin d’évaluer adéquatement l’outil d’Intelligence compétitive. Il est aussi à noter que le développement de l’outil n’a subi aucune itération, ce qui le rend sujet à certaines améliorations. Enfin, les retombés de cette recherche sur la discipline d’Intelligence compétitive concernent la transférabilité du cadre conceptuel de l’Intelligence d’affaires, les combinaisons applicatives du Web 2.0 et du Big Data et les défis en matière de visualisation de données

    Informatique décisionnelle et management de la performance de l'entreprise.

    Get PDF
    Les premières applications dans les entreprises des outils informatiques d’aide au pilotage et à la décision, désormais appelés «Business Intelligence», datent du début des années quatre-vingt-dix ; les «Executive Information Systems» étaient à l’origine réservés à l’information des dirigeants. La banalisation dans les entreprises, vers le milieu de la décennie quatre-vingt-dix, des technologies de «datawarehouse» et de «data mart» a accru la possibilité de développer des systèmes d’information organisant les données de façon facilement accessible et appropriée à la prise de décisions et les représentant de manière intelligente au travers d’outils spécialisés tournés vers l’analyse multidimensionnelle avec notamment les bases «OLAP». Ce qui a pour effet de faciliter le management de la performance de l’entreprise. Le présent article examine d’abord la question de l’apport des technologies de l’information au processus décisionnel. Puis, il montre tout l’intérêt d’une architecture décisionnelle fondée sur un entrepôt de données pour le management de la performance. Plus précisément, il tente de montrer comment l’informatique décisionnelle facilite la modélisation d’une performance multidimensionnelle pour en permettre le pilotage au travers d’un des modèles possibles de sa représentation : le tableau de bord prospectif.Décision, Information, Informatique décisionnelle, management de la performance, performance, pilotage, tableau de bord prospectif

    Intégration des connaissances de domaine dans un processus d'ECD multi-vues

    Get PDF
    International audienceLe processus d'Extraction de Connaissances à partir de Données (ECD) est un processus itératif et interactif complexe faisant appel à plusieurs types de connaissances et de savoir faire. Dans ce papier nous proposons d'appréhender la complexité d'un processus d'ECD multi-vues, c.-à-d. un processus mené par plusieurs experts avec différents points de vue. Notre objectif est d'assurer une meilleur coordination et compréhension entre les différents analystes d'une analyse multi-vues. Ainsi, nous proposons une modélisation de la notion de point de vue en ECD en se basant sur le standard CRISP-DM, et en tenant compte des connaissances expertes de domaine mises en œuvre lors d'une analyse d'ECD

    SQL, NoSQL, NewSQL: stratégie de choix

    Get PDF
    Depuis les années 1980, les systèmes de gestion de bases de données relationnelles n'ont cessé de prendre de l'importance en regard des autres systèmes de gestion de données. Aujourd'hui, encore utilisés par la majorité des entreprises ils sont toujours appréciés pour leurs capacités à assurer une forte cohérence des données et garantir une fiabilité lors des transactions. Cependant, l'émergence des systèmes décisionnels et l'explosion des volumes de données à traiter ont conduit beaucoup de sociétés à dénormaliser leur modèle de données. Cette technique visant à regrouper l'information dans des agrégats a pour but d'optimiser les temps de réponses en rompant avec les trois formes normales si chères au SGBDR. Le Big data a conduit les grands acteurs de l'internet (Google, Facebook, et Amazon etc..) à développer puis adopter des technologies alternatives nommées NoSQL. Celles-ci leurs permettent de supporter une montée en charge horizontale tout en assurant une flexibilité du modèle de données. Dès lors, le NoSQL apparaît comme une solution à l'entreprise désirant gérer des montées en charges et des volumes importants. Cependant, cette technologie sacrifie à dessin la cohérence au bénéfice de la disponibilité. Dans ce modèle, les propriétés ACID sont souvent mises de côté pour la performance. En outre, la flexibilité offerte par le sans-schéma et l'abandon du SQL en font une technologie flexible et particulièrement appréciée des développeurs. Ils découvrent un SGBD où l'application devient maîtresse du schéma de la base de données. Plus d'interminables disputes avec un DBA qui impose un schéma non flexible de la base de données. La difficulté à gérer la faible cohérence des données pour les développeurs a conduit les grands ténors du web à développer le NewSQL. Ce nouveau SGBDR permet une scalabilité horizontale, une souplesse du schéma et une forte cohérence des données grâce à des transactions ACID. Le NewSQL est aussi jeune qu'il est plein de promesses. Il n'a pas le retour d'expérience des SGBDR et du NoSQL. Dans le document qui va suivre, sera cité les critères d'adoptions de chaque technologie. Ils seront mis ensemble à la fin dans un tableau de synthèse. Celui-ci pourra orienter la stratégie de choix d'une ou plusieurs d'entre elles

    La recherche scientifique en Afrique

    Get PDF

    Épistémologie des services de renseignement

    Get PDF
    Une analogie entre les aspects épistémologiques et méthodologiques de l'activité des services de renseignement et certaines disciplines scientifiques, en préconisant une approche plus scientifique du processus de collecte et d'analyse de l'information au sein du cycle du renseignement. J'affirme que les aspects théoriques, ontologiques et épistémologiques de l'activité de nombreux services de renseignement sont sous-estimés, ce qui conduit à une compréhension incomplète des phénomènes actuels et à une confusion dans la collaboration interinstitutionnelle. Après une brève Introduction, qui inclut un historique de l'évolution du concept de service de renseignement après la Seconde Guerre mondiale, Renseignement définit les objectifs et l'organisation des services de renseignement, le modèle de base de ces organisations (le cycle du renseignement) et les aspects pertinents de la collection de l'information et l'analyse du renseignement. Dans la section Ontologie, je souligne les aspects ontologiques et les entités qui menacent et qui sont menacés. La section Épistémologie comprend des aspects spécifiques à l'activité de renseignement, avec l'analyse du modèle traditionnel (Singer) utilisé traditionnellement, et j'expose une approche épistémologique possible à travers le concept de connaissance tacite développé par le scientifique Michael Polanyi. La section Méthodologie contient diverses théories méthodologiques mettant l’accent sur les techniques analytiques structurelles ainsi que certaines analogies avec la science, l’archéologie, les affaires et la médecine. L'article se termine par les Conclusions sur la possibilité d'une approche plus scientifique des méthodes de collecte d'information et d'analyse des services de renseignement. SOMMAIRE: Abstract 1. Introduction 1.1. Histoire du renseignement 2. Renseignement 2.1. Organisations 2.2. Cycle du renseignement 2.3. La collecte du renseignement 2.4. Analyse du renseignement 2.5. Contre-espionnage 2.6. Communautés épistémiques 3. Ontologie 4. Épistémologie 4.1. La connaissance tacite (Polanyi) 5. Méthodologies 6. Analogies avec d'autres disciplines 6.1. Science 6.2. Archéologie 6.3. Affaires 6.4. Médecine 7. Conclusions Bibliographie DOI: 10.13140/RG.2.2.35970.2272

    Épistémologie des services de renseignement

    Get PDF
    An analogy between the epistemological and methodological aspects of the activity of intelligence services and certain scientific disciplines, advocating a more scientific approach to the process of collecting and analyzing information within the intelligence cycle. I argue that the theoretical, ontological and epistemological aspects of the activity of many intelligence services are underestimated, which leads to an incomplete understanding of current phenomena and confusion in interinstitutional collaboration. After a brief Introduction, which includes a history of the evolution of the concept of intelligence service after World War II, Intelligence defines the objectives and organization of intelligence services, the basic model of these organizations (the intelligence cycle ) and relevant aspects of information collection and intelligence analysis. In the Ontology section, I highlight the ontological aspects and entities that threaten and are threatened. The Epistemology section includes specific aspects of intelligence activity, with the analysis of the traditional model (Singer) traditionally used, and I expose a possible epistemological approach through the concept of tacit knowledge developed by the scientist Michael Polanyi. The Methodology section contains various methodological theories emphasizing structural analytical techniques as well as some analogies with science, archaeology, business and medicine. The article ends with Conclusions on the possibility of a more scientific approach to the methods of information collection and analysis of intelligence services

    Modélisation et transformation des métadonnées de RERO en Linked Open Data

    Get PDF
    A l'arrivée du web, une multitude de documents et d'informations du monde entier se sont peu à peu reliés et interconnectés. Un réseau mondial de connaissances est né, basé sur des standards internationaux et intercommunautaires. Toutefois, les données des bibliothèques, à cause de leur format d'enregistrement particulier, n'ont pas pleinement intégré ce réseau, et des portails de recherche spécialisés ont été développés pour y accéder. A présent, de nouveaux standards techniques, permettant de meilleurs liens et une interopérabilité augmentée, ont été créés ; le web sémantique n'est plus une utopie, il est aux portes des bibliothèques. Ce travail a pour but de préparer les données de RERO, disponibles en format MARC21, à la publication en Linked Open Data, afin de les intégrer au web sémantique. Cela permettra entre autres de les rendre plus visibles et plus facilement réutilisables, et à terme de développer de nouvelles fonctionnalités pour les utilisateurs. Ce processus se décompose en plusieurs étapes : revue de la littérature, analyse des données de base, modélisation, mapping et ajout de liens externes. La modélisation inclut la sélection d'un modèle de base, ainsi que l'attribution d'informations de provenance et d'identifiants pérennes aux données. Le mapping consiste quant à lui à choisir des ontologies pertinentes, établir des correspondances entre le format de départ et le format de destination, et formuler des règles de conversion. L'ajout de liens externes implique le choix de référentiels pertinents du web sémantique, en fonction des possibilités de liens offertes par la structure et le niveau de contrôle des données de RERO. Au final, le modèle développé se décline en six tables de mapping – une pour chaque type d'entité identifié dans les données du réseau – et environ 130 règles de conversion. Il se base sur une douzaine d'ontologies, toutes déjà existantes. Ce projet a mis en évidence certains aspects problématiques de l'encodage traditionnel des données bibliographiques, relatifs au format d'enregistrement et aux règles de catalogage utilisés. Le passage à de nouveaux standards de description, un processus en cours dans le domaine des bibliothèques, vise entre autres la résolution de ces difficultés
    • …
    corecore