4,803 research outputs found

    Le rôle de la diffusion d'informations relatives aux actifs immatériels auprès des parties prenantes : synthèse et illustrations

    Get PDF
    Quel rôle joue la diffusion d'informations relatives aux actifs immatériels auprès des parties prenantes ? Dit autrement, dans un contexte d'asymétrie d'information, quels motifs président à la divulgation volontaire de ce type d'informations par nature sensibles quant à l'avenir de l'entreprise ? On pressent que la réponse est contingente tant elle dépend du destinataire privilégié par cette diffusion. La littérature financière orthodoxe fournit les premières explications en privilégiant les actionnaires et les créanciers financiers comme principaux destinataires. Dans ce cadre, l'objectif consiste à augmenter la liquidité du titre, à diminuer l'incertitude, le coût d'obtention de l'information et l'asymétrie d'information. Ce faisant, le coût du capital diminue et la valeur de l'entreprise augmente (I). Néanmoins, ce cadre d'analyse ne prend pas en compte suffisamment, selon nous, le caractère parfois qualitatif et donc particulièrement ambigu de ce type d'informations ainsi que la pluralité des acteurs concernés par cette politique de diffusion d'informations relatives aux immatériels (II). D'autres motifs semblent alors présider à cette politique. Deux illustrations sont proposées à l'appui de cette vision élargie de la politique volontaire de diffusion de l'information relative aux immatériels (III).actifs immatériels ; divulgation d'informations volontaires ; asymétrie d'informations : pertinence ; capital immatériel.

    Evaluation de la mise en oeuvre du programme Interface: rapport final

    Get PDF
    Le présent rapport est un compte rendu des travaux d'évaluation consacrés au programme Interface. Ce programme, issu de la réflexion relative au fonctionnement en réseau des partenaires médico-sociaux de la zone sanitaire VI-VIa, est actuellement installé au sein de l'hôpital de zone d'Yverdon (HZY). Il y poursuit une double mission, de coordination des démarches en vue des hébergements médico-sociaux de la zone, et de liaison entre l'hôpital et ses partenaires... [Table des matières] 1. Interface : structure, missions et objectifs. - 2. Mandat d'évaluation. - 3. Bilan des enquêtes quantitatives. 3.1. Résultats observés au niveau du programme Interface. 3.2. Vers une liste réduite d'indicateurs. - 4. Bilan des enquêtes qualitatives. 4.1. Première enquête qualitative, été-automne 97. 4.2. Deuxième enquête qualitative, été 98. 4.3. Première enquête auprès des médecins traitants, automne 97. 4.4. Deuxième enquête auprès des médecins traitants, printemps 98. 4.5. Données récoltées grâce au formulaire de catamnèse. - 5.1 Le point de vue de l'IUMSP. 5.2. Le point de vue du comité de pilotage, du groupe de terrain et du groupe statistique d'Interface

    Couplage des réseaux bayésiens et des fonctions de croyance pour l'évaluation du risque.Application à la déconstruction d'avion

    Get PDF
    Cette communication a pour objectif de présenter des travaux sur la gestion des connaissances appliqués à la déconstruction des avions en fin de vie. Nous proposons un modèle utilisant les réseaux bayésiens pour évaluer les risques et nous présentons trois approches destinées à intégrer les fonctions de croyance dans le modèle d'évaluation des risques proposé

    Multiagent system for data fusion in image processing

    Get PDF
    The data fusion of results in image processing poses many problems of modelling and representation of knowledge, among whic h one can mention : o the difficulty to define, exhaustively, the conditions of utilization of processings in function of the context , the difficulty to evaluate the results of processings , . the difficulty to elaborate strategies making cooperate several processings or merging results . The system ADAGAR (Atelier of Development of AGents on Distributed Architecture) proposes solutions to these problems . ADAGAR results from elaborated concepts in the project BBI (BlackBoard Image) . The aim of the project BBI was to conceive on a multi–processors architecture, a perceptive system of interpretation of images issued from different sources . The idea was not to elaborate new operators of image processing , but to develop a reception structure of existent processing . One of the particularities of the system lies in the expression of a priori valuation knowledge (scores of aptitude) . The formalizatio n of these knowledge is inspired of the theory of Dempster–Shafer. The formalism allows to represent the ignorance on condition s of activation of a processing in a particular context . The prototype BBI contains currently a thirty of agents . It functions on couples of aerial or satellitaire images in the visible and th e infrared spectra or in the visible and the radar spectra . BBI elaborates dynamically one or several strategies of research, from th e specificities of the processed images and objects to detect . The cooperations between processings at the low level, the information fusion and the focus of attention at the symbolic level are the main reasons of the good functioning of the prototype .La fusion des résultats en analyse d'images pose de nombreux problèmes de modélisation et de représentation des connaissances parmi lesquels, on peut mentionner: . la difficulté de définir exhaustivement les conditions d'utilisation des traitements en fonction du contexte, . la difficulté d'évaluer les résultats des traitements, . la difficulté d'élaborer des stratégies faisant coopérer plusieurs traitements ou fusionnant des résultats. Le système ADAGAR (Atelier de Développement d'AGents sur Architecture Répartie) propose des solutions à ces problèmes. ADAGAR résulte de concepts élaborés dans le projet BBI (BlackBoard Image). L'objectif du projet BBI était de concevoir sur une architecture multi-processeurs, un système perceptif d'interprétation d'images issues de sources différentes. L'idée n'était pas d'élaborer de nouveaux opérateurs de traitements d'images, mais de développer une structure d'accueil des traitements existants. Une des particularités du système réside dans l'expression de connaissances d'estimation a priori (scores d'aptitude). La formalisation de ces connaissances est inspirée de la théorie de Dempster-Shafer. Le formalisme employé permet de représenter l'ignorance sur les conditions d'activation d'un traitement dans un contexte particulier. Le prototype BBI contient actuellement une trentaine d'agents. Il fonctionne sur des couples d'images aériennes ou satellitaires dans les spectres visible/infrarouge et visible/radar. BBI élabore dynamiquement une ou plusieurs stratégies de recherche, à partir des spécificités des images traitées et des objets à détecter. Les coopérations entre les traitements au bas niveau, les fusions d'informations et les focalisations d'attention au niveau symbolique sont les principales raisons du bon fonctionnement du prototype. Intelligence artificielle distribuée, Système multi-agents, Système réparti, Interprétation d'images

    La convergence de l’internet des objets, du big data et de l’intelligence artificielle

    Get PDF
    Résumé Cette étude examine les synergies entre l'internet des objets, le big data et l'intelligence artificielle, mettant en lumière les opportunités et les défis qu'elles engendrent. La convergence de ces technologies ouvre de vastes perspectives dans des domaines tels que la santé connectée, la ville intelligente, l'industrie 4.0 et l'économie collaborative. Toutefois, des obstacles majeurs comme la protection des données personnelles, la sécurité des systèmes et des réseaux, ainsi que le renforcement des compétences, doivent être pris en compte. Pour cette analyse, une méthode de recherche basée sur la collecte et l'analyse de données qualitatives provenant d'ouvrages, d'articles de revues et de journaux reconnus a été utilisée. Cette approche permet de saisir en profondeur les interactions entre ces trois technologies. L'impact des lois de Moore et de Metcalfe sur cette convergence a également été pris en compte. L'avènement de l'internet des objets a facilité l'interconnexion d'objets physiques, générateur d'une masse de données importante connue sous le nom de big data. L'intelligence artificielle s'appuie sur ces données, ainsi que sur la puissance de calcul et les algorithmes. Les données sont essentielles pour entraîner les algorithmes, la puissance de calcul est indispensable pour les traiter efficacement, et les algorithmes permettent de structurer les informations afin de prendre des décisions pertinentes.   Mots clés : Convergence, internet des objets, big data, intelligence artificielle, loi de Moore, loi de Robert Metcalfe, algorithmes.     Summary This study examines the synergies between the Internet of Things, big data, and artificial intelligence, highlighting the opportunities and challenges they bring. The convergence of these technologies opens up broad perspectives in areas such as connected health, smart cities, Industry 4.0, and the sharing economy. However, major obstacles such as data protection, system and network security, as well as skills enhancement, must be taken into account. For this analysis, a research method based on the collection and analysis of qualitative data from recognized books, journal articles, and newspapers was used. This approach allows for a deep understanding of the interactions between these three technologies. The impact of Moore's Law and Metcalfe's Law on this convergence was also considered. The advent of the Internet of Things has facilitated the interconnection of physical objects, generating a large amount of data known as big data. Artificial intelligence relies on this data, as well as on computing power and algorithms. Data is essential for training algorithms, computing power is necessary to process them efficiently, and algorithms help structure information to make relevant decisions.   Keywords: Convergence, Internet of Things, Big Data, Artificial Intelligence, Moore's Law, Metcalfe's Law, Algorithms.  Résumé Cette étude examine les synergies entre l'internet des objets, le big data et l'intelligence artificielle, mettant en lumière les opportunités et les défis qu'elles engendrent. La convergence de ces technologies ouvre de vastes perspectives dans des domaines tels que la santé connectée, la ville intelligente, l'industrie 4.0 et l'économie collaborative. Toutefois, des obstacles majeurs comme la protection des données personnelles, la sécurité des systèmes et des réseaux, ainsi que le renforcement des compétences, doivent être pris en compte. Pour cette analyse, une méthode de recherche basée sur la collecte et l'analyse de données qualitatives provenant d'ouvrages, d'articles de revues et de journaux reconnus a été utilisée. Cette approche permet de saisir en profondeur les interactions entre ces trois technologies. L'impact des lois de Moore et de Metcalfe sur cette convergence a également été pris en compte. L'avènement de l'internet des objets a facilité l'interconnexion d'objets physiques, générateur d'une masse de données importante connue sous le nom de big data. L'intelligence artificielle s'appuie sur ces données, ainsi que sur la puissance de calcul et les algorithmes. Les données sont essentielles pour entraîner les algorithmes, la puissance de calcul est indispensable pour les traiter efficacement, et les algorithmes permettent de structurer les informations afin de prendre des décisions pertinentes.   Mots clés : Convergence, internet des objets, big data, intelligence artificielle, loi de Moore, loi de Robert Metcalfe, algorithmes.     Summary This study examines the synergies between the Internet of Things, big data, and artificial intelligence, highlighting the opportunities and challenges they bring. The convergence of these technologies opens up broad perspectives in areas such as connected health, smart cities, Industry 4.0, and the sharing economy. However, major obstacles such as data protection, system and network security, as well as skills enhancement, must be taken into account. For this analysis, a research method based on the collection and analysis of qualitative data from recognized books, journal articles, and newspapers was used. This approach allows for a deep understanding of the interactions between these three technologies. The impact of Moore's Law and Metcalfe's Law on this convergence was also considered. The advent of the Internet of Things has facilitated the interconnection of physical objects, generating a large amount of data known as big data. Artificial intelligence relies on this data, as well as on computing power and algorithms. Data is essential for training algorithms, computing power is necessary to process them efficiently, and algorithms help structure information to make relevant decisions.   Keywords: Convergence, Internet of Things, Big Data, Artificial Intelligence, Moore's Law, Metcalfe's Law, Algorithms. &nbsp

    Classification in pattern recognition. New tools to adapt a system to its environment

    Get PDF
    This paper presents a new theoretic tool based on Information Theory, the main interest of which is to acutely evaluate the classification tools . The particular nature of real-world objects recognition involves us to design systems based on multi-points of view approaches . The fusion stage has to adapt itself to the environment . We show that neural networks allow to learn the fusion function, optimized to the data and the structure of the composite system . The performance of a composite recognition system is closed to the partition of the available information on each classification tools . A Genetic algorithm is designed to adapt the parameters space partition with the set of classification tools among the quality of the composite system, genetic algorithm .Cet article présente un nouvel outil théorique fondé sur la Théorie de l'information afin de réaliser une évaluation d'un outil de classement plus fine que les mesures classiques. Nous travaillons dans le cadre de la Reconnaissance d'objets naturels complexes et compliqués. La nature même du problème incite à travailler à l'aide d'une approche multi-points de vue décisionnels, fusionnés de façon adaptative. Nous montrons que les réseaux connexionnistes permettent l'apprentissage d'une fonction de fusion optimisée selon la nature du problème et la structure du Système de Reconnaissance. Nous montrons aussi que la répartition de l'information sur chaque outil de classement contribue à une meilleure reconnaissance. Une approche de type génétique est alors conçue pour adapter la partition de l'espace des paramètres relativement à l'ensemble des outils disponibles

    Fusion d'images optique et radar à haute résolution pour la mise à jour de bases de données cartographiques

    Get PDF
    Cette thèse se situe dans le cadre de l'interprétation d'images satellite à haute résolution, et concerne plus spécifiquement la mise à jour de bases de données cartographiques grâce à des images optique et radar à haute résolution. Cette étude présente une chaîne de traitement générique pour la création ou la mise à jour de bases de données représentant les routes ou les bâtiments en milieu urbain. En fonction des données disponibles, différents scénarios sont envisagés. Le traitement est effectué en deux étapes. D'abord nous cherchons les objets qui doivent être retirés de la base de données. La seconde étape consiste à rechercher dans les images de nouveaux objets à ajouter dans la base de données. Pour réaliser ces deux étapes, des descripteurs sont construits dans le but de caractériser les objets d'intérêt dans les images d'entrée. L'inclusion ou élimination des objets dans la base de données est basée sur un score obtenu après fusion des descripteurs dans le cadre de la théorie de Dempster-Shafer. Les résultats présentés dans cette thèse illustrent l'intérêt d'une fusion multi-capteurs. De plus l'intégration aisée de nouveaux descripteurs permet à la chaîne d'être améliorable et adaptable à d'autres objets. ABSTRACT : This work takes place in the framework of high resolution remote sensing image analysis. It focuses on the issue of cartographic database creation or updating with optical and SAR images. The goal of this work is to build a generic processing chain to update or create a cartographic database representing roads and buildings in built-up areas. According to available data, various scenarios are foreseen. The proposed processing chain is composed of two steps. First, if a database is available, the presence of each database object is checked in the images. The second step consist of looking for new objects that should be included in the database. To determine if an object should be present in the updated database, relevant features are extracted from images in the neighborhood of the considered object. Those features are based on caracteristics of roads and buildings in SAR and optical images. The object removal/inclusion in the DB is based on a score obtained by the fusion of features in the framework of the Dempster-Shafer evidence theory. Results highlight the interest of multi sensor fusion. Moreover the chosen framework allows the easy integration of new features in the processing chai
    corecore