247 research outputs found

    Fouille de données multidimensionnelles : différentes stratégies pour prendre en compte la mesure

    Get PDF
    National audienceLes entrepôts de données contiennent de gros volumes de données historisées stockées à des fins d'analyse. Des techniques d'extraction de motifs séquentiels multidimensionnels ont été développées afin de mettre en exergue des corrélations entre des positions sur des dimensions au cours du temps. Même si ces méthodes offrent une meilleure appréhension des données sources en prenant en compte certaines spécificités des cubes de données (e.g. multidimensionnalité, hiérarchies, relation d'ordre), aucune méthode ne permet de prendre directement en compte la valeurs des agrégats (mesure) dans l'extraction des motifs. Dans cet article, nous définissons deux méthodes de comptage du support d'une séquence multidimensionnelle en s'appuyant sur les valeurs des agrégats des cellules qui supportent cette séquence. Des expérimentations sont décrites et montrent l'intérêt de notre proposition

    Informatique décisionnelle et management de la performance de l'entreprise.

    Get PDF
    Les premières applications dans les entreprises des outils informatiques d’aide au pilotage et à la décision, désormais appelés «Business Intelligence», datent du début des années quatre-vingt-dix ; les «Executive Information Systems» étaient à l’origine réservés à l’information des dirigeants. La banalisation dans les entreprises, vers le milieu de la décennie quatre-vingt-dix, des technologies de «datawarehouse» et de «data mart» a accru la possibilité de développer des systèmes d’information organisant les données de façon facilement accessible et appropriée à la prise de décisions et les représentant de manière intelligente au travers d’outils spécialisés tournés vers l’analyse multidimensionnelle avec notamment les bases «OLAP». Ce qui a pour effet de faciliter le management de la performance de l’entreprise. Le présent article examine d’abord la question de l’apport des technologies de l’information au processus décisionnel. Puis, il montre tout l’intérêt d’une architecture décisionnelle fondée sur un entrepôt de données pour le management de la performance. Plus précisément, il tente de montrer comment l’informatique décisionnelle facilite la modélisation d’une performance multidimensionnelle pour en permettre le pilotage au travers d’un des modèles possibles de sa représentation : le tableau de bord prospectif.Décision, Information, Informatique décisionnelle, management de la performance, performance, pilotage, tableau de bord prospectif

    Contribution à l'interrogation flexible et personnalisée d'objets complexes modélisés par des graphes

    Get PDF
    Plusieurs domaines d'application traitent des objets et des données complexes dont la structure et la sémantique de leurs composants sont des informations importantes pour leur manipulation et leur exploitation. La structure de graphe a été bien souvent adoptée, comme modèles de représentation, dans ces domaines. Elle permet de véhiculer un maximum d'informations, liées à la structure, la sémantique et au comportement de ces objets, nécessaires pour assurer une meilleure représentation et une manipulation e cace. Ainsi, lors d'une comparaison entre deux objets complexes, l'opération d'appariement est appliquée entre les graphes les modélisant. Nous nous sommes intéressés dans cette thèse à l'appariement approximatif qui permet de sélectionner les graphes les plus similaires au graphe d'une requête. L'objectif de notre travail est de contribuer à l'interrogation exible et personnalisée d'objets complexes modélisés sous forme de graphes pour identi er les graphes les plus pertinents aux besoins de l'utilisateur, exprimés d'une manière partielle ou imprécise. Dans un premier temps, nous avons proposé un cadre de sélection de services Web modélisés sous forme de graphes qui permet (i) d'améliorer le processus d'appariement en intégrant les préférences des utilisateurs et l'aspect structurel des graphes comparés, et (ii) de retourner les services les plus pertinents. Une deuxième méthode d'évaluation de requêtes de recherche de graphes par similarité a également été présentée pour calculer le skyline de graphes d'une requête utilisateur en tenant compte de plusieurs mesures de distance de graphes. En n, des approches de ra nement ont été dé nies pour réduire la taille, souvent importante, du skyline. Elles ont pour but d'identi er et d'ordonner les points skyline qui répondent le mieux à la requête de l'utilisateur.Several application domains deal with complex objects whose structure and semantics of their components are crucial for their handling. For this, graph structure has been adopted, as a model of representation, in these areas to capture a maximum of information, related to the structure, semantics and behavior of such objects, necessary for e ective representation and processing. Thus, when comparing two complex objects, a matching technique is applied between their graph structures. In this thesis, we are interested in approximate matching techniques which constitute suitable tools to automatically nd and select the most similar graphs to user graph query. The aim of our work is to develop methods to personalized and exible querying of repositories of complex objects modeled thanks to graphs and then to return the graphs results that t best the users needs, often expressed partially and in an imprecise way. In a rst time, we propose a exible approach for Web service retrieval that relies both on preference satis ability and structural similarity between process model graphs. This approach allows (i) to improve the matching process by integrating user preferences and the graph structural aspect, and (ii) to return the most relevant services. A second method for evaluating graph similarity queries is also presented. It retrieves graph similarity skyline of a user query by considering a vector of several graph distance measures instead of a single measure. Thus, graphs which are maximally similar to graph query are returned in an ordered way. Finally, re nement methods have been developed to reduce the size of the skyline when it is of a signi cant size. They aim to identify and order skyline points that match best the user query.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Dynamic Capabilites : problèmes de définition et d'opérationalisation du concept

    No full text
    L'article cherche à comprendre quels sont les processus étudiés par le courant de recherche des "Dynamic Capabilities" (DC), en revenant sur les articles fondateurs de l'approche pour ensuite s'arrêter sur la question du domaine de définition du concept et de son opérationalisation. Il s'intéresse à l'orchestration des actifs comme voie de recherche potentiellement féconde

    Dynamic Capabilites : problèmes de définition et d'opérationalisation du concept

    Get PDF
    L'article cherche à comprendre quels sont les processus étudiés par le courant de recherche des "Dynamic Capabilities" (DC), en revenant sur les articles fondateurs de l'approche pour ensuite s'arrêter sur la question du domaine de définition du concept et de son opérationalisation. Il s'intéresse à l'orchestration des actifs comme voie de recherche potentiellement féconde.dynamic capabilities

    Actes des 22èmes rencontres francophones sur la Logique Floue et ses Applications, 10-11 octobre 2013, Reims, France

    Get PDF

    Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation.

    Get PDF
    This work presents an ``inverse problems'' approach for reconstruction in two different fields: digital holography and blind deconvolution.The "inverse problems" approach consists in investigating the causes from their effects, i.e. estimate the parameters describing a system from its observation. In general, same causes produce same effects, same effects can however have different causes. To remove ambiguities, it is necessary to introduce a priori information. In this work, the parameters are estimated using optimization methods to minimize a cost function which consists of a likelihood term plus some prior terms.We use this approach to address the problem of heterogeneous multidimensional data blind deconvolution. Heterogeneous means that the different dimensions have different meanings and units (for instance position and wavelength). For that, we have established a general framework with a separable prior which have been successfully adapted to different applications: deconvolution of multi-spectral data in astronomy, of Bayer color images and blind deconvolution of bio-medical video sequences (in coronarography, conventional and confocal microscopy).We also applied this framework to digital holography for particles image velocimetry (DH-PIV). Using a model of the hologram formation, we use this "inverse problems" approach to circumvent the artifacts produced by the classical hologram restitution methods (distortions close to the image boundaries, multiple focusing, twin-images). The proposed algorithm detects micro-particles in a volume 16 times larger than the camera field of view and with a precision improved by a factor 5 compared with classical techniques.Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16

    Intégration et optimisation des grilles régulières de points dans une architecture SOLAP relationnelle

    Get PDF
    IRSTEA : PUB00043913Continuous fields are types of spatial representations used to model phenomena such as temperature, pollution or altitude. They are defined according to a mapping function f that assigns a value of the studied phenomenon to each p location of the studied area. Moreover, the representation of continuous fields at different scales or resolutions is often essential for effective spatial analysis. The advantage of continuous fields is the level of details generated by the continuity of the spatial data, and the quality of the spatial analysis provided by the multi-resolution. The downside of this type of spatial representations in the multidimensionnal analysis is the high cost of analysis and storage performances. Moreover, spatial data warehouses and spatial OLAP systems (EDS and SOLAP) are decision support systems that enable multidimensional spatial analysis of large volumes of spatial and non-spatial data. The analysis of continuous fields in SOLAP architecture represents an interesting research challenge. Various studies have focused on the integration of such representations in SOLAP system. However, this integration still at an early stage. Thus, this thesis focuses on the integration of incomplete continuous fields represented by a regular grid of points in the spatio-multidimensional analysis. This integration in the SOLAP system involves that the analysis of continuous fields must support:(i) conventional OLAP operators, (ii) Continuous spatial data, (iii) spatial operators (spatial slice), and (iv) querying data at different predefined levels of resolutions. In this thesis we propose differents approaches for the analysis of continuous fields in SOLAP system at different levels of the relational architecture (from the conceptual modeling to the optimization of computing performance). We propose a logical model FISS to optimize the performances of the multi-resolution analysis, based on interpolation methods. Then, we present a new methodology based on the Clustering sampling method, to optimize aggregation operations on regular grids of points in the relational SOLAP architecture.Les champs continus sont des types de représentations spatiales utilisées pour modéliser des phénomènes tels que la température, la pollution ou l’altitude. Ils sont définis selon une fonction de mapping f qui affecte une valeur du phénomène étudié à chaque localisation p du domaine d’étude. Par ailleurs, la représentation des champs continus à différentes échelles ou résolutions est souvent essentielle pour une analyse spatiale efficace. L’avantage des champs continus réside dans le niveau de détails généré par la continuité, ainsi que la qualité de l’analyse spatiale fournie par la multi-résolution. L’inconvénient de ce type de représentations dans l’analyse spatio-multidimensionnelle est le coût des performances d’analyse et de stockage. Par ailleurs, les entrepôts de données spatiaux et les systèmes OLAP spatiaux (EDS et SOLAP) sont des systèmes d’aide à la décision qui permettent l’analyse spatio-multidimensionnelle de grands volumes de données spatiales et non spatiales. L’analyse des champs continus dans l’architecture SOLAP représente un défi de recherche intéressant. Différents travaux se sont intéressés à l’intégration de ce type de représentations dans le système SOLAP. Cependant, celle-ci est toujours au stade embryonnaire. Cette thèse s’intéresse à l’intégration des champs continus incomplets représentés par une grille régulière de points dans l’analyse spatio-multidimensionnelle. Cette intégration dans le système SOLAP implique que l’analyse des champs continus doit supporter : (i) les opérateurs OLAP classiques, (ii) la vue continue des données spatiales, (iii) les opérateurs spatiaux (slice spatial) et (iv) l’interrogation des données à différentes résolutions prédéfinies. Dans cette thèse nous proposons différentes approches pour l’analyse des champs continus dans le SOLAP à différents niveaux de l’architecture relationnelle, de la modélisation conceptuelle à l’optimisation des performances de calcul. Nous proposons un modèle logique FISS qui permet d’optimiser les performances d’analyse à multi-résolution en se basant sur des méthodes d’interpolation. Puis, nous exposons une méthodologie basée sur la méthode d’échantillonnage du Clustering, qui permet d’optimiser les opérations d’agrégation des grilles régulières de points dans l’architecture SOLAP relationnelle en effectuant une estimation des résultats

    La pensée économique au tournant du millénaire

    Get PDF
    Un vaste mouvement de renouvellement de la connaissance marque la fin du millénaire. La pensée économique se doit d'y participer et déjà se trouve entraînée à le faire, non sans que cela exige de profonds changements dans sa démarche scientifique. Il est requis d'elle qu'elle rompe son isolement et s'ouvre à la multidimensionnalité, qu'elle dispose de principes d'intelligibilité adéquats à la pensée complexe dès lors requise, que recouvrant son caractère « d'économie politique » elle accorde toute leur importance à la gouvernance et à la gouvernabilité. L'exemple de la mondialisation permet de montrer combien il est nécessaire de penser en termes d'asymétries, dont l'origine est presque toujours à chercher dans les variables exogènes de propagation, en termes aussi d'équilibrations et de régulations méta-économiques exigeant l'intervention d'institutions et de règles sans cesse renouvelées, de jeux de pouvoirs, de pluralités d'avenirs, de rationalité projectuelle, de polysémie de l'ordre et, bien sûr, de gouvernance et de gouvernabilité.A vast renewal of knowledge marks the end of the millennium. Economic thought ought to be and is already involved in this process that will require profound changes in its scientific method. Economic thought must end its isolation, accept multi dimensionality, adopt intelligibility principles adequate to complex thought and attribute greater importance to governance and governability and, by so doing, rediscover its character of "political economy". Globalization is an example of how important it is to think in asymmetrical terms, the origin of this being most often in exogenous variables of propagation, but also in meta-economic balancing and regulation which require institutional intervention and a continuous renewal of rules, the interplay of powers, a plurality of futures, project rationality, order polysemy and of course, governance and governability
    • …
    corecore