69 research outputs found

    Personnalisation de Systèmes OLAP Annotés

    Get PDF
    National audienceThis paper deals with personalization of annotated OLAP systems. Data constellation is extended to support annotations and user preferences. Annotations reflect the decision-maker experience whereas user preferences enable users to focus on the most interesting data. User preferences allow annotated contextual recommendations helping the decision-maker during his/her multidimensional navigations

    Personnalisation d'analyses décisionnelles sur des données multidimensionnelles

    Get PDF
    This thesis investigates OLAP analysis personalization within multidimensional databases. OLAP analyse is modeled through a graph where nodes represent the analysis contexts and graph edges represent the user operations. The analysis context regroups the user query as well as result. It is well described by a specific tree structure that is independent on the visualization structures of data and query languages. We provided a model for user preferences on the multidimensional schema and values. Each preference is associated with a specific analysis context. Based on previous models, we proposed a generic framework that includes two personalization processes. First process, denoted query personalization, aims to enhancing user query with related preferences in order to produce a new one that generates a personalized result. Second personalization process is query recommendation that allows helping user throughout the OLAP data exploration phase. Our recommendation framework supports three recommendation scenarios, i.e., assisting user in query composition, suggesting the forthcoming query, and suggesting alternative queries. Recommendations are built progressively basing on user preferences. In order to implement our framework, we developed a prototype system that supports query personalization and query recommendation processes. We present experimental results showing the efficiency and the effectiveness of our approaches.Le travail présenté dans cette thèse aborde la problématique de la personnalisation des analyses OLAP au sein des bases de données multidimensionnelles. Une analyse OLAP est modélisée par un graphe dont les noeuds représentent les contextes d'analyse et les arcs traduisent les opérations de l'utilisateur. Le contexte d'analyse regroupe la requête et le résultat. Il est décrit par un arbre spécifique qui est indépendant des structures de visualisation des données et des langages de requête. Par ailleurs, nous proposons un modèle de préférences utilisateur exprimées sur le schéma multidimensionnel et sur les valeurs. Chaque préférence est associée à un contexte d'analyse particulier. En nous basant sur ces modèles, nous proposons un cadre générique comportant deux mécanismes de personnalisation. Le premier mécanisme est la personnalisation de requête. Il permet d'enrichir la requête utilisateur à l'aide des préférences correspondantes afin de générer un résultat qui satisfait au mieux aux besoins de l'usager. Le deuxième mécanisme de personnalisation est la recommandation de requêtes qui permet d'assister l'utilisateur tout au long de son exploration des données OLAP. Trois scénarios de recommandation sont définis : l'assistance à la formulation de requête, la proposition de la prochaine requête et la suggestion de requêtes alternatives. Ces recommandations sont construites progressivement à l'aide des préférences de l'utilisateur. Afin valider nos différentes contributions, nous avons développé un prototype qui intègre les mécanismes de personnalisation et de recommandation de requête proposés. Nous présentons les résultats d'expérimentations montrant la performance et l'efficacité de nos approches. Mots-clés: OLAP, analyse décisionnelle, personnalisation de requête, système de recommandation, préférence utilisateur, contexte d'analyse, appariement d'arbres de contexte

    Big data : une mise en perspective empirique des impacts du Big Data sur la mutation des processus décisionnels

    No full text
    National audienceLe big data est aujourd'hui en passe de faire muter les systèmes décisionnels. En effet, la décision ne s'appuie à présent plus uniquement sur les informations structurées qui étaient jusque-là collectées et stockées par l'organisation, mais aussi sur toutes les données non structurées se trouvant à l'extérieur du carcan des entreprises. Le cloud et les informations qu'il contient impactent dorénavant les décisions et nous assistons à l'émergence de la business intelligence 3.0. Avec la croissance d'internet, des réseaux sociaux et des objets connectés et communicants, les informations sont aujourd'hui plus abondantes que jamais et la croissance de leur production est chaque jour plus rapide. En 2012, 2.5 exaoctets de données (1 exaoctet représentant un millions de gigaoctets de données) venaient chaque jour grossir les rangs des big data (McAfee, 2012), qui devraient peser dès 2020 plus de 40 zettaoctets (Valduriez, 2014) pour 30 milliards d'appareils connectés (The economist, 2014) et 50 milliards de capteurs (Davenport, Soulard, 2014). L'un des aspects les plus critiques de tous ces flux d'information est l'impact qu'auront ceux-ci sur la manière dont les décisions sont prises. En effet, dans le cadre d'un environnement au sein duquel les données étaient rares et difficiles à obtenir, il était logique de laisser la prise de décision se conditionner à l'intuition du décideur d'expérience (Klein, 2007). Or, l'information et la connaissance étant dorénavant à la disposition de tous, le rôle des experts et décideurs change peu à peu. Les big data permettent en particulier aux systèmes analytiques et décisionnels de baser leurs prises de décision sur des modèles globaux. Or, la prise en considération de toutes les dimensions des situations rencontrées n'était jusque-là pas à la portée de l'homme, rationnellement limité (Simon, 1971). Les big data et le traitement des données non structurées imposent cependant de modifier l'architecture des systèmes d'aide à la décision (SAD) des organisations. Le Time aware decision support system permet par exemple de prendre en compte la temporalité des données du big data, il présente un fort intérêt dans le cadre du management des équipes opérationnelles de terrain (Police, Pompiers, etc.). Son intégration impose toutefois une redéfinition complète de l'architecture décisionnelle. Ce papier est un état des lieux des évolutions que subissent les systèmes d'aide la décision sous la pression des big data. Il présente l'impact que le TADSS aurait eu sur l'architecture décisionnelle de la Police néerlandaise dans le cadre de la gestion de l'afflux non programmé de 500 000 personnes dans la ville d'Enschede. Enfin, il ouvre le débat sur les questionnements éthiques soulevés par ces nouvelles technologies, l'analyse des données personnelles des individus fait en effet plus que jamais débat

    Un modèle fondé sur l'analyse des activités et des besoins : application à un entrepôt de ressources documentaires et de ressources d'espace numérique de travail universitaire

    Get PDF
    Nous abordons une nouvelle gouvernance des universités pour faire évoluer un système d'information universitaire en un système d'information stratégique universitaire. Le transfert d'un système d'information en système d'information décisionnel repose sur les bases métiers orientées vers les acteurs de l'université par la prise en compte de la modélisation des utilisateurs. Le développement d'un système d'information global de l'université doit tenir compte de l'évolutivité du contexte de l'université et de la prise en compte des systèmes d'information alternatifs. La question «Comment intégrer la représentation de l'utilisateur dans un Système d'Information Stratégique ?» guide notre démarche. Notre modèle «RUBICUBE» sert de point d'ancrage pour une expérimentation qui met en relief les difficultés techniques et organisationnelles qu'implique la construction d'un entrepôt avec la prise en compte du contexte global de l'université. Nous identifions plusieurs niveaux à prendre en compte lors de la conception d'un Système d'Information Stratégique : niveau modélisation, niveau application et niveau méta modélisation

    Vers une optimisation du processus d'analyse en ligne de données 3D : cas des fouilles archéologiques

    Get PDF
    L'archéologie est une discipline des sciences humaines dont l'objet d'étude est l'ensemble des vestiges matériels laissés par l'Homme (objets, bâtiments, infrastructures, paysages...). Une technique précise, la fouille, est employée afin de tirer toutes les informations possibles des sols et structures fouillés en tenant compte de la localisation exacte des objets découverts, de l'étude de la succession des différentes couches de terrain déblayé afin de pouvoir procéder à une datation stratigraphique. L'analyse d'une fouille archéologique demande souvent beaucoup d'efforts pour l'archéologue car, à ce jour, aucun système informatique n'a permis de clairement les aider dans l'analyse de leurs données. Ainsi, pour exploiter des données issues d'une fouille archéologique, nous avons identifié trois critères : la rapidité et la facilité d'utilisation, la possibilité de faire évoluer les données dans le système (les interprétations de l'archéologue suivant des heuristiques qui ne peuvent pas toujours être formalisées de façon absolue) et la visualisation tridimensionnelle. L'outil d'analyse en ligne de type SOLAP est optimisé pour une analyse interactive dite multidimensionnelle où les requêtes, même celles de types agrégatives sont simples et leurs réponses sont rapides. Reste donc à l'optimiser sur les deux autres critères retenus pour exploiter les données issues d'une fouille archéologique et qui marquent les principales faiblesses de l'outil : l'évolution des données pendant la phase d'analyse et l'intégration de la 3e dimension. Ce projet de maîtrise vise à apporter des nouveaux concepts permettant à un utilisateur de réviser ces données pendant sa phase d'analyse. Par la suite, un prototype appliqué à l'archéologie a été élaboré afin de vérifier simplement si les efforts pour réviser des données pouvaient être compatibles avec les efforts d'un outil d'analyse en ligne en conservant la fluidité d'exploration interactive. D'autre part, ce projet de maîtrise a permis d'étudier la faisabilité d'un SOLAP 3D et de soulever une interrogation sur la nécessité d'introduire la 3e dimension à un outil d'analyse en ligne

    Merchandising et mise en place des collections en bibliothèques de lecture publique

    Get PDF
    L’application des techniques de marketing à la gestion des bibliothèques est très débattue. En revanche, l’application spécifique des techniques de merchandising est une pratique nettement moins évoquée. Le merchandising est une sous-discipline du marketing qui s’occupe de l’allocation des emplacements et de la présentation des produits sur le point de vente. En bibliothèque, il s’agit donc de développer une démarche marketing pour la mise en espace des documents. Dans ce travail, les principes du merchandising sont transposés pour une application en bibliothèque de lecture publique. Les bibliothèques génèrent une grande quantité de données de circulation et de description des documents : ce travail explore aussi comment ces données de grande qualité peuvent être exploitées et valorisées dans une démarche de merchandising.The application of marketing methods for libray management is a much debated question. On the other hand, the specific application of merchandising methods is less debated. Merchandising is a component of marketing whose concern is the in-store allocation of space for products and their presentation. Hence for public libraries, the idea is to apply a marketing approach specifically centered on space utilization for documents. In this paper, merchandising principles are adaptated for an application in public libraries. Libraries create a lot of circulation datas and document description datas : this paper explores as well how those high quality datas can be used and how they can create value in the perspective of a merchandising approach

    Analyse en ligne (OLAP) de documents

    Get PDF
    Thèse également disponible sur le site de l'Université Paul Sabatier, Toulouse 3 : http://thesesups.ups-tlse.fr/160/Data warehouses and OLAP systems (On-Line Analytical Processing) provide methods and tools for enterprise information system data analysis. But only 20% of the data of a corporate information system may be processed with actual OLAP systems. The rest, namely 80%, i.e. documents, remains out of reach of OLAP systems due to the lack of adapted tools and processes. To solve this issue we propose a multidimensional conceptual model for representing analysis concepts. The model rests on a unique concept that models both analysis subjects as well as analysis axes. We define an aggregation function to aggregate textual data in order to obtain a summarised vision of the information extracted from documents. This function summarises a set of keywords into a smaller and more general set. We introduce a core of manipulation operators that allow the specification of analyses and their manipulation with the use of the concepts of the model. We associate a design process for the integration of data extracted from documents within an OLAP system that describes the phases for designing the conceptual schema, for analysing the document sources and for the loading process. In order to validate these propositions we have implemented a prototype.Les entrepôts de données et les systèmes d'analyse en ligne OLAP (On-Line Analytical Processing) fournissent des méthodes et des outils permettant l'analyse de données issues des systèmes d'information des entreprises. Mais, seules 20% des données d'un système d'information est constitué de données analysables par les systèmes OLAP actuels. Les 80% restant, constitués de documents, restent hors de portée de ces systèmes faute d'outils ou de méthodes adaptés. Pour répondre à cette problématique nous proposons un modèle conceptuel multidimensionnel pour représenter les concepts d'analyse. Ce modèle repose sur un unique concept, modélisant à la fois les sujets et les axes d'une analyse. Nous y associons une fonction pour agréger des données textuelles afin d'obtenir une vision synthétique des informations issues de documents. Cette fonction résume un ensemble de mots-clefs par un ensemble plus petit et plus général. Nous introduisons un noyau d'opérations élémentaires permettant la spécification d'analyses multidimensionnelles à partir des concepts du modèle ainsi que leur manipulation pour affiner une analyse. Nous proposons également une démarche pour l'intégration des données issues de documents, qui décrit les phases pour concevoir le schéma conceptuel multidimensionnel, l'analyse des sources de données ainsi que le processus d'alimentation. Enfin, pour valider notre proposition, nous présentons un prototype
    • …
    corecore