20 research outputs found

    Personnalisation d'analyses décisionnelles sur des données multidimensionnelles

    Get PDF
    This thesis investigates OLAP analysis personalization within multidimensional databases. OLAP analyse is modeled through a graph where nodes represent the analysis contexts and graph edges represent the user operations. The analysis context regroups the user query as well as result. It is well described by a specific tree structure that is independent on the visualization structures of data and query languages. We provided a model for user preferences on the multidimensional schema and values. Each preference is associated with a specific analysis context. Based on previous models, we proposed a generic framework that includes two personalization processes. First process, denoted query personalization, aims to enhancing user query with related preferences in order to produce a new one that generates a personalized result. Second personalization process is query recommendation that allows helping user throughout the OLAP data exploration phase. Our recommendation framework supports three recommendation scenarios, i.e., assisting user in query composition, suggesting the forthcoming query, and suggesting alternative queries. Recommendations are built progressively basing on user preferences. In order to implement our framework, we developed a prototype system that supports query personalization and query recommendation processes. We present experimental results showing the efficiency and the effectiveness of our approaches.Le travail prĂ©sentĂ© dans cette thĂšse aborde la problĂ©matique de la personnalisation des analyses OLAP au sein des bases de donnĂ©es multidimensionnelles. Une analyse OLAP est modĂ©lisĂ©e par un graphe dont les noeuds reprĂ©sentent les contextes d'analyse et les arcs traduisent les opĂ©rations de l'utilisateur. Le contexte d'analyse regroupe la requĂȘte et le rĂ©sultat. Il est dĂ©crit par un arbre spĂ©cifique qui est indĂ©pendant des structures de visualisation des donnĂ©es et des langages de requĂȘte. Par ailleurs, nous proposons un modĂšle de prĂ©fĂ©rences utilisateur exprimĂ©es sur le schĂ©ma multidimensionnel et sur les valeurs. Chaque prĂ©fĂ©rence est associĂ©e Ă  un contexte d'analyse particulier. En nous basant sur ces modĂšles, nous proposons un cadre gĂ©nĂ©rique comportant deux mĂ©canismes de personnalisation. Le premier mĂ©canisme est la personnalisation de requĂȘte. Il permet d'enrichir la requĂȘte utilisateur Ă  l'aide des prĂ©fĂ©rences correspondantes afin de gĂ©nĂ©rer un rĂ©sultat qui satisfait au mieux aux besoins de l'usager. Le deuxiĂšme mĂ©canisme de personnalisation est la recommandation de requĂȘtes qui permet d'assister l'utilisateur tout au long de son exploration des donnĂ©es OLAP. Trois scĂ©narios de recommandation sont dĂ©finis : l'assistance Ă  la formulation de requĂȘte, la proposition de la prochaine requĂȘte et la suggestion de requĂȘtes alternatives. Ces recommandations sont construites progressivement Ă  l'aide des prĂ©fĂ©rences de l'utilisateur. Afin valider nos diffĂ©rentes contributions, nous avons dĂ©veloppĂ© un prototype qui intĂšgre les mĂ©canismes de personnalisation et de recommandation de requĂȘte proposĂ©s. Nous prĂ©sentons les rĂ©sultats d'expĂ©rimentations montrant la performance et l'efficacitĂ© de nos approches. Mots-clĂ©s: OLAP, analyse dĂ©cisionnelle, personnalisation de requĂȘte, systĂšme de recommandation, prĂ©fĂ©rence utilisateur, contexte d'analyse, appariement d'arbres de contexte

    Ressources et parcours pour l'apprentissage du langage Python : aide à la navigation individualisée dans un hypermédia épistémique à partir de traces

    Get PDF
    This research work mainly concerns means of assistance in individualized navigation through an epistemic hypermedia. We have a number of resources that can be formalized by a directed acyclic graph (DAG) called the graph of epistemes. After identifying resources and pathways environments, methods of visualization and navigation, tracking, adaptation and data mining, we presented an approach correlating activities of design or editing with those dedicated to resources‘ use and navigation. This provides ways of navigation‘s individualization in an environment which aims to be evolutive. Then, we built prototypes to test the graph of epistemes. One of these prototypes was integrated into an existing platform. This epistemic hypermedia called HiPPY provides resources and pathways on Python language. It is based on a graph of epistemes, a dynamic navigation and a personalized knowledge diagnosis. This prototype, which was experimented, gave us the opportunity to evaluate the introduced principles and analyze certain uses.Les travaux de recherche de cette thĂšse concernent principalement l‘aide Ă  la navigation individualisĂ©e dans un hypermĂ©dia Ă©pistĂ©mique. Nous disposons d‘un certain nombre de ressources qui peut se formaliser Ă  l‘aide d‘un graphe acyclique orientĂ© (DAG) : le graphe des Ă©pistĂšmes. AprĂšs avoir cernĂ© les environnements de ressources et de parcours, les modalitĂ©s de visualisation et de navigation, de traçage, d‘adaptation et de fouille de donnĂ©es, nous avons prĂ©sentĂ© une approche consistant Ă  corrĂ©ler les activitĂ©s de conception ou dâ€˜Ă©dition Ă  celles dĂ©diĂ©es Ă  l‘utilisation et la navigation dans les ressources. Cette approche a pour objectif de fournir des mĂ©canismes d‘individualisation de la navigation dans un environnement qui se veut Ă©volutif. Nous avons alors construit des prototypes appropriĂ©s pour mettre Ă  lâ€˜Ă©preuve le graphe des Ă©pistĂšmes. L‘un de ces prototypes a Ă©tĂ© intĂ©grĂ© Ă  une plateforme existante. Cet hypermĂ©dia Ă©pistĂ©mique baptisĂ© HiPPY propose des ressources et des parcours portant sur l‘apprentissage du langage Python. Il s‘appuie sur un graphe des Ă©pistĂšmes, une navigation dynamique et un bilan de connaissances personnalisĂ©. Ce prototype a fait l‘objet d‘une expĂ©rimentation qui nous a donnĂ© la possibilitĂ© dâ€˜Ă©valuer les principes introduits et d‘analyser certains usages

    Normetic v1.0

    Get PDF
    TirĂ© de l'Ă©cran-titre (visionnĂ© le 27 juin 2017).Le prĂ©sent rapport d'Ă©tude sur l'application de normes et de standards pour les ressources d'enseignement et d'apprentissage (REA) s’adresse Ă  toutes personnes engagĂ©es dans la production numĂ©rique : gestionnaires, professeurs, concepteurs pĂ©dagogiques, spĂ©cialistes informatiques, bibliothĂ©caires, archivistes, Ă©diteurs ou diffuseurs de contenus. Ce rapport traite de multiples facettes liĂ©es Ă  la crĂ©ation d’un patrimoine Ă©ducatif et il propose une mĂ©thode pour la description normalisĂ©e des ressources d’enseignement et d’apprentissage et des exemples d’application de la mĂ©thode proposĂ©e. Ce rapport a Ă©tĂ© rĂ©digĂ© sous la supervision de la CREPUQ et Novasys inc

    Mise en place du volet documentaire du portail scientifique de l’UniversitĂ© de la Nouvelle-CalĂ©donie

    Get PDF
    Projet professionnel personnalisĂ©, travail de fin d\u27Ă©tude des Ă©lĂšves bibliothĂ©caires, portant sur le projet du portail scientifique de l’UniversitĂ© de la Nouvelle-CalĂ©donie (UNC)

    SystÚme de gestion de connaissances appliqué en géotechnique

    Get PDF
    À l’échelle universitaire, l’optimisation des systĂšmes de gestion des connaissances permet de favoriser la crĂ©ation, et le partage des connaissances entre les chercheurs, les Ă©tudiants, et les autres parties prenantes. En particulier, dans les laboratoires de recherche qui sont considĂ©rĂ©s comme des centres de connaissances, diverses activitĂ©s sont menĂ©es pour dĂ©velopper et appliquer des connaissances. Cependant, toute recherche nĂ©cessite la prĂ©sence et l’accĂšs fluide aux rĂ©fĂ©rentiels qui regroupe plusieurs sources d'informations. Ainsi, pour dĂ©velopper une base de connaissances, l’organisation doit d'abord identifier ses connaissances disponibles, les gĂ©rer d’une façon efficace. Les systĂšmes de gestion des connaissances rĂ©fĂšrent Ă  tout type de systĂšme informatique qui stocke, traite et rĂ©cupĂšre des donnĂ©es, quelle que soit leur nature, amĂ©liorant ainsi la collaboration, la localisation des ressources de connaissances et l'ensemble des processus d'acquisition, de traitement et transfert des connaissances. Ce projet de maĂźtrise reflĂšte le travail de recherche menĂ©e au sein du laboratoire de mĂ©canique des roches et gĂ©ologie appliquĂ©e de l’UniversitĂ© de Sherbrooke et porte principalement sur la mise en service d’un outil de systĂšme de gestion de connaissances. Plus prĂ©cisĂ©ment, cette recherche vise Ă  concevoir un systĂšme de gestion des connaissances pour capturer et partager les connaissances liĂ©es aux activitĂ©s de recherche. Suite Ă  une enquĂȘte et recherche dans la littĂ©rature, nous avons identifiĂ© les exigences pour gĂ©nĂ©rer un plan de conception du systĂšme. La technologie utilisĂ©e pour soutenir l'adoption et la mise en Ɠuvre de ce systĂšme est une plate-forme GeoUdeS en ligne. Cette plate-forme permet de transformer les donnĂ©es brutes accumulĂ©es en connaissances utiles en collectant des donnĂ©es dans une base de connaissances centrale et en les contextualisant. Ce processus rend les connaissances facilement consultables afin que les Ă©tudiants et chercheurs puissent trouver eux-mĂȘmes les connaissances dont ils ont besoin. Aussi, la plate-forme prend en charge les phases du cycle de vie d’un systĂšme de gestion de connaissances : crĂ©ation, organisation, stockage, partage, collaboration, l'accĂšs et l'utilisation des connaissances. Les retombĂ©es de cette Ă©tude permettront de centraliser et utiliser les connaissances disponibles dans des futurs projets de recherche en gĂ©otechnique, et ainsi faire des corrĂ©lations entre les donnĂ©es et ensuite prĂ©parer ces donnĂ©es pour appliquer des algorithmes d’intelligence artificielle

    Actes des 25es journées francophones d'Ingénierie des Connaissances (IC 2014)

    Get PDF
    National audienceLes JournĂ©es Francophones d'IngĂ©nierie des Connaissances fĂȘtent cette annĂ©e leurs 25 ans. Cette confĂ©rence est le rendez-vous annuel de la communautĂ© française et francophone qui se retrouve pour Ă©changer et rĂ©flĂ©chir sur des problĂšmes de recherche qui se posent en acquisition, reprĂ©sentation et gestion des connaissances. Parmi les vingt et un articles sĂ©lectionnĂ©s pour publication et prĂ©sentation Ă  la confĂ©rence, un thĂšme fondateur de l'ingĂ©nierie des connaissances domine : celui de la modĂ©lisation de domaines. Six articles traitent de la conception d'ontologies, trois articles de l'annotation sĂ©mantique et du peuplement d'ontologies et deux articles de l'exploitation d'ontologies dans des systĂšmes Ă  base de connaissances. L'informatique mĂ©dicale est le domaine d'application privilĂ©giĂ© des travaux prĂ©sentĂ©s, que l'on retrouve dans sept articles. L'ingĂ©nierie des connaissances accompagne l'essor des technologies du web sĂ©mantique, en inventant les modĂšles, mĂ©thodes et outils permettant l'intĂ©gration de connaissances et le raisonnement dans des systĂšmes Ă  base de connaissances sur le web. Ainsi, on retrouve les thĂšmes de la reprĂ©sentation des connaissances et du raisonnement dans six articles abordant les problĂ©matiques du web de donnĂ©es : le liage des donnĂ©es, leur transformation et leur interrogation ; la reprĂ©sentation et la rĂ©utilisation de rĂšgles sur le web de donnĂ©es ; la programmation d'applications exploitant le web de donnĂ©es. L'essor des sciences et technologies de l'information et de la communication, et notamment des technologies du web, dans l'ensemble de la sociĂ©tĂ© engendre des mutations dans les pratiques individuelles et collectives. L'ingĂ©nierie des connaissances accompagne cette Ă©volution en plaçant l'utilisateur au cƓur des systĂšmes informatiques, pour l'assister dans le traitement de la masse de donnĂ©es disponibles. Quatre articles sont dĂ©diĂ©s aux problĂ©matiques du web social : analyse de rĂ©seaux sociaux, dĂ©tection de communautĂ©s, folksonomies, personnalisation de recommandations, reprĂ©sentation et prise en compte de points de vue dans la recherche d'information. Deux articles traitent de l'adaptation des systĂšmes aux utilisateurs et de l'assistance aux utilisateurs et deux autres de l'aide Ă  la prise de dĂ©cision. Le taux de sĂ©lection de cette Ă©dition de la confĂ©rence est de 50%, avec dix-neuf articles longs et deux articles courts acceptĂ©s parmi quarante-deux soumissions. S'y ajoutent une sĂ©lection de neuf posters et dĂ©monstrations parmi douze soumissions, prĂ©sentĂ©s dans une session dĂ©diĂ©e et inclus dans les actes. Enfin, une innovation de cette Ă©dition 2014 de la confĂ©rence est la programmation d'une session spĂ©ciale " Projets et Industrie ", animĂ©e par FrĂ©dĂ©rique Segond (Viseo), Ă  laquelle participeront Laurent Pierre (EDF), Alain Berger (Ardans) et MylĂšne Leitzelman (Mnemotix). Trois confĂ©renciĂšres invitĂ©es ouvriront chacune des journĂ©es de la confĂ©rence que je remercie chaleureusement de leur participation. Nathalie Aussenac-Gilles (IRIT) retracera l'Ă©volution de l'ingĂ©nierie des connaissances en France depuis 25 ans, de la pĂ©nurie Ă  la surabondance. A sa suite, FrĂ©dĂ©rique Segond (Viseo) abordera le problĂšme de " l'assouvissement " de la faim de connaissances dans la nouvelle Ăšre des connaissances dans laquelle nous sommes entrĂ©s. Enfin, Marie-Laure Mugnier (LIRMM) prĂ©sentera un nouveau cadre pour l'interrogation de donnĂ©es basĂ©e sur une ontologie, fondĂ© sur des rĂšgles existentielles

    Modélisation intégratrice du traitement BigData

    Get PDF
    Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigDataDans le monde d’aujourd’hui de multiples acteurs de la technologie numĂ©rique produisent des quantitĂ©s infinies de donnĂ©es. Capteurs, rĂ©seaux sociaux ou e-commerce, ils gĂ©nĂšrent tous de l’information qui s’incrĂ©mente en temps-rĂ©el selon les 3 V de Gartner : en Volume, en Vitesse et en VariabilitĂ©. Afin d’exploiter efficacement et durablement ces donnĂ©es, il est important de respecter la dynamicitĂ© de leur Ă©volution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modĂšle dynamique capable de supporter le changement de type Ă  chaque instant sans failles de traitement ; d’autre part le support de la volatilitĂ© par un modĂšle intelligent prenant en compte des donnĂ©es clĂ© seulement interprĂ©tables Ă  un instant « t », au lieu de traiter toute la volumĂ©trie des donnĂ©es actuelle et historique.L’objectif premier de cette Ă©tude est de pouvoir Ă©tablir au moyen de ces approches une vision intĂ©gratrice du cycle de vie des donnĂ©es qui s’établit selon 3 Ă©tapes, (1) la synthĂšse des donnĂ©es via la sĂ©lection des valeurs-clĂ©s des micro-donnĂ©es acquises par les diffĂ©rents opĂ©rateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clĂ©s sĂ©lectionnĂ©es et les dupliquant suivant un aspect de dĂ©-normalisation afin d’obtenir un traitement plus rapide des donnĂ©es et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe dĂ©fini dans la couche applicative.Cette rĂ©flexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opĂ©rateurs de modĂ©lisation sus-dĂ©crits et aboutissant Ă  une boĂźte Ă  outils de modĂ©lisation comparable Ă  un AGL et, permettant une mise en place assistĂ©e d'un ou plusieurs traitements sur BigDat

    Actes de la 9Ăšme confĂ©rence des Technologies de l’Information et de la Communication pour l’Enseignement (TICE 2014)

    Get PDF
    National audienceLe cycle de confĂ©rence TICE a pour objectif de faire tous les deux ans le point sur les rĂ©sultats de recherches, les nouvelles applications, les derniers usages, et les retours d’expĂ©riences dans le domaine de l’éducation supĂ©rieure numĂ©rique. Le colloque TICE 2014 est organisĂ© par l’IUT de Beziers, une composante de l’UniversitĂ© Montpellier 2. Cette neuviĂšme Ă©dition du colloque TICE sera l’occasion de rassembler Ă  BĂ©ziers, du 18 au 20 Novembre 2014, la communautĂ© scientifique et industrielle des TICE autour du thĂšme « Nouvelles pĂ©dagogies et sciences et technologies du numĂ©rique »

    Enterprise at the era of the Knowledge Economy

    Get PDF
    Although left for a few decades the era Taylorism, we have done nothing but enter the era of the accoutable persons i.e. people who, making decisions, are able and have the will to justify them; there is a true request which started to appear in the field of the finance (in France, Law of Financial Safety echoing the law Sarbanes-Oxley in the United States) but which will not fail to extend gradually to the other fields by contagion because the financial field is only the reflection of what takes place within. These accountable persons will justify of as much better the decisions than those will have been made within the framework of a collaborative work; the justification can be based only on facts, reasoning and a context corresponding to a certain number of allowed values of reference by the concerned organization. These facts, this reasoning revealing new facts, these values of reference, all that constitutes knowledge i.e. a whole of signals or stimuli helping us with better perceiving and understanding the world which surrounds us. Either they are preexistent with the process of decision-making or are its consequence, this knowledge must be able to be communicated to any person entitled to justify the decision made even the not-decision (indeed, the fact of not making a decision when a problem has to be solved can paralyse the activity of various recipients to even have serious consequences and must be able to be justified as well as a decision). This need for justification has an indirect effect but great importance; when an activity is carried on and that one has accounts to report, its good execution is not enough to secure you against any critic because it is necessary to be able to show the cogency of this activity and the adopted step, taking into account the aim in view; there is thus a permanent questioning in the light of the evolution of the context and the environment. The justification starting from knowledge is thus not a simple obligation but a factor of progress, innovation and adaptation to the change thus of competitiveness. Let us quote a forum (1) which will interest those who are “seeking to comply with the requirements of this important legislation”; indeed, it offers free downloading of the Act itself and provides a compliance toolkit. In this e-book, you will find two parts: one to explain the conditions of organizing an e-enterprise and the second one to show how you might be able to working out knowledge in a dynamic way. For French speaking KB Members, we recommend interesting hints (2) written by Netegrity’s Didier Schreiber who underlines the consequences of this law from the point of view of IS and security devices. (1) http://www.sarbanes-oxley-forum.com (2) http://www.guideinformatique.com/fiche-loi_sarbanes_oxley-481.html: capital intellectuel; information; rĂ©seau; production; rĂ©alitĂ© virtuelle; travail collaboratif; commerce Ă©lectronique; portail; gestion; supply chain; organisation; modĂ©lisation; documents; Web services; agents intelligents; Corporate Performance Management; connaissances; mĂ©taconnaissances; K-Maps
    corecore