108 research outputs found

    La fusion des ontologies

    Get PDF
    La fusion des ontologies est une filière du domaine de la gestion des connaissances qui est en relation étroite avec d'autres domaines informatiques comme l'intelligence artificielle, le Web sémantique et le traitement du langage naturel. Cette filière prend une part de plus en plus accentuée dans la gestion des ontologies tout en considérant l'évolution rapide de la technologie des connaissances. La naissance de la fusion d'ontologies a conduit à la menée de plusieurs travaux de recherches et le développement de différentes approches concrètes, mais qui présentent certaines faiblesses, notamment au niveau de l'analyse des données relationnelles. La majorité de ces travaux se concentrent principalement sur l'alignement et la détection des similarités, mais ils négligent les informations qu'on pourrait dégager à partir de l'analyse formelle et relationnelle des concepts. Dans ce projet, nous proposons une approche de fusion d'ontologies, au sein de la plateforme INUKHUK, basée sur l'application d'analyses formelles et relationnelles des concepts (AFC et ARC). Ainsi, le principe de notre approche s'articule sur la factorisation des deux ontologies sources. Cette factorisation engendre une structure qui sera nettoyée à l'aide d'un outil d'alignement. Nous appliquons les analyses avec le moteur ARC sur la structure générée précédemment pour dégager un ensemble de treillis. Nous déduisons l'ontologie fusionnée à partir de l'ensemble de treillis dégagé. Avec notre approche, nous exploitons également la notion de la ré-ingénierie puisque nous factorisons, puis nous restructurons les ontologies.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : fusion d'ontologies, alignement d'ontologies, factorisation des ontologies, analyse relationnelle des concepts, analyse formelle des concepts, génération des treillis, restructuration des ontologies

    Un système de recherche d'information personnalisée basé sur la modélisation multidimensionnelle de l'utilisateur

    Get PDF
    Depuis l'explosion du Web, la Recherche d'Information (RI) s'est vue étendue et les moteurs de recherche sur le Web ont vu le jour. Les méthodes classiques de la RI, surtout destinées à des recherches textuelles simples, se sont retrouvées face à des documents de différents formats et des contenus riches. L'utilisateur, en réponse à cette avancée, est devenu plus exigeant quant aux résultats retournés par les systèmes de RI. La personnalisation tente de répondre à ces exigences en ayant pour objectif principal l'amélioration des résultats retournés à l'utilisateur en fonction de sa perception et de ses intérêts ainsi que de ses préférences. Le présent travail de thèse se situe à la croisée des différents aspects présentés et couvre cette problématique. Elle a pour objectif principal de proposer des solutions nouvelles et efficaces à cette problématique. Pour atteindre cet objectif, un système de personnalisation de la recherche spatiale et sémantique sur le Web et intégrant la modélisation de l'utilisateur, a été proposé. Ce système comprend deux volets : 1/ la modélisation de l'utilisateur ; 2/ la collaboration implicite des utilisateurs à travers la construction d'un réseau de modèles utilisateurs, construit itérativement lors des différentes recherches effectuées en ligne. Un prototype supportant le système proposé a été développé afin d'expérimenter et d'évaluer l'ensemble de la proposition. Ainsi, nous avons effectué un ensemble d'évaluation, dont les principales sont : a) l'évaluation de la qualité du modèle de l'utilisateur ; b) l'évaluation de l'efficacité de la recherche d'information ; c) l évaluation de l'efficacité de la recherche d'information intégrant les informations spatiales ; d) l'évaluation de la recherche exploitant le réseau d'utilisateurs. Les expérimentations menées montrent une amélioration de la personnalisation des résultats présentés par rapport à ceux obtenus par d'autres moteurs de recherche.The web explosion has led Information Retrieval (IR) to be extended and web search engines emergence. The conventional IR methods, usually intended for simple textual searches, faced new documents types and rich and scalable contents. The users, facing these evolutions, ask more for IR systems search results quality. In this context, the personalization main objective is improving results returned to the end user based sing on its perception and its interests and preferences. This thesis context is concerned with these different aspects. Its main objective is to propose new and effective solutions to the personalization problem. To achieve this goal, a spatial and semantic web personalization system integrating implicit user modeling is proposed. This system has two components: 1/ user modeling; /2 implicit users' collaboration through the construction of a users' models network. A system prototype was developed for the evaluation purpose that contains: a) user model quality evaluation; b) information retrieval quality evaluation; c) information retrieval quality evaluation with the spatial user model data; d) information retrieval quality evaluation with the whole user model data and the users' models network. Experiments showed amelioration in the personalized search results compared to a baseline web search.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Contribution à la définition de modèles de recherche d'information flexibles basés sur les CP-Nets

    Get PDF
    This thesis addresses two main problems in IR: automatic query weighting and document semantic indexing. Our global contribution consists on the definition of a theoretical flexible information retrieval (IR) model based on CP-Nets. The CP-Net formalism is used for the graphical representation of flexible queries expressing qualitative preferences and for automatic weighting of such queries. Furthermore, the CP-Net formalism is used as an indexing language in order to represent document representative concepts and related relations in a roughly compact way. Concepts are identified by projection on WordNet. Concept relations are discovered by means of semantic association rules. A query evaluation mechanism based on CP-Nets graph similarity is also proposed.Ce travail de thèse adresse deux principaux problèmes en recherche d'information : (1) la formalisation automatique des préférences utilisateur, (ou la pondération automatique de requêtes) et (2) l'indexation sémantique. Dans notre première contribution, nous proposons une approche de recherche d'information (RI) flexible fondée sur l'utilisation des CP-Nets (Conditional Preferences Networks). Le formalisme CP-Net est utilisé d'une part, pour la représentation graphique de requêtes flexibles exprimant des préférences qualitatives et d'autre part pour l'évaluation flexible de la pertinence des documents. Pour l'utilisateur, l'expression de préférences qualitatives est plus simple et plus intuitive que la formulation de poids numériques les quantifiant. Cependant, un système automatisé raisonnerait plus simplement sur des poids ordinaux. Nous proposons alors une approche de pondération automatique des requêtes par quantification des CP-Nets correspondants par des valeurs d'utilité. Cette quantification conduit à un UCP-Net qui correspond à une requête booléenne pondérée. Une utilisation des CP-Nets est également proposée pour la représentation des documents dans la perspective d'une évaluation flexible des requêtes ainsi pondéreés. Dans notre seconde contribution, nous proposons une approche d'indexation conceptuelle basée sur les CP-Nets. Nous proposons d'utiliser le formalisme CP-Net comme langage d'indexation afin de représenter les concepts et les relations conditionnelles entre eux d'une manière relativement compacte. Les noeuds du CP-Net sont les concepts représentatifs du contenu du document et les relations entre ces noeuds expriment les associations conditionnelles qui les lient. Notre contribution porte sur un double aspect : d'une part, nous proposons une approche d'extraction des concepts en utilisant WordNet. Les concepts résultants forment les noeuds du CP-Net. D'autre part, nous proposons d'étendre et d'utiliser la technique de règles d'association afin de découvrir les relations conditionnelles entre les concepts noeuds du CP-Nets. Nous proposons enfin un mécanisme d'évaluation des requêtes basé sur l'appariement de graphes (les CP-Nets document et requête en l'occurrence)

    Exploitation des connaissances issues des processus de retour d'expérience industriels

    Get PDF
    Depuis plusieurs années, dans le secteur industriel, l amélioration continue constitue un aspect important de la famille de normes ISO 9000 maintenue par l organisation ISO (International Organization for Standardization). Elle se concentre sur l amélioration de la satisfaction du client en passant par des améliorations continues et incrémentales des produits, des services et des processus. Afin de répondre à ces exigences, un point clé consiste à optimiser le processus de résolution de problèmes qui vise à analyser et résoudre les problèmes courants pour éviter de nouvelles occurrences. Différents processus de résolution de problèmes ont été définis et sont implantés dans les entreprises. L un des plus connu est sans doute la méthode PLAN-DO-CHECK-ACT (PDCA), également connue sous le nom de Roue de Deming . D autres méthodes sont également utilisées comme : 8 Disciplines (8D) également appelée TOPS (Team-Oriented Problem Solving), Six sigma ou DMAIC (Define, Measure, Analyze, Improve and Control), 7 step, etc. Les activités principales dans ces processus sont : la formation d une équipe de résolution de problème, la description et l évaluation de la criticité des événements, l analyse des événements afin d en rechercher les causes racine et valider cette analyse, la proposition d une solution au problème et son application (solution curative), la suggestion d actions pour éviter une nouvelle occurrence du problème (solution préventive, leçons apprises, etc.). Dans cette logique d amélioration continue, un processus de Retour d Expérience (Rex) est une représentation générique focalisé sur l'acquisition des connaissances des experts en phase de résolution de problème et sur la réutilisation de ces connaissances pour résoudre ou éviter de nouveaux problèmes. Une base de connaissances de retour d'expérience va servir de pivot entre la phase d'acquisition et la phase d'exploitation. Les points abordés dans le travail de thèse seront les suivants : Représenter les différentes composantes d'une expérience en utilisant les processus de résolution de problème comme support de capitalisation. Instrumenter les processus de capitalisation et d exploitation Formaliser des mécanismes de recherche d expérience, Formaliser des mécanismes de réutilisation d analyses expertes - Développer un outil support de retour d expérience sur une architecture Web.Continuous improvement of industrial processes is increasingly a key element of competitiveness for industrial systems. Management of experience feedback takes place in this framework to build, analyze and facilitate the reuse of immaterial potential of an organization in order to make it better in achieving its processes and / or products. For several years, the need for continuous improvement of products and processes has led many companies to set up standardized problem solving processes. For this purpose, different Problem Solving Processes are commonly used in the industrial field such as: 8D, PDCA (Plan Do Check Act), DMAICS (Define Measure Analyze Improve Control Standardize) or, more recently, the 9S process (9Steps). The main activities in the problem solving process are: The composition of the problem solving team, the description and assessment of the problem highlighted by events, the analysis of events to identify their root causes and their validation, the formulation of the problem solutions and their application checking (corrective actions), the action suggestions to prevent from a new occurrence of the problem (preventive actions, lessons learned, etc.). During the Problem Solving Processes, the intellectual investment of experts is often considerable. We propose to define mechanisms to reuse previously performed analysis (already solved issues) to guide the resolution of a new problem. The main contributions of this research work are : The structuring of a cognitive experience feedback framework allowing a flexible exploitation of expert knowledge: we propose a formal representation of an experience (according to the problem solving processes). - The definition of two mechanisms to exploit the context and analysis in these experiences. The specification and development of Experience Feedback Support Framework ProWhy offering methodological and software support for knowledge management (KM), and in particular for capitalization and exploitation phases of experience feedback processes.TOULOUSE-INP (315552154) / SudocSudocFranceF

    Exploitation des connaissances issues des processus de retour d'expérience industriels

    Get PDF
    Depuis plusieurs années, dans le secteur industriel, l’amélioration continue constitue un aspect important de la famille de normes ISO 9000 maintenue par l’organisation ISO (International Organization for Standardization). Elle se concentre sur l’amélioration de la satisfaction du client en passant par des améliorations continues et incrémentales des produits, des services et des processus. Afin de répondre à ces exigences, un point clé consiste à optimiser le processus de résolution de problèmes qui vise à analyser et résoudre les problèmes courants pour éviter de nouvelles occurrences. Différents processus de résolution de problèmes ont été définis et sont implantés dans les entreprises. L’un des plus connu est sans doute la méthode PLAN-DO-CHECK-ACT (PDCA), également connue sous le nom de « Roue de Deming ». D’autres méthodes sont également utilisées comme : 8 Disciplines (8D) également appelée TOPS (Team-Oriented Problem Solving), Six sigma ou DMAIC (Define, Measure, Analyze, Improve and Control), 7 step, etc. Les activités principales dans ces processus sont : la formation d’une équipe de résolution de problème, la description et l’évaluation de la criticité des événements, l’analyse des événements afin d’en rechercher les causes racine et valider cette analyse, la proposition d’une solution au problème et son application (solution curative), la suggestion d’actions pour éviter une nouvelle occurrence du problème (solution préventive, leçons apprises, etc.). Dans cette logique d’amélioration continue, un processus de Retour d’Expérience (Rex) est une représentation générique focalisé sur l'acquisition des connaissances des experts en phase de résolution de problème et sur la réutilisation de ces connaissances pour résoudre ou éviter de nouveaux problèmes. Une base de connaissances de retour d'expérience va servir de pivot entre la phase d'acquisition et la phase d'exploitation. Les points abordés dans le travail de thèse seront les suivants : Représenter les différentes composantes d'une expérience en utilisant les processus de résolution de problème comme support de capitalisation. Instrumenter les processus de capitalisation et d’exploitation Formaliser des mécanismes de recherche d’expérience, Formaliser des mécanismes de réutilisation d’analyses expertes - Développer un outil support de retour d’expérience sur une architecture Web. ABSTRACT : Continuous improvement of industrial processes is increasingly a key element of competitiveness for industrial systems. Management of experience feedback takes place in this framework to build, analyze and facilitate the reuse of immaterial potential of an organization in order to make it better in achieving its processes and / or products. For several years, the need for continuous improvement of products and processes has led many companies to set up standardized problem solving processes. For this purpose, different Problem Solving Processes are commonly used in the industrial field such as: 8D, PDCA (Plan Do Check Act), DMAICS (Define Measure Analyze Improve Control Standardize) or, more recently, the 9S process (9Steps). The main activities in the problem solving process are: The composition of the problem solving team, the description and assessment of the problem highlighted by events, the analysis of events to identify their root causes and their validation, the formulation of the problem solutions and their application checking (corrective actions), the action suggestions to prevent from a new occurrence of the problem (preventive actions, lessons learned, etc.). During the Problem Solving Processes, the intellectual investment of experts is often considerable. We propose to define mechanisms to reuse previously performed analysis (already solved issues) to guide the resolution of a new problem. The main contributions of this research work are : The structuring of a cognitive experience feedback framework allowing a flexible exploitation of expert knowledge: we propose a formal representation of an experience (according to the problem solving processes). - The definition of two mechanisms to exploit the context and analysis in these experiences. The specification and development of Experience Feedback Support Framework ProWhy offering methodological and software support for knowledge management (KM), and in particular for capitalization and exploitation phases of experience feedback processes

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    MĂ©trologie des graphes de terrain, application Ă  la construction de ressources lexicales et Ă  la recherche d'information

    Get PDF
    This thesis is organized in two parts : the first part focuses on measures of similarity (or proximity) between vertices of a graph, the second part on clustering methods for bipartite graph. A new measure of similarity between vertices, based on short time random walks, is introduced. The main advantage of the method is that it is insensitive to the density of the graph. A broad state of the art of similarities between vertices is then proposed, as well as experimental comparisons of these measures. This is followed by the proposal of a robust method for comparing graphs sharing the same set of vertices. This measure is shown to be applicable to the comparison and merging of synonymy networks. Finally an application for the enrichment of lexical resources is presented. It consists in providing candidate synonyms on the basis of already existing links. In the second part, a parallel between formal concept analysis and clustering of bipartite graph is established. This parallel leads to the particular case where a partition of one of the vertex groups can be determined whereas there is no corresponding partition on the other group of vertices. A simple method that addresses this problem is proposed and evaluated. Finally, a system of automatic classification of search results (Kodex) is presented. This system is an application of previously seen clustering methods. An evaluation on a collection of two million web pages shows the benefits of the approach and also helps to understand some differences between clustering methods.Cette thèse s'organise en deux parties : une première partie s'intéresse aux mesures de similarité (ou de proximité) définies entre les sommets d'un graphe, une seconde aux méthodes de clustering de graphe biparti. Une nouvelle mesure de similarité entre sommets basée sur des marches aléatoires en temps courts est introduite. Cette méthode a l'avantage, en particulier, d'être insensible à la densité du graphe. Il est ensuite proposé un large état de l'art des similarités entre sommets, ainsi qu'une comparaison expérimentale de ces différentes mesures. Cette première partie se poursuit par la proposition d'une méthode robuste de comparaison de graphes partageant le même ensemble de sommets. Cette méthode est mise en application pour comparer et fusionner des graphes de synonymie. Enfin une application d'aide à la construction de ressources lexicales est présentée. Elle consiste à proposer de nouvelles relations de synonymie à partir de l'ensemble des relations de synonymie déjà existantes. Dans une seconde partie, un parallèle entre l'analyse formelle de concepts et le clustering de graphe biparti est établi. Ce parallèle conduit à l'étude d'un cas particulier pour lequel une partition d'un des groupes de sommets d'un graphe biparti peut-être déterminée alors qu'il n'existe pas de partitionnement correspondant sur l'autre type de sommets. Une méthode simple qui répond à ce problème est proposée et évaluée. Enfin Kodex, un système de classification automatique des résultats d'une recherche d'information est présenté. Ce système est une application en RI des méthodes de clustering vues précédemment. Une évaluation sur une collection de deux millions de pages web montre les avantages de l'approche et permet en outre de mieux comprendre certaines différences entre méthodes de clustering

    Acoustic-phonetic decoding of speech : problems and solutions

    Get PDF
    Acoustic phonetic decoding of speech recognition constitutes a major step in the process of continuous speech recognition . This paper reminds the difficulties of the problem together with the main methods proposed so far in order to solve it . We then concentrate on the différent complementary approaches Chat have been investigated by our group : expert system based on spectrogram reading, recognition by phonetic triphones, connectionist model based on the cortical column unit and stochastic recognition without segmentation .Le décodage acoustico-phonétique constitue une étape importante en reconnaissance de la parole continue . Cet article rappelle d'abord les difficultés du problème et les principales méthodes qui ont été proposées pour le résoudre . Il présente ensuite les diverses approches complémentaires adoptées par notre équipe : système expert fondé sur l'activité de lecture de spectrogrammes, reconnaissance par triplets phonétiques, modèle connexionniste de colonne corticale et reconnaissance par méthode stochastique sans segmentation

    Société Francophone de Classification (SFC) Actes des 26èmes Rencontres

    Get PDF
    National audienceLes actes des rencontres de la Société Francophone de Classification (SFC, http://www.sfc-classification.net/) contiennent l'ensemble des contributions,présentés lors des rencontres entre les 3 et 5 septembre 2019 au Centre de Recherche Inria Nancy Grand Est/LORIA Nancy. La classification sous toutes ces formes, mathématiques, informatique (apprentissage, fouille de données et découverte de connaissances ...), et statistiques, est la thématique étudiée lors de ces journées. L'idée est d'illustrer les différentes facettes de la classification qui reflètent les intérêts des chercheurs dans la matière, provenant des mathématiques et de l'informatique

    Système de recherche d’information étendue basé sur une projection multi-espaces

    Get PDF
    Depuis son apparition au début des années 90, le World Wide Web (WWW ou Web) a offert un accès universel aux connaissances et le monde de l’information a été principalement témoin d’une grande révolution (la révolution numérique). Il est devenu rapidement très populaire, ce qui a fait de lui la plus grande et vaste base de données et de connaissances existantes grâce à la quantité et la diversité des données qu'il contient. Cependant, l'augmentation et l’évolution considérables de ces données soulèvent d'importants problèmes pour les utilisateurs notamment pour l’accès aux documents les plus pertinents à leurs requêtes de recherche. Afin de faire face à cette explosion exponentielle du volume de données et faciliter leur accès par les utilisateurs, différents modèles sont proposés par les systèmes de recherche d’information (SRIs) pour la représentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et récupérer ces documents, des mots-clés simples qui ne sont pas sémantiquement liés. Cela engendre des limites en termes de la pertinence et de la facilité d'exploration des résultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intégrant des mots-clés externes provenant de différentes sources. Cependant, ces systèmes souffrent encore de limitations qui sont liées aux techniques d’exploitation de ces sources d’enrichissement. Lorsque les différentes sources sont utilisées de telle sorte qu’elles ne peuvent être distinguées par le système, cela limite la flexibilité des modèles d'exploration qui peuvent être appliqués aux résultats de recherche retournés par ce système. Les utilisateurs se sentent alors perdus devant ces résultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sélectionner l'information pertinente. S’ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requêtes de recherche jusqu'à parvenir aux documents qui répondent le mieux à leurs attentes. De cette façon, même si les systèmes parviennent à retrouver davantage des résultats pertinents, leur présentation reste problématique. Afin de cibler la recherche à des besoins d'information plus spécifiques de l'utilisateur et améliorer la pertinence et l’exploration de ses résultats de recherche, les SRIs avancés adoptent différentes techniques de personnalisation de données qui supposent que la recherche actuelle d'un utilisateur est directement liée à son profil et/ou à ses expériences de navigation/recherche antérieures. Cependant, cette hypothèse ne tient pas dans tous les cas, les besoins de l’utilisateur évoluent au fil du temps et peuvent s’éloigner de ses intérêts antérieurs stockés dans son profil. Dans d’autres cas, le profil de l’utilisateur peut être mal exploité pour extraire ou inférer ses nouveaux besoins en information. Ce problème est beaucoup plus accentué avec les requêtes ambigües. Lorsque plusieurs centres d’intérêt auxquels est liée une requête ambiguë sont identifiés dans le profil de l’utilisateur, le système se voit incapable de sélectionner les données pertinentes depuis ce profil pour répondre à la requête. Ceci a un impact direct sur la qualité des résultats fournis à cet utilisateur. Afin de remédier à quelques-unes de ces limitations, nous nous sommes intéressés dans ce cadre de cette thèse de recherche au développement de techniques destinées principalement à l'amélioration de la pertinence des résultats des SRIs actuels et à faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basée sur un nouveau concept d'indexation et de recherche d'information appelé la projection multi-espaces. Cette proposition repose sur l'exploitation de différentes catégories d'information sémantiques et sociales qui permettent d'enrichir l'univers de représentation des documents et des requêtes de recherche en plusieurs dimensions d'interprétations. L’originalité de cette représentation est de pouvoir distinguer entre les différentes interprétations utilisées pour la description et la recherche des documents. Ceci donne une meilleure visibilité sur les résultats retournés et aide à apporter une meilleure flexibilité de recherche et d'exploration, en donnant à l’utilisateur la possibilité de naviguer une ou plusieurs vues de données qui l’intéressent le plus. En outre, les univers multidimensionnels de représentation proposés pour la description des documents et l’interprétation des requêtes de recherche aident à améliorer la pertinence des résultats de l’utilisateur en offrant une diversité de recherche/exploration qui aide à répondre à ses différents besoins et à ceux des autres différents utilisateurs. Cette étude exploite différents aspects liés à la recherche personnalisée et vise à résoudre les problèmes engendrés par l’évolution des besoins en information de l’utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisé par notre système, une technique est proposée et employée pour identifier les intérêts les plus représentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, fréquentiel et temporel des données. La capacité des utilisateurs à interagir, à échanger des idées et d’opinions, et à former des réseaux sociaux sur le Web, a amené les systèmes à s’intéresser aux types d’interactions de ces utilisateurs, au niveau d’interaction entre eux ainsi qu’à leurs rôles sociaux dans le système. Ces informations sociales sont abordées et intégrées dans ce travail de recherche. L’impact et la manière de leur intégration dans le processus de RI sont étudiés pour améliorer la pertinence des résultats. Since its appearance in the early 90's, the World Wide Web (WWW or Web) has provided universal access to knowledge and the world of information has been primarily witness to a great revolution (the digital revolution). It quickly became very popular, making it the largest and most comprehensive database and knowledge base thanks to the amount and diversity of data it contains. However, the considerable increase and evolution of these data raises important problems for users, in particular for accessing the documents most relevant to their search queries. In order to cope with this exponential explosion of data volume and facilitate their access by users, various models are offered by information retrieval systems (IRS) for the representation and retrieval of web documents. Traditional SRIs use simple keywords that are not semantically linked to index and retrieve these documents. This creates limitations in terms of the relevance and ease of exploration of results. To overcome these limitations, existing techniques enrich documents by integrating external keywords from different sources. However, these systems still suffer from limitations that are related to the exploitation techniques of these sources of enrichment. When the different sources are used so that they cannot be distinguished by the system, this limits the flexibility of the exploration models that can be applied to the results returned by this system. Users then feel lost to these results, and find themselves forced to filter them manually to select the relevant information. If they want to go further, they must reformulate and target their search queries even more until they reach the documents that best meet their expectations. In this way, even if the systems manage to find more relevant results, their presentation remains problematic. In order to target research to more user-specific information needs and improve the relevance and exploration of its research findings, advanced SRIs adopt different data personalization techniques that assume that current research of user is directly related to his profile and / or previous browsing / search experiences. However, this assumption does not hold in all cases, the needs of the user evolve over time and can move away from his previous interests stored in his profile. In other cases, the user's profile may be misused to extract or infer new information needs. This problem is much more accentuated with ambiguous queries. When multiple POIs linked to a search query are identified in the user's profile, the system is unable to select the relevant data from that profile to respond to that request. This has a direct impact on the quality of the results provided to this user. In order to overcome some of these limitations, in this research thesis, we have been interested in the development of techniques aimed mainly at improving the relevance of the results of current SRIs and facilitating the exploration of major collections of documents. To do this, we propose a solution based on a new concept and model of indexing and information retrieval called multi-spaces projection. This proposal is based on the exploitation of different categories of semantic and social information that enrich the universe of document representation and search queries in several dimensions of interpretations. The originality of this representation is to be able to distinguish between the different interpretations used for the description and the search for documents. This gives a better visibility on the results returned and helps to provide a greater flexibility of search and exploration, giving the user the ability to navigate one or more views of data that interest him the most. In addition, the proposed multidimensional representation universes for document description and search query interpretation help to improve the relevance of the user's results by providing a diversity of research / exploration that helps meet his diverse needs and those of other different users. This study exploits different aspects that are related to the personalized search and aims to solve the problems caused by the evolution of the information needs of the user. Thus, when the profile of this user is used by our system, a technique is proposed and used to identify the interests most representative of his current needs in his profile. This technique is based on the combination of three influential factors, including the contextual, frequency and temporal factor of the data. The ability of users to interact, exchange ideas and opinions, and form social networks on the Web, has led systems to focus on the types of interactions these users have at the level of interaction between them as well as their social roles in the system. This social information is discussed and integrated into this research work. The impact and how they are integrated into the IR process are studied to improve the relevance of the results
    • …
    corecore