238 research outputs found

    Méthodes d'analyse supervisée pour l'interface syntaxe-sémantique: De la réécriture de graphes à l'analyse par transitions

    Get PDF
    Nowadays, the amount of textual data has become so gigantic, that it is not possible to deal with it manually. In fact, it is now necessary to use Natural Language Processing techniques to extract useful information from these data and understand their underlying meaning. In this thesis, we offer resources, models and methods to allow: (i) the automatic annotation of deep syntactic corpora to extract argument structure that links (verbal) predicates to their arguments (ii) the use of these resources with the help of efficient methods.First, we develop a graph rewriting system and a set of manually-designed rewriting rules to automatically annotate deep syntax in French. Thanks to this approach, two corpora were created: the DeepSequoia, a deep syntactic version of the SĂ©quoia corpus and the DeepFTB, a deep syntactic version of the dependency version of the French Treebank. Next, we extend two transition-based parsers and adapt them to be able to deal with graph structures. We also develop a set of rich linguistic features extracted from various syntactic trees. We think they are useful to bring different kind of topological information to accurately predict predicat-argument structures. Used in an arc-factored second-order parsing model, this set of features gives the first state-of-the-art results on French and outperforms the one established on the DM and PAS corpora for English.Finally, we briefly explore a method to automatically induce the transformation between a tree and a graph. This completes our set of coherent resources and models to automatically analyze the syntax-semantics interface on French and English.Aujourd'hui, le volume de donnĂ©es textuelles disponibles est colossal. Ces donnĂ©es reprĂ©sentent des informations inestimables impossibles Ă  traiter manuellement. De fait, il est essentiel d'utiliser des techniques de Traitement Automatique des Langues pour extraire les informations saillantes et comprendre le sens sous-jacent. Cette thĂšse s'inscrit dans cette perspective et proposent des ressources, des modĂšles et des mĂ©thodes pour permettre : (i) l'annotation automatique de corpus Ă  l'interface entre la syntaxe et la sĂ©mantique afin d'en extraire la structure argumentale (ii) l'exploitation des ressources par des mĂ©thodes efficaces. Nous proposons d’abord un systĂšme de rĂ©Ă©criture de graphes et un ensemble de rĂšgles de rĂ©Ă©criture manuellement Ă©crites permettant l'annotation automatique de la syntaxe profonde du français. GrĂące Ă  cette approche, deux corpus ont vu le jour : le DeepSequoia, version profonde du corpus SĂ©quoia et le DeepFTB, version profonde du French Treebank en dĂ©pendances. Ensuite, nous proposons deux extensions d'analyseurs par transitions et les adaptons Ă  l'analyse de graphes. Nous dĂ©veloppons aussi un ensemble de traits riches issus d'analyses syntaxiques. L'idĂ©e est d'apporter des informations topologiquement variĂ©es donnant Ă  nos analyseurs les indices nĂ©cessaires pour une prĂ©diction performante de la structure argumentale. CouplĂ© Ă  un analyseur par factorisation d'arcs, cet ensemble de traits permet d'Ă©tablir l'Ă©tat de l'art sur le français et de dĂ©passer celui Ă©tabli pour les corpus DM et PAS sur l'anglais. Enfin, nous explorons succinctement une mĂ©thode d'induction pour le passage d'un arbre vers un graphe

    Annotation en rÎles sémantiques du français en domaine spécifique

    Get PDF
    In this Natural Language Processing Ph. D. Thesis, we aim to perform semantic role labeling on French domain-specific texts. This task first disambiguates the sense of predicates in a given text and annotates its child chunks with semantic roles such as Agent, Patient or Destination. The task helps many applications in domains where annotated corpora exist, but is difficult to use otherwise. We first evaluate on the FrameNet corpus an existing method based on VerbNet, which explains why the method is domain-independant. We show that substantial improvements can be obtained. We first use syntactic information by handling the passive voice. Next, we use semantic informations by taking advantage of the selectional restrictions present in VerbNet. To apply this method to French, we first translate lexical resources. We first translate the WordNet lexical database. Next, we translate the VerbNet lexicon which is organized semantically using syntactic information. We obtain its translation, VerbeNet, by reusing two French verb lexicons (the Lexique-Grammaire and Les Verbes Français) and by manually modifying and reorganizing the resulting lexicon. Finally, once those building blocks are in place, we evaluate the feasibility of semantic role labeling of French and English in three specific domains. We study the pros and cons of using VerbNet and VerbeNet to annotate those domains before explaining our future work.Cette thĂšse de Traitement Automatique des Langues a pour objectif l'annotation automatique en rĂŽles sĂ©mantiques du français en domaine spĂ©cifique. Cette tĂąche dĂ©sambiguĂŻse le sens des prĂ©dicats d'un texte et annote les syntagmes liĂ©s avec des rĂŽles sĂ©mantiques tels qu'Agent, Patient ou Destination. Elle aide de nombreuses applications dans les domaines oĂč des corpus annotĂ©s existent, mais est difficile Ă  utiliser quand ce n'est pas le cas. Nous avons d'abord Ă©valuĂ© sur le corpus FrameNet une mĂ©thode existante d'annotation basĂ©e uniquement sur VerbNet et donc indĂ©pendante du domaine considĂ©rĂ©. Nous montrons que des amĂ©liorations consĂ©quentes peuvent ĂȘtre obtenues Ă  la fois d'un point de vue syntaxique avec la prise en compte de la voix passive et d'un point de vue sĂ©mantique en utilisant les restrictions de sĂ©lection indiquĂ©es dans VerbNet. Pour utiliser cette mĂ©thode en français, nous traduisons deux ressources lexicales anglaises. Nous commençons par la base de donnĂ©es lexicales WordNet. Nous traduisons ensuite le lexique VerbNet dans lequel les verbes sont regroupĂ©s sĂ©mantiquement grĂące Ă  leurs traits syntaxiques. La traduction, VerbeNet, a Ă©tĂ© obtenue en rĂ©utilisant deux lexiques verbaux du français (le Lexique-Grammaire et Les Verbes Français) puis en modifiant manuellement l'ensemble des informations obtenues. Enfin, une fois ces briques en place, nous Ă©valuons la faisabilitĂ© de l'annotation en rĂŽles sĂ©mantiques en anglais et en français dans trois domaines spĂ©cifiques. Nous Ă©valuons quels sont les avantages et inconvĂ©nients de se baser sur VerbNet et VerbeNet pour annoter ces domaines, avant d'indiquer nos perspectives pour poursuivre ces travaux

    Identification des concepts pour la ré-ingénierie des ontologies

    Get PDF
    Des services Ă©lĂ©mentaires tels que la restructuration (Ang. refactoring), la fusion (Ang.merge), l’extraction de modules (Ang. modularization), etc., sont indispensables pour la mise en oeuvre d’une plateforme de gĂ©nie ontologique dont l’un des objectifs essentiels est d’assurer la qualitĂ© d’une ontologie qui risque de se dĂ©tĂ©riorer avec l’usage. INUKHUK est une plateforme de rĂ©-ingĂ©nierie d’ontologies dont les services ci-haut sont basĂ©s sur un cadre formel, dit Analyse Relationnelle de Concepts (ARC). L’ARC a le pouvoir de crĂ©er de nouvelles abstractions sur n’importe quel type d’élĂ©ments ontologiques (concept, propriĂ©tĂ©, etc.). Ces abstractions factorisent des descriptions communes Ă  plusieurs Ă©lĂ©ments et peuvent servir Ă  corriger et/ou enrichir l’ontologie de façon Ă  augmenter sa qualitĂ©. Toutefois, ces abstractions, qui sont le fruit d’un calcul mathĂ©matique, sont dĂ©pourvues de toute sĂ©mantique et par consĂ©quent nĂ©cessitent un effort de conceptualisation afin d’ĂȘtre justifiĂ©es et intĂ©grĂ©es Ă  une ontologie. Le but de ce travail est de fouiller le bien fondĂ© d’une abstraction et par la suite l’annoter avec un nom (En Anglais label) de concept. Les retombĂ©es sont multiples. D’abord, l’ontologie restructurĂ©e est beaucoup plus comprĂ©hensible par les experts et utilisateurs car l’enrichissement est autant structurel que sĂ©mantique. Ensuite, l’application des mĂ©triques de qualitĂ© basĂ©es sur l’analyse du vocabulaire ontologique pour l’estimation de la qualitĂ© de l’ontologie restructurĂ©e (Ang., refactored) est tout Ă  fait justifiable. Pour ce faire, plusieurs mĂ©thodes de fouille ont Ă©tĂ© envisagĂ©es. La premiĂšre mĂ©thode consiste Ă  l’identification d’un nouveau concept ontologique Ă  partir de la description de l’abstraction gĂ©nĂ©rĂ©e par l’ARC. La deuxiĂšme mĂ©thode consiste Ă  confronter l’abstraction gĂ©nĂ©rĂ©e par l’ARC Ă  des ressources linguistiques et/ou ontologiques existantes telles que WORDNET, structure catĂ©gorique de WIKIPEDIA, DBPEDIA, etc. Les deux approches ci-haut ont Ă©tĂ© implĂ©mentĂ©es au sein d’un outil, dit TOPICMINER, qui fait dĂ©sormais partie de la plateforme INUKHUK. TOPICMINER a fait l’objet de plusieurs expĂ©rimentations et a retournĂ© des rĂ©sultats satisfaisants selon le protocole de validation mis en place

    Actes des 25es journées francophones d'Ingénierie des Connaissances (IC 2014)

    Get PDF
    National audienceLes JournĂ©es Francophones d'IngĂ©nierie des Connaissances fĂȘtent cette annĂ©e leurs 25 ans. Cette confĂ©rence est le rendez-vous annuel de la communautĂ© française et francophone qui se retrouve pour Ă©changer et rĂ©flĂ©chir sur des problĂšmes de recherche qui se posent en acquisition, reprĂ©sentation et gestion des connaissances. Parmi les vingt et un articles sĂ©lectionnĂ©s pour publication et prĂ©sentation Ă  la confĂ©rence, un thĂšme fondateur de l'ingĂ©nierie des connaissances domine : celui de la modĂ©lisation de domaines. Six articles traitent de la conception d'ontologies, trois articles de l'annotation sĂ©mantique et du peuplement d'ontologies et deux articles de l'exploitation d'ontologies dans des systĂšmes Ă  base de connaissances. L'informatique mĂ©dicale est le domaine d'application privilĂ©giĂ© des travaux prĂ©sentĂ©s, que l'on retrouve dans sept articles. L'ingĂ©nierie des connaissances accompagne l'essor des technologies du web sĂ©mantique, en inventant les modĂšles, mĂ©thodes et outils permettant l'intĂ©gration de connaissances et le raisonnement dans des systĂšmes Ă  base de connaissances sur le web. Ainsi, on retrouve les thĂšmes de la reprĂ©sentation des connaissances et du raisonnement dans six articles abordant les problĂ©matiques du web de donnĂ©es : le liage des donnĂ©es, leur transformation et leur interrogation ; la reprĂ©sentation et la rĂ©utilisation de rĂšgles sur le web de donnĂ©es ; la programmation d'applications exploitant le web de donnĂ©es. L'essor des sciences et technologies de l'information et de la communication, et notamment des technologies du web, dans l'ensemble de la sociĂ©tĂ© engendre des mutations dans les pratiques individuelles et collectives. L'ingĂ©nierie des connaissances accompagne cette Ă©volution en plaçant l'utilisateur au cƓur des systĂšmes informatiques, pour l'assister dans le traitement de la masse de donnĂ©es disponibles. Quatre articles sont dĂ©diĂ©s aux problĂ©matiques du web social : analyse de rĂ©seaux sociaux, dĂ©tection de communautĂ©s, folksonomies, personnalisation de recommandations, reprĂ©sentation et prise en compte de points de vue dans la recherche d'information. Deux articles traitent de l'adaptation des systĂšmes aux utilisateurs et de l'assistance aux utilisateurs et deux autres de l'aide Ă  la prise de dĂ©cision. Le taux de sĂ©lection de cette Ă©dition de la confĂ©rence est de 50%, avec dix-neuf articles longs et deux articles courts acceptĂ©s parmi quarante-deux soumissions. S'y ajoutent une sĂ©lection de neuf posters et dĂ©monstrations parmi douze soumissions, prĂ©sentĂ©s dans une session dĂ©diĂ©e et inclus dans les actes. Enfin, une innovation de cette Ă©dition 2014 de la confĂ©rence est la programmation d'une session spĂ©ciale " Projets et Industrie ", animĂ©e par FrĂ©dĂ©rique Segond (Viseo), Ă  laquelle participeront Laurent Pierre (EDF), Alain Berger (Ardans) et MylĂšne Leitzelman (Mnemotix). Trois confĂ©renciĂšres invitĂ©es ouvriront chacune des journĂ©es de la confĂ©rence que je remercie chaleureusement de leur participation. Nathalie Aussenac-Gilles (IRIT) retracera l'Ă©volution de l'ingĂ©nierie des connaissances en France depuis 25 ans, de la pĂ©nurie Ă  la surabondance. A sa suite, FrĂ©dĂ©rique Segond (Viseo) abordera le problĂšme de " l'assouvissement " de la faim de connaissances dans la nouvelle Ăšre des connaissances dans laquelle nous sommes entrĂ©s. Enfin, Marie-Laure Mugnier (LIRMM) prĂ©sentera un nouveau cadre pour l'interrogation de donnĂ©es basĂ©e sur une ontologie, fondĂ© sur des rĂšgles existentielles

    Fouille de données de santé

    Get PDF
    Dans le domaine de la santĂ©, les techniques d’analyse de donnĂ©es sont de plus en plus populaires et se rĂ©vĂšlent mĂȘme indispensables pour gĂ©rer les gros volumes de donnĂ©es produits pour un patient et par le patient. Deux thĂ©matiques seront abordĂ©es dans cette prĂ©sentation d'HDR.La premiĂšre porte sur la dĂ©finition, la formalisation, l’implĂ©mentation et la validation de mĂ©thodes d’analyse permettant de dĂ©crire le contenu de bases de donnĂ©es mĂ©dicales. Je me suis particuliĂšrement intĂ©ressĂ©e aux donnĂ©es sĂ©quentielles. J’ai fait Ă©voluer la classique notion de motif sĂ©quentiel pour y intĂ©grer des composantes contextuelles, spatiales et sur l’ordre partiel des Ă©lĂ©ments composant les motifs. Ces nouvelles informations enrichissent la sĂ©mantique initiale de ces motifs.La seconde thĂ©matique se focalise sur l’analyse des productions et des interactions des patients au travers des mĂ©dias sociaux. J’ai principalement travaillĂ© sur des mĂ©thodes permettant d’analyser les productions narratives des patients selon leurs temporalitĂ©s, leurs thĂ©matiques, les sentiments associĂ©s ou encore le rĂŽle et la rĂ©putation du locuteur s’étant exprimĂ© dans les messages

    Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile.

    Get PDF
    Les ĂȘtres humains dĂ©finissent naturellement leur espace quotidien en unitĂ©s discrĂštes. Par exemple, nous sommes capables d'identifier le lieu oĂč nous sommes (e.g. le bureau 205) et sa catĂ©gorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux rĂ©cents en reconnaissance de lieux sĂ©mantiques, visent Ă  doter les robots de capacitĂ©s similaires. Ces unitĂ©s, appelĂ©es "lieux sĂ©mantiques", sont caractĂ©risĂ©es par une extension spatiale et une unitĂ© fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous prĂ©sentons nos travaux dans le domaine de la reconnaissance de lieux sĂ©mantiques. Ces derniers ont plusieurs originalitĂ©s par rapport Ă  l'Ă©tat de l'art. PremiĂšrement, ils combinent la caractĂ©risation globale d'une image, intĂ©ressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les mĂ©thodes basĂ©es sur les mots visuels, qui reposent sur la classification non-supervisĂ©e de descripteurs locaux. DeuxiĂšmement, et de maniĂšre intimement reliĂ©e, ils tirent parti du flux d'images fourni par le robot en utilisant des mĂ©thodes bayĂ©siennes d'intĂ©gration temporelle. Dans un premier modĂšle, nous ne tenons pas compte de l'ordre des images. Le mĂ©canisme d'intĂ©gration est donc particuliĂšrement simple mais montre des difficultĂ©s Ă  repĂ©rer les changements de lieux. Nous Ă©laborons donc plusieurs mĂ©canismes de dĂ©tection des transitions entre lieux qui ne nĂ©cessitent pas d'apprentissage supplĂ©mentaire. Une deuxiĂšme version enrichit le formalisme classique du filtrage bayĂ©sien en utilisant l'ordre local d'apparition des images. Nous comparons nos mĂ©thodes Ă  l'Ă©tat de l'art sur des tĂąches de reconnaissance d'instances et de catĂ©gorisation, en utilisant plusieurs bases de donnĂ©es. Nous Ă©tudions l'influence des paramĂštres sur les performances et comparons les diffĂ©rents types de codage employĂ©s sur une mĂȘme base.Ces expĂ©riences montrent que nos mĂ©thodes sont supĂ©rieures Ă  l'Ă©tat de l'art, en particulier sur les tĂąches de catĂ©gorisation.Human beings naturally organize their space as composed of discrete units. Those units, called "semantic places", are characterized by their spatial extend and their functional unity. Moreover, we are able to quickly recognize a given place (e.g. office 205) and its category (i.e. an office), solely on their visual appearance. Recent works in semantic place recognition seek to endow the robot with similar capabilities. Contrary to classical localization and mapping work, this problem is usually tackled as a supervised learning problem. Our contributions are two fold. First, we combine global image characterization, which captures the global organization of the image, and visual words methods which are usually based unsupervised classification of local signatures. Our second but closely related, contribution is to use several images for recognition by using Bayesian methods for temporal integration. Our first model don't use the natural temporal ordering of images. Temporal integration is very simple but has difficulties when the robot moves from one place to another.We thus develop several mechanisms to detect place transitions. Those mechanisms are simple and don't require additional learning. A second model augment the classical Bayesian filtering approach by using the local order among images. We compare our methods to state-of-the-art algorithms on place recognition and place categorization tasks.We study the influence of system parameters and compare the different global characterization methods on the same dataset. These experiments show that our approach while being simple leads to better results especially on the place categorization task.PARIS11-SCD-Bib. Ă©lectronique (914719901) / SudocSudocFranceF

    SystĂšme de recherche d’information Ă©tendue basĂ© sur une projection multi-espaces

    Get PDF
    Depuis son apparition au dĂ©but des annĂ©es 90, le World Wide Web (WWW ou Web) a offert un accĂšs universel aux connaissances et le monde de l’information a Ă©tĂ© principalement tĂ©moin d’une grande rĂ©volution (la rĂ©volution numĂ©rique). Il est devenu rapidement trĂšs populaire, ce qui a fait de lui la plus grande et vaste base de donnĂ©es et de connaissances existantes grĂące Ă  la quantitĂ© et la diversitĂ© des donnĂ©es qu'il contient. Cependant, l'augmentation et l’évolution considĂ©rables de ces donnĂ©es soulĂšvent d'importants problĂšmes pour les utilisateurs notamment pour l’accĂšs aux documents les plus pertinents Ă  leurs requĂȘtes de recherche. Afin de faire face Ă  cette explosion exponentielle du volume de donnĂ©es et faciliter leur accĂšs par les utilisateurs, diffĂ©rents modĂšles sont proposĂ©s par les systĂšmes de recherche d’information (SRIs) pour la reprĂ©sentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et rĂ©cupĂ©rer ces documents, des mots-clĂ©s simples qui ne sont pas sĂ©mantiquement liĂ©s. Cela engendre des limites en termes de la pertinence et de la facilitĂ© d'exploration des rĂ©sultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intĂ©grant des mots-clĂ©s externes provenant de diffĂ©rentes sources. Cependant, ces systĂšmes souffrent encore de limitations qui sont liĂ©es aux techniques d’exploitation de ces sources d’enrichissement. Lorsque les diffĂ©rentes sources sont utilisĂ©es de telle sorte qu’elles ne peuvent ĂȘtre distinguĂ©es par le systĂšme, cela limite la flexibilitĂ© des modĂšles d'exploration qui peuvent ĂȘtre appliquĂ©s aux rĂ©sultats de recherche retournĂ©s par ce systĂšme. Les utilisateurs se sentent alors perdus devant ces rĂ©sultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sĂ©lectionner l'information pertinente. S’ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requĂȘtes de recherche jusqu'Ă  parvenir aux documents qui rĂ©pondent le mieux Ă  leurs attentes. De cette façon, mĂȘme si les systĂšmes parviennent Ă  retrouver davantage des rĂ©sultats pertinents, leur prĂ©sentation reste problĂ©matique. Afin de cibler la recherche Ă  des besoins d'information plus spĂ©cifiques de l'utilisateur et amĂ©liorer la pertinence et l’exploration de ses rĂ©sultats de recherche, les SRIs avancĂ©s adoptent diffĂ©rentes techniques de personnalisation de donnĂ©es qui supposent que la recherche actuelle d'un utilisateur est directement liĂ©e Ă  son profil et/ou Ă  ses expĂ©riences de navigation/recherche antĂ©rieures. Cependant, cette hypothĂšse ne tient pas dans tous les cas, les besoins de l’utilisateur Ă©voluent au fil du temps et peuvent s’éloigner de ses intĂ©rĂȘts antĂ©rieurs stockĂ©s dans son profil. Dans d’autres cas, le profil de l’utilisateur peut ĂȘtre mal exploitĂ© pour extraire ou infĂ©rer ses nouveaux besoins en information. Ce problĂšme est beaucoup plus accentuĂ© avec les requĂȘtes ambigĂŒes. Lorsque plusieurs centres d’intĂ©rĂȘt auxquels est liĂ©e une requĂȘte ambiguĂ« sont identifiĂ©s dans le profil de l’utilisateur, le systĂšme se voit incapable de sĂ©lectionner les donnĂ©es pertinentes depuis ce profil pour rĂ©pondre Ă  la requĂȘte. Ceci a un impact direct sur la qualitĂ© des rĂ©sultats fournis Ă  cet utilisateur. Afin de remĂ©dier Ă  quelques-unes de ces limitations, nous nous sommes intĂ©ressĂ©s dans ce cadre de cette thĂšse de recherche au dĂ©veloppement de techniques destinĂ©es principalement Ă  l'amĂ©lioration de la pertinence des rĂ©sultats des SRIs actuels et Ă  faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basĂ©e sur un nouveau concept d'indexation et de recherche d'information appelĂ© la projection multi-espaces. Cette proposition repose sur l'exploitation de diffĂ©rentes catĂ©gories d'information sĂ©mantiques et sociales qui permettent d'enrichir l'univers de reprĂ©sentation des documents et des requĂȘtes de recherche en plusieurs dimensions d'interprĂ©tations. L’originalitĂ© de cette reprĂ©sentation est de pouvoir distinguer entre les diffĂ©rentes interprĂ©tations utilisĂ©es pour la description et la recherche des documents. Ceci donne une meilleure visibilitĂ© sur les rĂ©sultats retournĂ©s et aide Ă  apporter une meilleure flexibilitĂ© de recherche et d'exploration, en donnant Ă  l’utilisateur la possibilitĂ© de naviguer une ou plusieurs vues de donnĂ©es qui l’intĂ©ressent le plus. En outre, les univers multidimensionnels de reprĂ©sentation proposĂ©s pour la description des documents et l’interprĂ©tation des requĂȘtes de recherche aident Ă  amĂ©liorer la pertinence des rĂ©sultats de l’utilisateur en offrant une diversitĂ© de recherche/exploration qui aide Ă  rĂ©pondre Ă  ses diffĂ©rents besoins et Ă  ceux des autres diffĂ©rents utilisateurs. Cette Ă©tude exploite diffĂ©rents aspects liĂ©s Ă  la recherche personnalisĂ©e et vise Ă  rĂ©soudre les problĂšmes engendrĂ©s par l’évolution des besoins en information de l’utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisĂ© par notre systĂšme, une technique est proposĂ©e et employĂ©e pour identifier les intĂ©rĂȘts les plus reprĂ©sentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, frĂ©quentiel et temporel des donnĂ©es. La capacitĂ© des utilisateurs Ă  interagir, Ă  Ă©changer des idĂ©es et d’opinions, et Ă  former des rĂ©seaux sociaux sur le Web, a amenĂ© les systĂšmes Ă  s’intĂ©resser aux types d’interactions de ces utilisateurs, au niveau d’interaction entre eux ainsi qu’à leurs rĂŽles sociaux dans le systĂšme. Ces informations sociales sont abordĂ©es et intĂ©grĂ©es dans ce travail de recherche. L’impact et la maniĂšre de leur intĂ©gration dans le processus de RI sont Ă©tudiĂ©s pour amĂ©liorer la pertinence des rĂ©sultats. Since its appearance in the early 90's, the World Wide Web (WWW or Web) has provided universal access to knowledge and the world of information has been primarily witness to a great revolution (the digital revolution). It quickly became very popular, making it the largest and most comprehensive database and knowledge base thanks to the amount and diversity of data it contains. However, the considerable increase and evolution of these data raises important problems for users, in particular for accessing the documents most relevant to their search queries. In order to cope with this exponential explosion of data volume and facilitate their access by users, various models are offered by information retrieval systems (IRS) for the representation and retrieval of web documents. Traditional SRIs use simple keywords that are not semantically linked to index and retrieve these documents. This creates limitations in terms of the relevance and ease of exploration of results. To overcome these limitations, existing techniques enrich documents by integrating external keywords from different sources. However, these systems still suffer from limitations that are related to the exploitation techniques of these sources of enrichment. When the different sources are used so that they cannot be distinguished by the system, this limits the flexibility of the exploration models that can be applied to the results returned by this system. Users then feel lost to these results, and find themselves forced to filter them manually to select the relevant information. If they want to go further, they must reformulate and target their search queries even more until they reach the documents that best meet their expectations. In this way, even if the systems manage to find more relevant results, their presentation remains problematic. In order to target research to more user-specific information needs and improve the relevance and exploration of its research findings, advanced SRIs adopt different data personalization techniques that assume that current research of user is directly related to his profile and / or previous browsing / search experiences. However, this assumption does not hold in all cases, the needs of the user evolve over time and can move away from his previous interests stored in his profile. In other cases, the user's profile may be misused to extract or infer new information needs. This problem is much more accentuated with ambiguous queries. When multiple POIs linked to a search query are identified in the user's profile, the system is unable to select the relevant data from that profile to respond to that request. This has a direct impact on the quality of the results provided to this user. In order to overcome some of these limitations, in this research thesis, we have been interested in the development of techniques aimed mainly at improving the relevance of the results of current SRIs and facilitating the exploration of major collections of documents. To do this, we propose a solution based on a new concept and model of indexing and information retrieval called multi-spaces projection. This proposal is based on the exploitation of different categories of semantic and social information that enrich the universe of document representation and search queries in several dimensions of interpretations. The originality of this representation is to be able to distinguish between the different interpretations used for the description and the search for documents. This gives a better visibility on the results returned and helps to provide a greater flexibility of search and exploration, giving the user the ability to navigate one or more views of data that interest him the most. In addition, the proposed multidimensional representation universes for document description and search query interpretation help to improve the relevance of the user's results by providing a diversity of research / exploration that helps meet his diverse needs and those of other different users. This study exploits different aspects that are related to the personalized search and aims to solve the problems caused by the evolution of the information needs of the user. Thus, when the profile of this user is used by our system, a technique is proposed and used to identify the interests most representative of his current needs in his profile. This technique is based on the combination of three influential factors, including the contextual, frequency and temporal factor of the data. The ability of users to interact, exchange ideas and opinions, and form social networks on the Web, has led systems to focus on the types of interactions these users have at the level of interaction between them as well as their social roles in the system. This social information is discussed and integrated into this research work. The impact and how they are integrated into the IR process are studied to improve the relevance of the results
    • 

    corecore