9 research outputs found

    Recherche d'information et fouille de textes

    Get PDF
    National audienceIntroduction Comprendre un texte est un but que l'Intelligence Artificielle (IA) s'est fixĂ© depuis ses dĂ©buts et les premiers travaux apportant des rĂ©ponses ont vu le jour dans les annĂ©es 70s. Depuis lors, le thĂšme est toujours d'actualitĂ©, bien que les buts et mĂ©thodes qu'il recouvre aient considĂ©rablement Ă©voluĂ©s. Il est donc nĂ©cessaire de regarder de plus prĂšs ce qui se cache derriĂšre cette dĂ©nomination gĂ©nĂ©rale de « comprĂ©hension de texte ». Les premiers travaux, qui ont eu lieu du milieu des annĂ©es 70 jusqu'au milieu des annĂ©es 80 [Charniak 1972; Dyer 1983; Schank et al. 1977], Ă©tudiaient des textes relatant de courtes histoires et comprendre signifiait mettre en Ă©vidence les tenants et aboutissants de l'histoire-les sujets traitĂ©s, les Ă©vĂ©nements dĂ©crits, les relations de causalitĂ© les reliant-ainsi que le rĂŽle de chaque personnage, ses motivations et ses intentions. La comprĂ©hension Ă©tait vue comme un processus d'infĂ©rence visant Ă  expliciter tout l'implicite prĂ©sent dans un texte en le retrouvant Ă  partir des connaissances sĂ©mantiques et pragmatiques dont disposait la machine. Cela prĂ©supposait une modĂ©lisation prĂ©alable de ces connaissances. On rejoint ici les travaux effectuĂ©s sur les diffĂ©rents formalismes de reprĂ©sentation des connaissances en IA, dĂ©crivant d'une part les sens associĂ©s aux mots de la langue (rĂ©seaux sĂ©mantiques vs logique, et notamment graphes conceptuels [Sowa 1984] et d'autre part les connaissances pragmatiques [Schank 1982]. Tous ces travaux ont montrĂ© leur limite dĂšs lors qu'il s'agissait de modĂ©liser manuellement ces connaissances pour tous les domaines, ou de les apprendre automatiquement. Le problĂšme de la comprĂ©hension automatique en domaine ouvert restait donc entier. Puisque le problĂšme ainsi posĂ© est insoluble en l'Ă©tat des connaissances, une approche alternative consiste Ă  le redĂ©finir et Ă  le dĂ©composer en sous-tĂąches potentiellement plus faciles Ă  rĂ©soudre. Ainsi la comprĂ©hension de texte peut ĂȘtre redĂ©finie selon diffĂ©rents points de vue sur le texte qui permettent de rĂ©pondre Ă  des besoins spĂ©cifiques. De mĂȘme qu'un lecteur ne lit pas un texte de façon identique selon qu'il veut Ă©valuer sa pertinence par rapport Ă  un thĂšme qui l'intĂ©resse (tĂąche de type recherche documentaire), qu'il veut classer des documents, prendre connaissances des Ă©vĂ©nements relatĂ©s ou rechercher une information prĂ©cise, de mĂȘme les processus automatiques seront multiples et s'intĂ©resseront Ă  des aspects diffĂ©rents du texte en fonction de la tĂąche visĂ©e. Suivant le type de connaissance cherchĂ© dans un document, le lecteur n'extraira du texte que l'information qui l'intĂ©resse et s'appuiera pour cela sur les indices et sur les connaissances qui lui permettent de rĂ©aliser sa tĂąche de lecture, et donc de comprĂ©hension, sans avoir Ă  tout assimiler. On peut alors parler de comprĂ©hension Ă  niveaux variables, qui va permettre d'accĂ©der Ă  des niveaux de sens diffĂ©rents. Cette dĂ©marche est bien illustrĂ©e par les travaux en extraction d'information, Ă©valuĂ©s dans le cadre des confĂ©rences MUC [Grishman and Sundheim 1996], qui ont eu lieu de la fin des annĂ©es 1980 jusqu'en 1998. L'extraction d'information consistait alors Ă  modĂ©liser un besoin d'information par un patron, dĂ©crit par un ensemble d'attributs typĂ©s, et Ă  chercher Ă  remplir ces attributs selon l'information contenue dans les textes. C'est ainsi que se sont notamment dĂ©veloppĂ©es les recherches sur les « entitĂ©s nommĂ©es » (Ă  savoir le repĂ©rage de noms de personne, d'organisation, de lieu, de date, etc.) et sur les relations entre ces entitĂ©s. C'est aussi dans cette optique que se sont dĂ©veloppĂ©es les approches se situant au niveau du document, que ce soit pour la recherche d'information ou pour en dĂ©terminer la structur

    Linking named entities to Wikipedia

    Get PDF
    Natural language is fraught with problems of ambiguity, including name reference. A name in text can refer to multiple entities just as an entity can be known by different names. This thesis examines how a mention in text can be linked to an external knowledge base (KB), in our case, Wikipedia. The named entity linking (NEL) task requires systems to identify the KB entry, or Wikipedia article, that a mention refers to; or, if the KB does not contain the correct entry, return NIL. Entity linking systems can be complex and we present a framework for analysing their different components, which we use to analyse three seminal systems which are evaluated on a common dataset and we show the importance of precise search for linking. The Text Analysis Conference (TAC) is a major venue for NEL research. We report on our submissions to the entity linking shared task in 2010, 2011 and 2012. The information required to disambiguate entities is often found in the text, close to the mention. We explore apposition, a common way for authors to provide information about entities. We model syntactic and semantic restrictions with a joint model that achieves state-of-the-art apposition extraction performance. We generalise from apposition to examine local descriptions specified close to the mention. We add local description to our state-of-the-art linker by using patterns to extract the descriptions and matching against this restricted context. Not only does this make for a more precise match, we are also able to model failure to match. Local descriptions help disambiguate entities, further improving our state-of-the-art linker. The work in this thesis seeks to link textual entity mentions to knowledge bases. Linking is important for any task where external world knowledge is used and resolving ambiguity is fundamental to advancing research into these problems

    Enhancing knowledge acquisition systems with user generated and crowdsourced resources

    Get PDF
    This thesis is on leveraging knowledge acquisition systems with collaborative data and crowdsourcing work from internet. We propose two strategies and apply them for building effective entity linking and question answering (QA) systems. The first strategy is on integrating an information extraction system with online collaborative knowledge bases, such as Wikipedia and Freebase. We construct a Cross-Lingual Entity Linking (CLEL) system to connect Chinese entities, such as people and locations, with corresponding English pages in Wikipedia. The main focus is to break the language barrier between Chinese entities and the English KB, and to resolve the synonymy and polysemy of Chinese entities. To address those problems, we create a cross-lingual taxonomy and a Chinese knowledge base (KB). We investigate two methods of connecting the query representation with the KB representation. Based on our CLEL system participating in TAC KBP 2011 evaluation, we finally propose a simple and effective generative model, which achieved much better performance. The second strategy is on creating annotation for QA systems with the help of crowd- sourcing. Crowdsourcing is to distribute a task via internet and recruit a lot of people to complete it simultaneously. Various annotated data are required to train the data-driven statistical machine learning algorithms for underlying components in our QA system. This thesis demonstrates how to convert the annotation task into crowdsourcing micro-tasks, investigate different statistical methods for enhancing the quality of crowdsourced anno- tation, and ïŹnally use enhanced annotation to train learning to rank models for passage ranking algorithms for QA.Gegenstand dieser Arbeit ist das Nutzbarmachen sowohl von Systemen zur Wissener- fassung als auch von kollaborativ erstellten Daten und Arbeit aus dem Internet. Es werden zwei Strategien vorgeschlagen, welche fĂŒr die Erstellung effektiver Entity Linking (Disambiguierung von EntitĂ€tennamen) und Frage-Antwort Systeme eingesetzt werden. Die erste Strategie ist, ein Informationsextraktions-System mit kollaborativ erstellten Online- Datenbanken zu integrieren. Wir entwickeln ein Cross-Linguales Entity Linking-System (CLEL), um chinesische EntitĂ€ten, wie etwa Personen und Orte, mit den entsprechenden Wikipediaseiten zu verknĂŒpfen. Das Hauptaugenmerk ist es, die Sprachbarriere zwischen chinesischen EntitĂ€ten und englischer Datenbank zu durchbrechen, und Synonymie und Polysemie der chinesis- chen EntitĂ€ten aufzulösen. Um diese Probleme anzugehen, erstellen wir eine cross linguale Taxonomie und eine chinesische Datenbank. Wir untersuchen zwei Methoden, die ReprĂ€sentation der Anfrage und die ReprĂ€sentation der Datenbank zu verbinden. Schließlich stellen wir ein einfaches und effektives generatives Modell vor, das auf unserem System fĂŒr die Teilnahme an der TAC KBP 2011 Evaluation basiert und eine erheblich bessere Performanz erreichte. Die zweite Strategie ist, Annotationen fĂŒr Frage-Antwort-Systeme mit Hilfe von "Crowd- sourcing" zu erstellen. "Crowdsourcing" bedeutet, eine Aufgabe via Internet an eine große Menge an angeworbene Menschen zu verteilen, die diese simultan erledigen. Verschiedene annotierte Daten sind notwendig, um die datengetriebenen statistischen Lernalgorithmen zu trainieren, die unserem Frage-Antwort System zugrunde liegen. Wir zeigen, wie die Annotationsaufgabe in Mikro-Aufgaben fĂŒr das Crowdsourcing umgewan- delt werden kann, wir untersuchen verschiedene statistische Methoden, um die QualitĂ€t der Annotation aus dem Crowdsourcing zu erweitern, und schließlich nutzen wir die erwei- erte Annotation, um Modelle zum Lernen von Ranglisten von Textabschnitten zu trainieren

    THU QUANTA at TAC 2009 KBP and RTE Track

    No full text
    Text Analysis Conference (TAC 2009)This paper describes the systems of THU QUANTA in Text Analysis Conference (TAC) 2009. We participated in the Knowledge Base Population (KBP) track, and the Recognizing Textual Entailment (RTE) track. For the KBP track, we investigate two ranking strategies for Entity Linking task. We employ a Listwise “Learning to Rank” model and Augmenting Naïve Bayes model to rank the candidate. We try to use learned patterns to solve the Slot Filling task. For the RTE track, we propose an interesting method, SEGraph (Semantic Elements based Graph). This method divides the Hypothesis and Text into two types of semantic elements: Entity Semantic Element and Relation Semantic Element. The SEGraph is then constructed, with Entity Elements as nodes, and Relation Elements as edges for both Text and Hypothesis. Finally we recognize the textual entailment based on the SEGraph of Text and SEGraph of Hypothesis. The evaluation results show that our proposed two frame-works are very effective for KBP and RTE tasks, respectively
    corecore