12 research outputs found

    Dialogue Act Modeling for Automatic Tagging and Recognition of Conversational Speech

    Get PDF
    We describe a statistical approach for modeling dialogue acts in conversational speech, i.e., speech-act-like units such as Statement, Question, Backchannel, Agreement, Disagreement, and Apology. Our model detects and predicts dialogue acts based on lexical, collocational, and prosodic cues, as well as on the discourse coherence of the dialogue act sequence. The dialogue model is based on treating the discourse structure of a conversation as a hidden Markov model and the individual dialogue acts as observations emanating from the model states. Constraints on the likely sequence of dialogue acts are modeled via a dialogue act n-gram. The statistical dialogue grammar is combined with word n-grams, decision trees, and neural networks modeling the idiosyncratic lexical and prosodic manifestations of each dialogue act. We develop a probabilistic integration of speech recognition with dialogue modeling, to improve both speech recognition and dialogue act classification accuracy. Models are trained and evaluated using a large hand-labeled database of 1,155 conversations from the Switchboard corpus of spontaneous human-to-human telephone speech. We achieved good dialogue act labeling accuracy (65% based on errorful, automatically recognized words and prosody, and 71% based on word transcripts, compared to a chance baseline accuracy of 35% and human accuracy of 84%) and a small reduction in word recognition error.Comment: 35 pages, 5 figures. Changes in copy editing (note title spelling changed

    Incremental construction of minimal acyclic finite-state automata

    Get PDF
    In this paper, we describe a new method for constructing minimal, deterministic, acyclic finite-state automata from a set of strings. Traditional methods consist of two phases: the first to construct a trie, the second one to minimize it. Our approach is to construct a minimal automaton in a single phase by adding new strings one by one and minimizing the resulting automaton on-the-fly. We present a general algorithm as well as a specialization that relies upon the lexicographical ordering of the input strings.Comment: 14 pages, 7 figure

    Unsupervised Dialogue Act Induction using Gaussian Mixtures

    Full text link
    This paper introduces a new unsupervised approach for dialogue act induction. Given the sequence of dialogue utterances, the task is to assign them the labels representing their function in the dialogue. Utterances are represented as real-valued vectors encoding their meaning. We model the dialogue as Hidden Markov model with emission probabilities estimated by Gaussian mixtures. We use Gibbs sampling for posterior inference. We present the results on the standard Switchboard-DAMSL corpus. Our algorithm achieves promising results compared with strong supervised baselines and outperforms other unsupervised algorithms.Comment: Accepted to EACL 201

    Building Efficient and Compact Data Structures for Simplicial Complexes

    Get PDF
    The Simplex Tree (ST) is a recently introduced data structure that can represent abstract simplicial complexes of any dimension and allows efficient implementation of a large range of basic operations on simplicial complexes. In this paper, we show how to optimally compress the Simplex Tree while retaining its functionalities. In addition, we propose two new data structures called the Maximal Simplex Tree (MxST) and the Simplex Array List (SAL). We analyze the compressed Simplex Tree, the Maximal Simplex Tree, and the Simplex Array List under various settings.Comment: An extended abstract appeared in the proceedings of SoCG 201

    Inteligencia Artificial: Daño y Prejuicio

    Get PDF
    Sumario: 1. Los daños y la Inteligencia artificial. 2. La gestión jurídica del daño: Responsabilidad civil e indemnización. 3. Otra vía de gestión del daño: la Ética de la IA. 4. La presencia de la IA en la sociedad y el prejuicio sobre su poder. 5. La incidencia del ordenador en la inteligencia humana. 6. Consecuencias en el ámbito laboral y profesional. 7. IA y cambio social. 8. Bibliografía por autores

    Automata Approach to XML Data Indexing: Implementation and Experimental Evaluation

    Get PDF
    Tato práce se zabývá implementací a experimentálním vyhodnocením metod pro indexování XML dokumentů. Konkrétně se jedná o metody Tree String Path Automaton (TSPA), Tree String Path Subsequence Automaton (TSPSA) a Tree Path Automaton (TPA). Tyto metody jsou založeny na teorii konečných automatů a umožňují nalezení odpovědi pro omezenou podmnožinu XPath dotazů (obsahující pouze /,//{/,//} přechody a jejich kombinaci) v lineárním čase délky dotazu. Jednotlivé metody jsou v této práci implementovány jako Java knihovna. K předzpracování XML dokumentu je použita knihovna SAX. Hlavní část práce se venuje popisu, implementaci a podmínkám behu experimentu. V práci jsou prezentovány provedené experimenty. Tyto experimenty zkoumají, jak závisí vlastnosti indexu na velikosti (hloubce, šírce) vstupního XML souboru. Při tvorbě indexu měříme spotřebu RAM a čas. Proto XML dokumenty použity pro experimenty tvoří set s navzájem různými klíčovými parametry (např. průměrná hloubka, maximální hloubka, velikost, počet listů). V závěru práce jsou graficky prezentovány výsledky experimentů. Ve výsledné knihovně je zabudována podpora pro spuštění výše zmíněného experimentálního prostředí.This thesis deals with implementation and an experimental evaluation of some XML data indexing methods. The methods are as follows:Tree String Path Automaton (TSPA), Tree String Path Subsequence Automaton (TSPSA) and Tree Path Automaton (TPA). All of these methods are based on the theory of finite automata and answer a limited subset of XPath query (limited to /,//{/,//} transitions and their combination) in linear time to the length of the query. They are implemented as a Java library. SAX library is used to preprocess an XML document. The main part of the thesis is dedicated to a description, an implementation and conditions under which experiments are conducted. In the thesis experiments are run to clarify relations between Size/Depth/Width of an XML document and RAM consumption/Time to build an index. The chosen XML documents, which are presented in this thesis, form a set of mutually different documents in crucial aspects (average depth, maximal depth, size, number of leaves). Results of the conducted experiments are described in the end of the thesis. There is built-in support for experimental environment in the resulting Java library

    Description assistée d'un environnement intelligent en réalité augmentée

    Get PDF
    Les technologies d'assistance modernes offrent d'augmenter, de maintenir ou d'améliorer les capacités fonctionnelles d'une personne avec incapacités. Parmi ces technologies, les environnements intelligents favorisent effectivement le maintien à domicile des personnes âgées. Pourtant, les taux d'abandon des technologies d'assistance sont aujourd'hui élevés. L'absence d'inclusion de l'utilisateur dans la construction et la personnalisation de ces technologies est fortement pointée du doigt par la littérature. Un système fait soi-même (Do-it-Yourself) centré sur le partage et où l'utilisateur conçoit lui-même son assistance est donc à privilégier. Cette thèse s'intéresse à développer les interactions entre l'humain et l'intelligence artificielle pour la description assistée d'environnements intelligents personnalisés selon les habitudes du résident. Le but est de déterminer les interfaces et le langage à adopter pour favoriser l'échange entre un descripteur humain, expert des besoins du résident, et une intelligence artificielle, experte des environnements intelligents. Les habitudes que le descripteur doit transmettre au système d'assistance sont spatialisées par définition, elles prennent place à des endroits spécifiques de l'environnement, avec des objets spécifiques de cet environnement et à des moments précis. La réalité augmentée s'inscrit ainsi parfaitement dans cette approche puisqu'elle permet d'ancrer dans le monde réel les éléments virtuels représentant l'environnement et les habitudes dans celui-ci. Les habitudes que le descripteur détaille sont également spécifiques à la façon de faire du résident tandis que les connaissances des environnements intelligents de l'intelligence artificielle proposée sont davantage génériques. Aussi, un langage compréhensible par l'humain et assez puissant pour représenter à la fois ces concepts spécifiques et génériques est nécessaire. Les ontologies, base de données sémantiques, répondent à ces besoins grâce à leur représentation textuelle et au raisonnement ontologique qui permet de définir le niveau d'abstraction adéquat pour l'échange. En combinant la réalité augmentée à la sémantique, le conseiller virtuel de description assistée des environnements intelligents présenté dans cette thèse accompagne le descripteur dans la spécification des habitudes du résident. De plus, en agrégeant l'expérience acquise avec l'ensemble des descriptions précédentes, ce conseiller fournit des conseils en temps-réel pour favoriser l'idéation. Ce conseiller virtuel a été testé auprès d'experts et de proches aidants. Les résultats obtenus confirment que le conseiller virtuel proposé permet la description de l'environnement et des activités, notamment grâce à ses interactions intuitives et naturelles. Les habitudes numérisées avec le conseiller virtuel pourraient à terme permettre à l'environnement intelligent de mieux comprendre les besoins de son résident et de s'y adapter

    Preference extraction and reasoning in negotiation dialogues

    Get PDF
    Modéliser les préférences des utilisateurs est incontournable dans de nombreux problèmes de la vie courante, que ce soit pour la prise de décision individuelle ou collective ou le raisonnement stratégique par exemple. Cependant, il n'est pas facile de travailler avec les préférences. Comme les agents ne connaissent pas complètement leurs préférences à l'avance, nous avons seulement deux moyens de les déterminer pour pouvoir raisonner ensuite : nous pouvons les inférer soit de ce que les agents disent, soit de leurs actions non-linguistiques. Plusieurs méthodes ont été proposées en Intelligence Artificielle pour apprendre les préférences à partir d'actions non-linguistiques mais à notre connaissance très peu de travaux ont étudié comment éliciter efficacement les préférences verbalisées par les utilisateurs grâce à des méthodes de Traitement Automatique des Langues (TAL).Dans ce travail, nous proposons une nouvelle approche pour extraire et raisonner sur les préférences exprimées dans des dialogues de négociation. Après avoir extrait les préférences de chaque tour de dialogue, nous utilisons la structure discursive pour suivre leur évolution au fur et à mesure de la conversation. Nous utilisons les CP-nets, un modèle de représentation des préférences, pour formaliser et raisonner sur ces préférences extraites. Cette méthode est d'abord évaluée sur différents corpus de négociation pour lesquels les résultats montrent que la méthode est prometteuse. Nous l'appliquons ensuite dans sa globalité avec des raisonnements issus de la Théorie des Jeux pour prédire les échanges effectués, ou non, dans le jeu de marchandage Les Colons de Catane. Les résultats obtenus montrent des prédictions significativement meilleures que celles de quatre baselines qui ne gèrent pas correctement le raisonnement stratégique. Cette thèse présente donc une nouvelle approche à la croisée de plusieurs domaines : le Traitement Automatique des Langues (pour l'extraction automatique des préférences et le raisonnement sur leur verbalisation), l'Intelligence Artificielle (pour la modélisation et le raisonnement sur les préférences extraites) et la Théorie des Jeux (pour la prédiction des actions stratégiques dans un jeu de marchandage)Modelling user preferences is crucial in many real-life problems, ranging from individual and collective decision-making to strategic interactions between agents for example. But handling preferences is not easy. Since agents don't come with their preferences transparently given in advance, we have only two means to determine what they are if we wish to exploit them in reasoning: we can infer them from what an agent says or from his nonlinguistic actions. Preference acquisition from nonlinguistic actions has been wildly studied within the Artificial Intelligence community. However, to our knowledge, there has been little work that has so far investigated how preferences can be efficiently elicited from users using Natural Language Processing (NLP) techniques. In this work, we propose a new approach to extract and reason on preferences expressed in negotiation dialogues. After having extracted the preferences expressed in each dialogue turn, we use the discursive structure to follow their evolution as the dialogue progresses. We use CP-nets, a model used for the representation of preferences, to formalize and reason about these extracted preferences. The method is first evaluated on different negotiation corpora for which we obtain promising results. We then apply the end-to-end method with principles from Game Theory to predict trades in the win-lose game The Settlers of Catan. Our method shows good results, beating baselines that don't adequately track or reason about preferences. This work thus presents a new approach at the intersection of several research domains: Natural Language Processing (for the automatic preference extraction and the reasoning on their verbalisation), Artificial Intelligence (for the modelling and reasoning on the extracted preferences) and Game Theory (for strategic action prediction in a bargaining game

    Temporal processing of news : annotation of temporal expressions, verbal events and temporal relations

    Get PDF
    The ability to capture the temporal dimension of a natural language text is essential to many natural language processing applications, such as Question Answering, Automatic Summarisation, and Information Retrieval. Temporal processing is a ¯eld of Computational Linguistics which aims to access this dimension and derive a precise temporal representation of a natural language text by extracting time expressions, events and temporal relations, and then representing them according to a chosen knowledge framework. This thesis focuses on the investigation and understanding of the di®erent ways time is expressed in natural language, on the implementation of a temporal processing system in accordance with the results of this investigation, on the evaluation of the system, and on the extensive analysis of the errors and challenges that appear during system development. The ultimate goal of this research is to develop the ability to automatically annotate temporal expressions, verbal events and temporal relations in a natural language text. Temporal expression annotation involves two stages: temporal expression identi¯cation concerned with determining the textual extent of a temporal expression, and temporal expression normalisation which ¯nds the value that the temporal expression designates and represents it using an annotation standard. The research presented in this thesis approaches these tasks with a knowledge-based methodology that tackles temporal expressions according to their semantic classi¯cation. Several knowledge sources and normalisation models are experimented with to allow an analysis of their impact on system performance. The annotation of events expressed using either ¯nite or non-¯nite verbs is addressed with a method that overcomes the drawback of existing methods v which associate an event with the class that is most frequently assigned to it in a corpus and are limited in coverage by the small number of events present in the corpus. This limitation is overcome in this research by annotating each WordNet verb with an event class that best characterises that verb. This thesis also describes an original methodology for the identi¯cation of temporal relations that hold among events and temporal expressions. The method relies on sentence-level syntactic trees and a propagation of temporal relations between syntactic constituents, by analysing syntactic and lexical properties of the constituents and of the relations between them. The detailed evaluation and error analysis of the methods proposed for solving di®erent temporal processing tasks form an important part of this research. Various corpora widely used by researchers studying di®erent temporal phenomena are employed in the evaluation, thus enabling comparison with state of the art in the ¯eld. The detailed error analysis targeting each temporal processing task helps identify not only problems of the implemented methods, but also reliability problems of the annotated resources, and encourages potential reexaminations of some temporal processing tasks.EThOS - Electronic Theses Online ServiceGBUnited Kingdo
    corecore