8 research outputs found

    De toekomst van het Web, een toekomstvisie op de integratie van Web 2.0 en het Semantic Web

    No full text
    In deze scriptie wordt betoogd waarom twee verschillende modellen van het Web, Web 2.0 en het Semantic Web, met elkaar geĂŻntegreerd zouden moeten worden, en hoe deze integratie in zijn werk zou moeten gaan. Op het eerste oog staan de twee Webben ver van elkaar af. Web 2.0 is met name gericht op een lage instapgrens voor actieve participatie door de gebruiker. Bekende componenten hiervan zijn weblogs, Wikipedia, YouTube en Facebook. Mensen kunnen met deze diensten voor inhoud op het Web zorgen, zonder dat hiervoor veel kennis van het Web is vereist. Het Semantic Web daarentegen is een stuk minder gericht op de gewone gebruiker. Het is de overkoepelende term voor het streven naar een gigantische database op het Web, waarin gegevens op een betekenisvolle manier met elkaar samenhangen en waarbij die betekenis door de computer te begrijpen is. De datastructuur van het Semantic Web bestaat naast HTML en is relatief complex. Toch zorgen de verschillen tussen het Semantic Web en Web 2.0 er juist voor dat de twee Webben van elkaar kunnen profiteren. Enerzijds door de semantische verbinding van gegevens te betrekken bij de aanwezige inhoud op het Web 2.0. Interessanter is echter de totstandkoming van betekenis op het Semantic Web. Om gegevens op een betekenisvolle manier met elkaar te verbinden is een coherent model van betekenis op de wereld vereist, die in het Semantic Web kan worden gecodeerd in een ontologie. Betekenis is echter veranderlijk en subjectief. Daardoor is het van belang dat dit op het Semantic Web het resultaat is van de constante inbreng van grote aantallen mensen, momenteel actief op het Web 2.0, in plaats van een klein aantal Semantic Web experts. Het is echter de vraag hoe gebruikers betrokken kunnen worden bij betekenis op het Semantic Web. Deze scriptie is als volgt opgebouwd. Na een beschrijving van respectievelijk Web 2.0 en het Semantic Web onderzoek ik de meerwaarde van de integratie van beide Webben en kijk ik in hoeverre een verbinding daadwerkelijk mogelijk is. Vervolgens bekijk ik hoe een verbinding in de praktijk tot stand kan komen, waarbij ik aandacht besteed aan verschillende modellen. Tot slot betrek ik deze informatie in een afsluitend betoog, waarin ik dieper inga op het vraagstuk, mijn voorkeur uitspreek voor specifieke modellen van integratie en schets hoe de toekomst van het Web er in mijn ogen uitziet.

    Increasing the Coverage of Clarification Responses for a Cooking Assistant

    No full text
    In conversation genres like instruction, clarification questions asked by a user may either relate to the task at hand or to common-sense knowledge about the task domain, whereas most conversational agents focus on only one of these types. To learn more about the best approach and feasibility of integrating both types of questions, we experimented with different approaches for modelling and distinguishing between task-specific and common sense questions in the context of a cooking assistant. We subsequently integrated the best ones in a conversational agent, which we tested in a study with six users cooking a recipe. Even though the three elements functioned well on their own and all participants completed the recipe, question-answering accuracy was relatively low (66%). We conclude with a discussion of the aspects that need to be improved upon to cope with the diverse information need in task-based conversational agents.</p

    Aspect-based summarization of pros and cons in unstructured product reviews

    No full text
    We developed three systems for generating pros and cons summaries of product reviews. Automating this task eases the writing of product reviews, and offers readers quick access to the most important information. We compared SynPat, a system based on syntactic phrases selected on the basis of valence scores, against a neural-network-based system trained to map bag-ofwords representations of reviews directly to pros and cons, and the same neural system trained on clusters of word-embedding encodings of similar pros and cons. We evaluated the systems in two ways: first on held-out reviews with gold-standard pros and cons, and second by asking human annotators to rate the systems’ output on relevance and completeness. In the second evaluation, the gold-standard pros and cons were assessed along with the system output. We find that the human-generated summaries are not deemed as significantly more relevant or complete than the SynPat systems; the latter are scored higher than the human-generated summaries on a precision metric. The neural approaches yield a lower performance in the human assessment, and are outperformed by the baseline

    A Survey on Dialogue Management in Human-Robot Interaction

    Full text link
    As social robots see increasing deployment within the general public, improving the interaction with those robots is essential. Spoken language offers an intuitive interface for the human-robot interaction (HRI), with dialogue management (DM) being a key component in those interactive systems. Yet, to overcome current challenges and manage smooth, informative and engaging interaction a more structural approach to combining HRI and DM is needed. In this systematic review, we analyse the current use of DM in HRI and focus on the type of dialogue manager used, its capabilities, evaluation methods and the challenges specific to DM in HRI. We identify the challenges and current scientific frontier related to the DM approach, interaction domain, robot appearance, physical situatedness and multimodality

    Unraveling reported dreams with text analytics

    No full text
    We investigate what distinguishes reported dreams from other personal narratives. The continuity hypothesis, stemming from psychological dream analysis work, states that most dreams refer to a person’s daily life and personal concerns, similar to other personal narratives such as diary entries. Differences between the two texts may reveal the linguistic markers of dream text, which could be the basis for new dream analysis work and for the automatic detection of dream descriptions. We used three text analytics methods: text classification, topic modeling, and text coherence analysis, and applied these methods to a balanced set of texts representing dreams, diary entries, and other personal stories. We observed that dream texts could be distinguished from other personal narratives nearly perfectly, mostly based on the presence of uncertainty markers and descriptions of scenes. Important markers for non-dream narratives are specific time expressions. Dream texts also exhibit a lower discourse coherence than other personal narratives

    Increasing the Coverage of Clarification Responses for a Cooking Assistant

    No full text
    In conversation genres like instruction, clarification questions asked by a user may either relate to the task at hand or to common-sense knowledge about the task domain, whereas most conversational agents focus on only one of these types. To learn more about the best approach and feasibility of integrating both types of questions, we experimented with different approaches for modelling and distinguishing between task-specific and common sense questions in the context of a cooking assistant. We subsequently integrated the best ones in a conversational agent, which we tested in a study with six users cooking a recipe. Even though the three elements functioned well on their own and all participants completed the recipe, question-answering accuracy was relatively low (66%). We conclude with a discussion of the aspects that need to be improved upon to cope with the diverse information need in task-based conversational agents
    corecore