9,424 research outputs found
Learning Analogy-Preserving Sentence Embeddings for Answer Selection
Answer selection aims at identifying the correct answer for a given question
from a set of potentially correct answers. Contrary to previous works, which
typically focus on the semantic similarity between a question and its answer,
our hypothesis is that question-answer pairs are often in analogical relation
to each other. Using analogical inference as our use case, we propose a
framework and a neural network architecture for learning dedicated sentence
embeddings that preserve analogical properties in the semantic space. We
evaluate the proposed method on benchmark datasets for answer selection and
demonstrate that our sentence embeddings indeed capture analogical properties
better than conventional embeddings, and that analogy-based question answering
outperforms a comparable similarity-based technique.Comment: To appear in CoNLL1
Formative evaluation of a patient-specific clinical knowledge summarization tool
To iteratively design a prototype of a computerized clinical knowledge summarization (CKS) tool aimed at helping clinicians finding answers to their clinical questions; and to conduct a formative assessment of the usability, usefulness, efficiency, and impact of the CKS prototype on physicians’ perceived decision quality compared with standard search of UpToDate and PubMed
Recommended from our members
Building on Redundancy: Factoid Question Answering, Robust Retrieval and the "Other"
We have explored how redundancy based techniques can be used in improving factoid question answering, definitional
questions (“other”), and robust retrieval. For the factoids, we explored the meta approach: we submit the questions to the
several open domain question answering systems available on the Web and applied our redundancy-based triangulation
algorithm to analyze their outputs in order to identify the most promising answers. Our results support the added value of the
meta approach: the performance of the combined system surpassed the underlying performances of its components. To
answer definitional (“other”) questions, we were looking for the sentences containing re-occurring pairs of noun entities
containing the elements of the target. For robust retrieval, we applied our redundancy based Internet mining technique to
identify the concepts (single word terms or phrases) that were highly related to the topic (query) and expanded the queries
with them. All our results are above the mean performance in the categories in which we have participated, with one of our
robust runs being the best in its category among all 24 participants. Overall, our findings support the hypothesis that using as
much as possible textual data, specifically such as mined from the World Wide Web, is extremely promising.published_or_final_versio
Development and evaluation of a microservice-based virtual assistant for chronic patients support
Los asistentes virtuales (también conocidos como chatbots) son programas que interactúan con los usuarios simulando una conversación humana a través de mensajes de texto o de voz. Los asistentes virtuales destinados al cuidado de la salud ofrecen servicios, herramientas, asesoramiento, ayuda, soporte y gestión de diferentes enfermedades. Los usuarios de este tipo de asistente virtual pueden ser, por ejemplo, pacientes, cuidadores y profesionales sanitarios, los cuales poseen diferentes necesidades y requerimientos. Los pacientes con enfermedades crónicas podrían beneficiarse de los asistentes virtuales que se encargan de realizar seguimientos de su condición, proporcionar información específica, fomentar la adherencia a la medicación, etc. Para realizar estas funciones, los asistentes virtuales necesitan una arquitectura de software adecuada. Esta tesis doctoral propone el diseño de una arquitectura específica para el desarrollo de asistentes virtuales destinados a proporcionar soporte a pacientes crónicos. Hoy en día, las personas interactúan entre sí diariamente utilizando plataformas de mensajería. Para alinear este tipo de interacción con la arquitectura del asistente virtual, proponemos el uso de plataformas de mensajería para la interacción asistente virtual-paciente, prestando especial atención a las cuestiones de seguridad y privacidad (es decir, el uso de plataformas de mensajería seguras con cifrado de extremo a extremo).Los asistentes virtuales pueden implementar sistemas conversacionales para que la interacción con los pacientes sea más natural. Los sistemas conversacionales en escenarios de atención médica complejos, como la gestión de enfermedades, deben ser capaces de poder comprender oraciones complejas utilizadas durante la interacción. La adaptación de nuevos métodos con el procesamiento de lenguaje natural (NLP, por su nombre en inglés, Natural Language Processing) puede aportar una mejora a la arquitectura del asistente virtual. Los word embeddings (incrustación de palabras) se han utilizado ampliamente en NLP como entrada en las redes neuronales. Tales word embeddings pueden ayudar a comprender el objetivo final y las palabras clave en una oración. Por ello, en esta tesis estudiamos el impacto de diferentes word embeddings entrenados con corpus generales y específicos utilizando el entendimiento del lenguaje natural conjunto (Joint NLU, por su nombre en inglés, Joint Natural Language Understanding) en el dominio de la medicación en español. Los datos para entrenar el modelo NLU conjunto se generan usando plantillas. Dicho modelo se utiliza para la detección de intenciones, así como para el slot filling (llenado de ranuras). En este estudio comparamos word2vec y fastText como word embeddings y ELMo y BERT como modelos de lenguaje. Para entrenar los embeddings utilizamos tres corpus diferentes: los datos de entrenamiento generados para este escenario, la Wikipedia en español como dominio general y la base de datos de medicamentos en español como datos especializados. El mejor resultado se obtuvo con el modelo ELMo entrenado con Wikipedia en español.Dotamos al asistente virtual de capacidades de gestión de medicamentos basadas en NLP. En consecuencia, se analiza el impacto del etiquetado de slots y la longitud de los datos de entrenamiento en modelos NLU conjuntos para escenarios de gestión de medicamentos utilizando asistentes virtuales en español. En este estudio definimos las intenciones (propósitos de las oraciones) para escenarios centrados en la administración de medicamentos y dos tipos de etiquetas de slots. Para entrenar el modelo, generamos cuatro conjuntos de datos, combinando oraciones largas o cortas con slots largos o cortos. Para el análisis comparativo, elegimos seis modelos NLU conjuntos (SlotRefine, stack-propagation framework, SF-ID network, capsule-NLU, slot-gated modeling y joint SLU-LM) de la literatura existente. Tras el análisis competitivo, se observa que el mejor resultado se obtuvo utilizando oraciones y slots cortos. Nuestros resultados sugirieron que los modelos NLU conjuntos entrenados con slots cortos produjeron mejores resultados que aquellos entrenados con slots largos para la tarea de slot filling.En definitiva, proponemos una arquitectura de microservicios genérica válida para cualquier tipo de gestión de enfermedades crónicas. El prototipo genérico ofrece un asistente virtual operativo para gestionar información básica y servir de base para futuras ampliaciones. Además, en esta tesis presentamos dos prototipos especializados con el objetivo de mostrar cómo esta nueva arquitectura permite cambiar, añadir o mejorar diferentes partes del asistente virtual de forma dinámica y flexible. El primer prototipo especializado tiene como objetivo ayudar en la gestión de la medicación del paciente. Este prototipo se encargará de recordar la ingesta de medicamentos a través de la creación de una comunidad de apoyo donde los pacientes, cuidadores y profesionales sanitarios interactúen con herramientas y servicios útiles ofrecidos por el asistente virtual. La implementación del segundo prototipo especializado está diseñada para una enfermedad crónica específica, la psoriasis. Este prototipo ofrece teleconsulta y almacenamiento de fotografías.Por último, esta tesis tiene como objetivo validar la eficacia del asistente virtual integrado en las plataformas de mensajería, destinado al cuidado de la salud. Por ello, esta tesis incluye la evaluación de los dos prototipos especializados. El primer estudio tiene como objetivo mejorar la adherencia a la medicación en pacientes con diabetes mellitus tipo 2 comórbida y trastorno depresivo. Para ello, se diseñó y posteriormente se realizó un estudio piloto de nueve meses. En el estudio analizamos la Tasa de Posesión de Medicamentos (MPR, por su nombre en inglés, Medication Possession Ratio), obtuvimos la puntuación del Cuestionario sobre la Salud del Paciente (PHQ-9, por su nombre en inglés, Patient Health Questionnaire) y medimos el nivel de hemoglobina glicosilada (HbA1c), en los pacientes antes y después del estudio. También realizamos entrevistas a todos los participantes. Un total de trece pacientes y cinco enfermeras utilizaron y evaluaron el asistente virtual propuesto. Los resultados mostraron que, en promedio, la adherencia a la medicación de los pacientes mejoró. El segundo estudio tiene como objetivo evaluar un año de uso entre el asistente virtual y pacientes con psoriasis y dermatólogos, y el impacto en su calidad de vida. Para ello se diseñó y realizó un estudio prospectivo de un año de duración con pacientes con psoriasis y dermatólogos. Para medir la mejora en la calidad de vida, en este estudio analizamos los cuestionarios de Calidad de Vida de los Pacientes con Psoriasis (PSOLIFE, por su nombre en inglés, Psoriasis Quality of Life) y el Índice de Calidad de Vida en Dermatología (DLQI, por su nombre en inglés, Dermatology Life Quality Index). Además, realizamos encuestas a todos los participantes y obtuvimos el número de consultas médicas realizadas a través del asistente virtual. Se incluyeron en el estudio un total de 34 participantes (30 pacientes diagnosticados con psoriasis moderada-grave y cuatro profesionales sanitarios). Los resultados mostraron que, en promedio, la calidad de vida mejoró.<br /
Käyttäjäymmärryksen kasvattaminen suunnittelukäytännöillä ketterissä sovelluskehitysprojekteissa
Modern software development aims to produce valuable digital solutions by benefiting from customer- and user-centred agility. These can be supported by design practices, with which user understanding can be deepened. The goal of this thesis was to study how design practices can help small companies to increase their user understanding in agile software development projects. The empirical study was conducted as an insider action research. In this study, four design practices were tested: semi-structured interviews, user stories, scenarios, and prototyping.
The four design practices helped to increase user understanding, by explaining who the users are, why they use the product, and how they use it. Semi-structured interviews helped to discover users’ values and motivations to use the current and future versions of the product. User stories allowed for creative thinking and writing of perceived user needs in a clear sentence. Scenarios described realistic stories of users. The stories gave details of the user, their interactions, circumstances, goals, and environment. Prototyping was used alongside the other three design practices to help the users feel and test the product. Testing the product in real context allowed for spontaneous idea creation for system improvement.
The results of this thesis indicate that a small company could use semi-structured interviews, user stories, scenarios, and prototyping to increase user understanding in agile software development projects. Increasing user understanding requires careful selection of design practices. The design practices should provide detailed information about who the users are, what their needs and motivations are, and how they would use a product.Nykyaikainen ohjelmistokehitys pyrkii tuottamaan arvokkaita digitaalisia ratkaisuja hyödyntäen asiakas- ja käyttäjäkeskeistä ketteryyttä. Näitä tukevat suunnittelukäytännöt, joilla syvennetään käyttäjäymmärrystä. Tämän työn tavoitteena oli tutkia, kuinka suunnittelukäytännöt voivat auttaa pieniä yrityksiä kasvattamaan käyttäjäymmärrystä ketterissä ohjelmistokehityksen projekteissa. Empiirinen tutkimus toteutettiin toimintatutkimuksena, jonka toteuttaja oli diplomityön tekijä. Tutkimuksessa testattiin neljää suunnittelukäytäntöä: puolistrukturoituja haastatteluja, käyttäjätarinoita, skenaarioita ja prototypointia.
Nämä suunnittelukäytännöt auttoivat käyttäjäymmärryksen kasvattamisessa. Käyttäjäymmärryksellä selitetään tuotteen käyttäjäryhmät, syyt tuotteen käytölle ja kuinka tuotetta käytetään. Puolistrukturoidut haastattelut auttoivat löytämään käyttäjien arvoja ja motivaatioita tuotteen nyky- ja tulevien versioiden käytölle. Käyttäjätarinat sallivat luovaa ajattelua ja havaittujen käyttäjätarpeiden kirjoittamista selkeinä lauseina. Skenaarioilla kuvattiin realistisia tarinoita käyttäjistä. Tarinoissa kuvattiin yksityiskohtaisesti käyttäjät, heidän vuorovaikutukset, olosuhteet, tavoitteet ja ympäristö. Prototypointia käytettiin kolmen muun suunnittelukäytäntöjen ohessa testauksen ja kokeilun tukena. Tuotteen testaus oikeassa kontekstissa mahdollisti spontaanin tuotekehitysideoinnin.
Tämän työn tulokset viittaavat siihen, että pienet yritykset voisivat käyttää puolistrukturoituja haastatteluja, käyttäjätarinoita, skenaarioita ja prototypointia käyttäjäymmärryksen kasvattamiseen ketterissä ohjelmistokehitysprojekteissa. Käyttäjäymmärryksen kasvattaminen vaatii käytettävien suunnittelukäytäntöjen huolellista valintaa. Niiden tulee vastata yksityiskohtaisesti siihen, keitä käyttäjät ovat, mitkä ovat heidän tarpeensa ja motivaationsa sekä kuinka he käyttävät tuotetta
Debunking Misconceptions: Do Jury Instructions Influence Comprehension and Verdict Selection
The purpose of this study was to compare the efficacy of jury instructions that debunk common misconceptions versus standard instructions, with regards to verdict choice, comprehension of the legal standard, and reasoning used to support verdict decisions. A case summary was read by 159 participants who then listened to auditory instructions from a judge regarding the legal standards for second degree murder and voluntary manslaughter. They then completed measures assessing verdict, comprehension, and reasoning. While the results revealed that the legal instructions did not influence participants’ verdicts or comprehension of the legal standard, the data suggests that participants may have relied upon their prototypes of the case to make their decisions
Hallucination-minimized Data-to-answer Framework for Financial Decision-makers
Large Language Models (LLMs) have been applied to build several automation
and personalized question-answering prototypes so far. However, scaling such
prototypes to robust products with minimized hallucinations or fake responses
still remains an open challenge, especially in niche data-table heavy domains
such as financial decision making. In this work, we present a novel
Langchain-based framework that transforms data tables into hierarchical textual
data chunks to enable a wide variety of actionable question answering. First,
the user-queries are classified by intention followed by automated retrieval of
the most relevant data chunks to generate customized LLM prompts per query.
Next, the custom prompts and their responses undergo multi-metric scoring to
assess for hallucinations and response confidence. The proposed system is
optimized with user-query intention classification, advanced prompting, data
scaling capabilities and it achieves over 90% confidence scores for a variety
of user-queries responses ranging from {What, Where, Why, How, predict, trend,
anomalies, exceptions} that are crucial for financial decision making
applications. The proposed data to answers framework can be extended to other
analytical domains such as sales and payroll to ensure optimal hallucination
control guardrails.Comment: 11 pages, 5 figures, 4 table
Design and evaluation of mobile computer-assisted pronunciation training tools for second language learning
The quality of speech technology (automatic speech recognition, ASR, and textto-
speech, TTS) has considerably improved and, consequently, an increasing number
of computer-assisted pronunciation (CAPT) tools has included it. However, pronunciation
is one area of teaching that has not been developed enough since there
is scarce empirical evidence assessing the effectiveness of tools and games that include
speech technology in the field of pronunciation training and teaching. This
PhD thesis addresses the design and validation of an innovative CAPT system for
smart devices for training second language (L2) pronunciation. Particularly, it aims
to improve learner’s L2 pronunciation at the segmental level with a specific set of
methodological choices, such as learner’s first and second language connection (L1–
L2), minimal pairs, a training cycle of exposure–perception–production, individualistic
and social approaches, and the inclusion of ASR and TTS technology. The
experimental research conducted applying these methodological choices with real
users validates the efficiency of the CAPT prototypes developed for the four main
experiments of this dissertation. Data is automatically gathered by the CAPT systems
to give an immediate specific feedback to users and to analyze all results. The
protocols, metrics, algorithms, and methods necessary to statistically analyze and
discuss the results are also detailed. The two main L2 tested during the experimental
procedure are American English and Spanish. The different CAPT prototypes designed
and validated in this thesis, and the methodological choices that they implement,
allow to accurately measuring the relative pronunciation improvement of the
individuals who trained with them. Both rater’s subjective scores and CAPT’s objective
scores show a strong correlation, being useful in the future to be able to assess
a large amount of data and reducing human costs. Results also show an intensive
practice supported by a significant number of activities carried out. In the case of the
controlled experiments, students who worked with the CAPT tool achieved better
pronunciation improvement values than their peers in the traditional in-classroom
instruction group. In the case of the challenge-based CAPT learning game proposed,
the most active players in the competition kept on playing until the end and
achieved significant pronunciation improvement results.Departamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)Doctorado en Informátic
- …