Explicaciones en argumentación rebatible

Abstract

En la literatura es usual encontrar acuerdo, en que un sistema experto o de recomendación debe responder con un nivel comparable a los humanos expertos, pero también debe tener la capacidad de explicar, en una forma entendible por el usuario, el proceso de razonamiento que empleó para resolver el problema y generar una recomendación. En general, cuando un usuario es responsable por la toma de decisiones, normalmente tiende a descartar una recomendación que no entiende completamente. Por ejemplo, aunque una recomendación efectuada por el sistema sea técnicamente correcta, la pérdida de confianza en ella puede deberse simplemente a que esté basada en alternativas que el usuario no había previsto. El objetivo principal de esta línea de investigación es intentar avanzar sobre el desarrollo de explicaciones que resulten aceptables para el usuario que recibe una recomendación de un sistema.Eje: Agentes y Sistemas InteligentesRed de Universidades con Carreras en Informática (RedUNCI

    Similar works