118 research outputs found

    Un modelo de procesamiento terminológico para la obtención y validación de requisitos de software basado en el diagrama de objetivos de Kaos

    Get PDF
    Resumen: La educción y validación de requisitos de software son actividades propias de la Ingeniería de Software, estas se realizan en las primeras fases del ciclo de vida del software, es decir, en la definición y el análisis respectivamente. En estas fases se intentan capturar los requisitos que debe cumplir el sistema (software) y transformarlos en modelos conceptuales que permitan explicar los elementos significativos del área del problema. Sin embargo, los productos obtenidos a través de estas fases presentan problemas en su concepción debido a: (i) la brecha de comunicación presente entre el interesado (usuario) y el analista, es decir, debido a la comunicación limitada o insuficiente que se genera por las diferencias entre sus especialidades, y (ii) la ambigüedad verbal presente en el universo del discurso. Estos problemas, impiden una correcta identificación y validación de los requisitos que debe cumplir un sistema (software). Asimismo, hacen que el producto final sea más costoso debido a la corrección de errores en las etapas de implementación y producción del sistema (software). Con el propósito de: (i) mejorar los resultados en la educción y validación de requisitos de software, y (ii) reducir la brecha de comunicación entre el interesado y el analista, se utilizan diversos esquemas conceptuales, entre estos se emplea el diagrama de objetivos de KAOS (Knowledge Acquisition in Automated Specification), el cual le permite al usuario la identificación y la validación de los requisitos asociados al sistema (software). Además, a partir de este diagrama se pueden obtener diagramas UML propios de la tercera fase (diseño) del ciclo de vida del software, los cuales hacen parte del dominio del analista. Sin embargo, en los diferentes trabajos que especifican o utilizan el diagrama de diagrama de objetivos de KAOS, se logran identificar los siguientes problemas: (i) falta de consistencia entre el lenguaje natural y los elementos básicos que conforman el diagrama de objetivos de KAOS, (ii) no utilizan herramientas terminológicas que permitan minimizar la ambigüedad semántica presente en el universo del discurso, (iii) falta de validación semiautomática de requisitos de software por parte del interesado en la etapa inicial, y (iv) no obtienen de manera semiautomática el diagrama de objetivos correspondiente. Con la intención de dar solución a los problemas identificados en el párrafo anterior, se logró realizar en esta tesis doctoral lo siguiente: (i) caracterizar los elementos que componen el diagrama de objetivos de KAOS, (ii) construir una Ontología para representar con mayor precisión los elementos del diagrama de objetivos KAOS, (iii) definir un conjunto de formas morfosintácticas que permiten caracterizar a partir de lenguaje natural los elementos básicos (objetivo, entidad, operación y agente) del diagrama de objetivos de KAOS, de tal forma, que se logró dar una solución a la necesidad de identificar la consistencia que debe existir entre el lenguaje natural y los elementos básicos que conforman diagrama de objetivos de KAOS, (iv) definir un conjunto de reglas semánticas que permiten minimizar la ambigüedad semántica presente en el universo del discurso, la cual afecta de forma negativa las actividades asociadas a la educción y validación de requisitos de software, (v) crear un modelo de procesamiento terminológico para la educción y validación interactiva con el usuario de requisitos de software inicialmente descritos en lenguaje natural, (vi) desarrollar la aplicación NL2KAOS (elaborada en JAVA, JSP y PHP) que permite automatizar el modelo propuesto, además, incluye las formas morfosintácticas y las reglas semánticas definidas en esta tesis, (vii) obtener de manera semiautomática el diagrama de objetivos de KAOS, (viii) realizar la evaluación del modelo mediante la experimentación y el análisis de los resultados obtenidos, los cuales fueron confrontados con varios casos de estudio registrados en la literatura científica, en los experimentos se analizaron las características de la exhaustividad, la precisión, la correctitud, la completitud y la consistencia de los elementos básicos (objetivo, entidad, operación y agente).Abstract: The elicitation and validation of software requirements are specific activities belonging to software engineering which are performed in the early stages of the software life cycle, namely, definition and analysis. In these phases the goal is to capture the requirements to be met by the system (software) and transform them into conceptual models that explain the significant components of the problem area. However, there are problems in the conception of the products obtained in these phases because of: (i) the communication gap existing between the stakeholder (user) and the analyst due to limited or insufficient communication caused by the differences in their specialties, and (ii) the verbal ambiguity present in the universe of discourse. These problems make it impossible to correctly identify and validate the requirements that must be met by the system (software). Likewise, they increase the cost of the final product because errors must be corrected during the system's (software) implementation and production stages. In order to: (i) improve the results of the requirements elicitation and validation phases, and (ii) reduce the communication gap between the stakeholder and the analyst, a number of conceptual schemes are used. One of such is the KAOS (Knowledge Acquisition in Automated Specification) diagram, which allows users to identify and validate the requirements associated with the system (software). Furthermore, the UML diagrams, which belong to the third phase (design) of the software life cycle and are a part of the analyst's domain, can be obtained from this diagram. However, the following problems have been observed in the various studies which specify or use the KAOS goal diagram: (i) lack of consistency between natural language and the basic components of the KAOS goal diagram, (ii) lack of terminological tools that can be used to minimize the semantic ambiguity in the universe of discourse, (iii) lack of semi-automatic validation of software requirements performed by the stakeholder during the initial stage, and (iv) the corresponding goal diagram is not obtained semi-automatically. In order to solve the problems stated in the preceding paragraphs, the following objectives where achieved in this doctoral dissertation: (i) characterize the components of the KAOS goal diagram. (ii) Build an Ontology that represents the components of the KAOS goal diagram more accurately. (iii) Define a set of morphosyntactic forms which make it possible to extract the basic components of the KAOS goal diagram from natural language (goal, entity, operation and agent) to solve the problem of consistency between natural language and the basic components of the KAOS goal diagram. (iv) Define a set of semantic rules that make it possible to minimize the semantic ambiguity found in the universe of discourse that negatively affects the activities associated with software requirements elicitation and validation. (v) Create a terminology processing model for eliciting and validating the software requirements expressed in natural language, with the help of the user and in an interactive manner. (vi) Develop the NL2KAOS application (written in JAVA, JSP and PHP) which automates the proposed model and includes the morphosyntactic forms and semantic rules defined in this dissertation. (vii) Semi-automatically obtain the KAOS goal diagram. (viii) Evaluate the model by experimenting and analyzing the results obtained; such results were compared with a number of case studies appearing in the scientific literature. Additionally, the exhaustive, precision, correctness, completeness and consistency of the basic components (goal, entity, operation and agent).Doctorad

    Un modelo de resolución de ambigüedad de sentidos de palabras para mejorar la calidad de resultados en una arquitectura de educción de requisitos de software.

    Get PDF
    Resumen: El problema de ambigüedad de los sentidos de las palabras (polisémica) es un problema que es transversal a diversas áreas del conocimiento entre ellas a la ingeniería de software y sus sub-ramas como la educción de requisitos. En la fase de educción de requisitos se presentan problemas en la comunicación entre el analista y el interesado debido a factores como poca claridad del interesado, interpretación subjetiva del analista, dominios del discurso diferentes y ambigüedad semántica (polisémica, léxica y lingüística, etc.), estos factores dificultan la comprensión correcta y no ambigua de los requisitos. Las arquitecturas de educción de requisitos de software son el lugar donde se plasman los requisitos obtenidos desde el discurso y eso donde finalmente se evidencian los problemas de ambigüedad de esta fase (inconsistencia, duplicidad y no unificidad). En este trabajo se busca enfrentar la ambigüedad del sentido de las palabras presente en las arquitecturas de educción de requisitos de software y los errores asociados que genera la ambigüedad polisémica en requisitos de software. Para ello se propone un modelo de resolución de ambigüedad de sentidos de palabras para mejorar la calidad de resultados en una arquitectura de educción de requisitos de software.Abstract: The problem of ambiguity of word meanings (polysemy) is a problem that cuts across different knowledge areas including software engineering and its sub-branches such as requirements elicitation. In the phase of requirements elicitation problems arise in communication between the analyst and the person due to factors such as lack of clarity interested, subjective interpretation of the analyst different domains of discourse and semantic ambiguity (polysemy, lexical and linguistic, etc.) these factors make the correct and unambiguous understanding of the requirements. The architectures of software requirements elicitation are where the requirements obtained from the speech are reflected and that where finally the problems of ambiguity of this phase (inconsistency, duplicity and no unificidad) are evident. This paper seeks to address the ambiguity of the meaning of words present in the architectures of software requirements elicitation and associated errors generated by the polysemous ambiguity in software requirements. For these model ambiguity resolution senses of words is proposed to improve the quality of results architecture software requirements elicitation.Maestrí

    Conocimiento de la lengua y técnicas estadísticas en el análisis lingüístico

    Get PDF
    International audienceSon comparados los resultados obtenidos sobre un mismo corpus en la tarea del POS tagging por dos sistemas orientados por enfoques diferentes en lingüística computacional, el uno orientado por el Conocimiento de la lengua (sistema CL) y el otro por Técnicas estadísticas (sistema EST). Se trata de no limitarse a consideraciones globales sobre el « costo » de obtención de los dos tipos de resultados, noción mal definida, ni a cotejar resultados globales, sino de poner en relación los resultados obtenidos con las características lingüísticas involucradas. La problemática de la comparación es clarificada, los sistemas CL y EST presentados, la metodología de la comparación definida y los resultados obtenidos presentados. En el caso comparado, el sistema CL ofrece mejores resultados, pero la conclusión más interesante es la posibilidad de establecer correlaciones entre aspectos de la estructura lingüística y resultados obtenidos por técnicas estadísticas

    Desarrollo, implementación y utilización de modelos para el procesamiento automático de textos

    Get PDF
    El libro recoge ponencias y talleres seleccionados de JALIMI 2005 (Jornadas Argentinas de Lingüística Informática: Modelización e Ingeniería), y está organizado en nueve capítulos y un apéndice. Si bien hay sustantivas diferencias en los enfoques, las metodologías, las propiedades específicas estudiadas y las aplicaciones propuestas o proyectadas, todos los capítulos comunican resultados de investigaciones que pretenden contribuir a alcanzar el objetivo a largo plazo de la Lingüística Informática, a saber: emular en términos cibernéticos la extraordinaria capacidad humana de producir y comprender textos en lengua natural

    Generador automático de fichas de personajes para un entorno periodístico

    Get PDF
    Sistema que permite generar una ficha informativa de un personaje de forma automática a partir de las noticias pertenecientes a una base de datos documental de un medio de comunicación y otra información procedente de Internet

    Diseño de un modelo para la recuperación de documentos basado en ontologías en el dominio de la ingeniería informática

    Get PDF
    La selección de información relevante de documentos digitales es uno de los principales problemas para los estudiantes de pregrado de la especialidad de Ingeniería Informática. Para facilitar dicha tarea, es necesario un modelo que represente la relación entre las entidades en las que se define toda la información disponible. Por ello, se decidió llevar a cabo una revisión sistemática acerca de las posibles soluciones que representen dicho domino. Como resultado de la revisión realizada, se propone el uso de ontologías como estructura básica para la representación del conocimiento por su eficacia a la hora de realizar la recuperación. Además, se plantea utilizar un proceso de etiquetación semántica de documentos para relacionar cada documento digital con - al menos - una entidad de la ontología con la finalidad de poder realizar búsquedas mediante el uso de etiquetas y lenguaje natural. Se concluye que las ontologías son una estructura flexible y que soportan la recuperación de conocimiento en un dominio específico y que el modelo planteado cumple con las necesidades de búsqueda y etiquetación para los usuarios.Tesi

    Procedimento para a construção de índices semânticos baseados em ontologias de domínio específico

    Get PDF
    The current on-line search systems are still far from providing users with contextualized and accurate answers because users have to make additional efforts to filter and evaluate information supplied to them. One of the ways to improve the results is to create semantic indexes that incorporate knowledge and intelligent processing of resources. When it comes to the implementation of semantic indexes, however, there is a wide range of research studies with their own procedures and lengthy conceptualization, implementation, and refinement processes. Thus, it becomes of the utmost importance to define an instrument that allows creating these kinds of structures in a more structured and efficient manner. This work proposes a procedure that makes it possible to create semantic indexes based on domain-specific ontologies. The methodology entailed creating a state of the art of the various existing proposals and drawing a general procedure that incorporates the best practice for creating semantic indexes. Then, a semantic index was created of the domain of plants and their components. The results demonstrate that the defined process is a good instrument that guides implementation of these kinds of structures with a high degree of customization. Nevertheless, it also shows that the process depends on other variables in building and processing the index, so the design needs to be re-examined until the desirable results are obtained.Los sistemas de búsqueda web actual, aún están lejos de ofrecer respuestas completamente contextualizadas y precisas a los usuarios, ya que éstos deben hacer esfuerzos adicionales de filtrado y evaluación de la información proporcionada. Una forma de mejorar los resultados, es mediante la creación de índices semánticos, los cuales incorporan conocimiento y procesamiento inteligente de los recursos. Sin embargo, al momento de implementar los índices semánticos, existen variadas investigaciones con procedimientos propios y con procesos largos de conceptualización, implementación y afinación. Es así, como se vuelve importante definir una herramienta que permita crear este tipo de estructuras de una manera más estructurada y eficiente. El presente trabajo propone un procedimiento que permite crear índices semánticos a partir de ontologías de dominio específico. La metodología utilizada fue la creación de un estado del arte de las diferentes propuestas existentes y posteriormente la abstracción de un procedimiento general que incorpore las mejores prácticas de creación de índices semánticos. Posteriormente, se creó un índice semántico el dominio de las plantas y sus componentes. Los resultados permiten establecer que el proceso definido es una buena herramienta para guiar la implementación de este tipo de estructuras con un alto grado de personalización. Sin embargo, también evidenció que el proceso depende otras variables al momento de construir y trabajar con el índice y por lo tanto se debe reevaluar el diseño hasta obtener los resultados deseados.Os atuais sistemas de busca na web, estão ainda longe de fornecer respostas plenamente contextualizadas e precisas aos usuários, uma vez que eles devem fazer esforços extras de filtragem e avaliação das informações fornecidas. Uma forma de melhorar os resultados é através da criação de índices semânticos, que incorporam conhecimento e processamento inteligente dos recursos. No entanto, no momento de implementar os índices semânticos, existem variadas investigações com procedimentos próprios e com longos processos de conceituação, implementação e ajuste. É assim que se torna importante definir uma ferramenta que permita criar este tipo de estruturas de uma maneira mais estruturada e eficiente. Este artigo propõe um procedimento que permite criar índices semânticos a partir de ontologias de domínio específico. A metodologia usada foi a criação de um estado de arte das diferentes propostas existentes e posteriormente a abstração de um procedimento geral que incorpore as melhores práticas de criação de índices semânticos. Posteriormente, foi criado um índice semântico de masterização das plantas e seus componentes. Os resultados permitem estabelecer que o processo definido é uma boa ferramenta para orientar a implementação deste tipo de estruturas com um alto grau de personalização. No entanto, também revelou que o processo depende de outras variáveis no momento de construir e trabalhar com o índice e, portanto, o projeto deve ser reavaliado até obter os resultados desejado

    Mejoras en la usabilidad de la web a través de una estructura complementaria

    Get PDF
    La Web ha motivado la generación de herramientas que permiten, con distintos grados de sofisticación y precisión, manipular sus contenidos. Para ello, tratan una serie de problemas, relacionados con la naturaleza imperfecta y cambiante de todas las actividades humanas. Ésta se refleja en fenómenos como las ambigüedades, contradicciones y errores de los textos almacenados. Esta tesis presenta una propuesta para complementar la administración de contenidos en la Web y de esta manera facilitar el proceso de recuperación de información. Se presenta un prototipo, denominado Web Intelligent Handler (WIH), que implementa una serie de algoritmos básicos para manipular algunas características morfosintácticas de textos en castellano y, en base a ellas, obtener una representación resumida y alternativa de su contenido. En este contexto, se define una nueva métrica de ponderación para reflejar parte de la esencia morfosintáctica de los sintagmas. Además se define un esquema de interacción entre los módulos para regular la explotación de los textos. También se explora la capacidad de los algoritmos propuestos en el tratamiento de los textos, considerándolos como una colección de sintagmas, sujeta a factores tales como contradicciones, ambigüedades y errores. Otro aporte de esta tesis es la posibilidad de evaluar matemáticamente y de manera automática tipos de estilos de texto y perfiles de escritura. Se proponen los estilos literario, técnico y mensajes. También se proponen los perfiles documento, foro de intercambio, índice Web y texto de sitio blog. Se evalúan los tres estilos y los cuatro perfiles mencionados, los que se comportan como distintos grados de una escala de estilos y perfiles, respectivamente, cuando se los evalúa con la métrica morfosintáctica aquí definida. Adicionalmente, utilizando la misma métrica, es posible realizar una valoración aproximada y automática de la calidad de cualquier tipo de texto. Esta calificación resulta ser invariante a la cantidad de palabras, temática y perfil, pero relacionada con el estilo del escrito en cuestión.The Web motivated a set of tools for content handling with several levels of sophistication and precision. To do so, they deal with many unsolved problems in saved texts. All of them are related to the mutable and imperfect essence of human beings such as ambiguities, contradictions and misspellings. This theses presents a proposal to complement the Web content management and therefore to provide support to the information retrieval activity. A prototype named Web Intelligent Handler (WIH) is introduced to implement a set of algorithms that manage some morpho-syntactical features in Spanish texts. These features are also used to get a brief and alternate representation of its content. Within this framework, a new weighting metric is designed to reflect part of the syntagm morpho-syntactical essence. A module interaction approach is also outlined to rule the text processing output. Besides, this thesis analyzes the algorithms ability to handle texts considering them as a collection of syntagms affected by certain factors such as contradictions, ambiguities and misspellings. Perhaps, the main contribution of this thesis is the possibility to automatically mathematical evaluation of text styles and profiles. Three initial three styles are proposed here: literary, technical and message. Furthermore, the following writer profiles are proposed also: document, foro, Web-index and blog. All the three styles and four profiles were evaluated. They behave respectively as a part of a graduated scale of styles and profiles when the morpho-syntactical metric defined here is used. It is also possible to perform a kind of automatic rough text quality valuation. This is invariant to the text word quantity, topic and profile, but it is related to its style.Facultad de Informátic

    Un modelo integrado de técnicas de aprendizaje de máquinas no supervisadas y ontologías para la detección automática de sentimientos desde una estructura gramatical simple en español

    Get PDF
    Recientemente el análisis de sentimientos (AS) ha mostrado un alto interés debido a la producción a gran escala de opiniones por parte de usuarios en la Internet. Las empresas en general, necesitan saber la reputación que tienen ante sus usuarios en la Web. Hasta ahora, la gran mayoría de trabajos de investigación involucran sistemas de AS que detectan el sentimiento global de una opinión escrita sobre una frase o un documento completo; estos sistemas resultan a veces incompletos ante la realidad de las organizaciones que quieren saber en detalle el comportamiento de sus productos. Resultados de esa necesidad, existen enfoques de AS dedicados a realizar un análisis más completo de grano fino, en donde se identifican las características o aspectos más importantes de una opinión para poder determinar el sentimiento de cada uno de los aspectos. Sin embargo, la mayoría de enfoques, no tienen en cuenta el concepto o significado de las palabras en el proceso de identificar los aspectos, por otra parte, se necesita un gran número de documentos etiquetados manualmente para determinar el sentimiento. Con el fin de dar solución a estos problemas, este trabajo de tesis doctoral, propone la construcción de un modelo para analizar sentimientos a nivel de aspectos en español, que permita extraer automáticamente las características de una opinión y determinar el sentimiento (polaridad) asociado. El modelo está basado en dos técnicas, la primera se basa en ontologías para detección aspectos explícitos e implícitos y la segunda, utiliza el aprendizaje de máquina no supervisado para determinar la polaridad sobre una estructura gramatical simple. Este modelo tiene en cuenta el significado de los aspectos en el momento de extracción, y es completamente no supervisado, lo que permite implementar un sistema que sea rápidamente escalable a cualquier idioma o dominio. Para la implementación del modelo, se desarrolló el prototipo AspectSA (elaborado en JAVA), que contiene componentes de software que permiten realizar el análisis de sentimientos a nivel de aspectos en los dominios de restaurante y hoteles. Adicionalmente, este prototipo se validó utilizando un conjunto de experimentos basados en corpus, desarrollados por SemEval 2016 en español. Los resultados obtenidos superaron a todos los participantes de SemEval y a los sistemas existentes para el lenguaje español.Abstract: Recently the sentiment analysis has shown a high interest due to large-scale production of opinions by users on the Internet. The companies generally need to know the reputation they have of their users on the Web. So far, the vast majority of research involving this systems that detect the overall sentiment of a written opinion on a phrase or an entire document. These systems are sometimes incomplete before the reality of organizations that want to know in detail the behavior of their products. Due to the above, there are some approaches dedicated to a more complete analysis offine grain, where the characteristics or most important aspects of an opinion are identified in order to determine the feeling of each one of the aspects. However, most approaches do not take into account the concept or meaning of words in the process of identifying aspects and also a large number of documents labeled manually is needed to determine the sentiment. In order to solve these problems, this doctoral thesis proposes the construction of a model to aspect-based sentiment analysis in Spanish that allows to automatically extract the characteristics of an opinion and determine the associated sentiment (polarity). The model is based on Ontologies for detection of characteristics (explicit and implicit aspects) and machine learning unsupervised to determine the polarity on a simple grammatical structure. This model takes into account the meaning of the aspects at the time of extraction and is completely unsupervised which allows to implement a system that is quickly scalable to any language or domain. For the implementation of the model was developed the prototype AspectSA (elaborated in JAVA), which contains software components that allow the aspect-based sentiment analysis in the domains of restaurants and hotels. In addition, this prototype was validated using a set of experiments based on the data set developed by SemEval 2016 in Spanish. The results obtained exceeded all SemEval participants and the existing systems for the Spanish language.Doctorad
    corecore