3,183 research outputs found

    Towards clarifying the importance of interactions in Agent-Oriented Software Engineering

    Get PDF
    Interactions between subparts of a system have been recognized as the source of complexity in many fields ranging from physics, sociology, neurology, to software engineering. Agent-Oriented Software Engineering (AOSE) was born under the promise of conquering complexity and enabling the development of more complex software. However, current AOSE approaches do not provide enough engineering tools to deal with the complexity derived from interactions. More mature fields such as economy or component-based software systems have recognized that interactions present a predominant role in the determination of the desired outcome providing mature background that can be applied to AOSE. AOSE may improve its ability to deal with complex systems by improving the tools applied to manage agent’s interactions in the overall design of the system. In this paper, we justify this assessment and propose some principles to improve AOSE methodologies regarding complexit

    Sistemas basado en reglas para la validación del despliegue de servicios

    Full text link
    El despliegue de servicios es una tarea compleja, al depender de múltiples factores que pueden variaren el tiempo, que se realiza normalmente de forma manual. En este artículo se propone emplear un sistema de validación de planes de despliegue, implementado a través de un sistema basado en reglas, para asegurar que las acciones del despliegue a realizar son adecuadas al estado del entorno sobre el que se desea actuar. Dicho sistema se encuentra integrado dentro de un gestor de cambios de entorno y basado en su modelo de información

    El encuadre pedagógico de los algoritmos educativos basados en datos

    Get PDF
    Data from students and learning practices are essential for feeding the artificial intelligence systems used in education. Recurrent data trains the algorithms so that they can be adapted to new situations, either to optimize coursework or to manage repetitive tasks. As the algorithms spread in different learning contexts and the actions which they perform expand, pedagogical interpretative frameworks are required to use them properly. Based on case analyses and a literature review, the paper analyses the limits of learning practices based on the massive use of data from a pedagogical approach. The focus is on data capture, biases associated with datasets, and human intervention both in the training of artificial intelligence algorithms and in the design of machine learning pipelines. In order to facilitate the adequate use of data-driven learning practices, it is proposed to frame appropriate heuristics to determine the pedagogical suitability of artificial intelligence systems and also their evaluation both in terms of accountability and of the quality of the teaching-learning process. Thus, finally, a set of top-down proposed rules that can contribute to fill the identified gaps to improve the educational use of data-driven educational algorithms is discussed.Los datos procedentes de los estudiantes y de las prácticas de aprendizaje son esenciales para alimentar los sistemas de inteligencia artificial empleados en educación. Asimismo, los datos generados recurrentemente son fundamentales para entrenar los algoritmos, de manera que puedan adaptarse a nuevas situaciones, ya sea para mejorar el ciclo de aprendizaje en su conjunto o para gestionar tareas repetitivas. A medida que los algoritmos se propagan en diferentes contextos de aprendizaje y se amplía su capacidad de acción, se requieren marcos pedagógicos que ayuden a interpretarlos y que amparen su uso adecuado. Basándose en el análisis de casos y en una revisión de la literatura científica, en este artículo se analizan los límites de las prácticas de aprendizaje fundamentadas en el uso masivo de datos desde un enfoque pedagógico. Se toman en consideración procesos clave como la captura de los datos, los sesgos en las bases de datos y el factor humano que está presente en el diseño de algoritmos de inteligencia artificial y de sistemas de Aprendizaje Automático. Con el fin de facilitar la gestión adecuada de los algoritmos educativos basados en datos, se plantea la idoneidad de introducir un marco pedagógico que permita analizar la idoneidad de los sistemas de inteligencia artificial y apoyar su evaluación, considerando su impacto en el proceso de aprendizaje. En ese sentido, se propone finalmente un conjunto de reglas de enfoque heurístico con el fin de mejorar los vacíos pedagógicos identificados y que puedan apoyar el uso educativo de los algoritmos basados en datos

    20 aniversario de 'INTELIGENCIA ARTIFICIAL'

    Full text link

    TENCompetence: Construyendo la Red Europea para el Desarrollo Continuo de Competencias

    Get PDF
    Burgos, D., Herder, E., & Olmedilla, D. (2007). TENCompetence: Construyendo la Red Europea para el Desarrollo Continuo de Competencias. Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial (AEPIA).El proyecto TENCompetence (The European Network for Lifelong Competence Development) apoya a personas e instituciones europeas en el desarrollo de competencias profesionales más allá de la formación reglada oficial. El desarrollo de habilidades específicas y competencias laborales que enriquecen un curriculum y mejoran la valoración del individuo y sus capacidades profesionales centran el núcleo del proyecto. Como tal, existen dos áreas de trabajo principales: por un lado la implementación e integración de una estructura de servicios; por otro, la investigación de nuevas soluciones y técnicas a los problemas habituales en la materia. Específicamente, en referencia a la investigación, existen cuatro áreas complementarias de actuación, con diferente grado de granularidad: 1) Compartición y Administración de Recursos de Conocimiento, 2) Actividades y Unidades de Aprendizaje, 3) Programas de Desarrollo de Competencias, y 4) Redes para el Desarrollo de Competencias. Este artículo presenta los principales problemas por resolver para el desarrollo contínuo de competencias y describe las líneas de investigación definidas en el proyecto TENCompetence para abordarlos, incluyendo las principales técnicas en uso o de aplicación inmediata.This work has been sponsored by the EU project TENCompetence [www.tencompetence.org

    Functional first order definability of LRTp

    Get PDF
    The language LRTp is a non-deterministic language for exact real number computation. It has been shown that all computable rst order relations in the sense of Brattka are denable in the language. If we restrict the language to single-valued total relations (e.g. functions), all polynomials are denable in the language. This paper is an expanded version of [12] in which we show that the non-deterministic version of the limit operator, which allows to dene all computable rst order relations, when restricted to single-valued total inputs, produces single-valued total outputs. This implies that not only the polynomials are denable in the language but also allcomputable rst order functions

    Las diligencias diplomáticas de Miura Yoshiaki como último ministro de Japón en México en el umbral de la Guerra del Pacífico

    Get PDF
    El ministro Miura Yoshiaki fue el último representante diplomático de Japón en México en el inicio de la Guerra del Pacífico. El objetivo del presente artículo es analizar las condiciones y acciones realizadas por Miura antes y después del rompimiento de las relaciones diplomáticas el 8 de diciembre de 1941 como resultado del inicio de la guerra del Pacífico. Dentro de la creciente tensión entre Tokio y Washington, Miura desplegó una diplomacia ofensiva para contener el cerco económico que Estados Unidos estaba armando contra Japón buscando que México no se alineara a esas acciones. Es un hecho que los esfuerzos para refrendar los lazos de amistad entre las dos naciones cada vez se veían más difíciles de mantener por las condiciones de acercamiento del gobierno de Manuel Ávila Camacho a las directivas marcadas por la Casa Blanca contra las potencias del Eje

    Artificial Immune System for Solving Constrained Optimization Problems

    Full text link

    Artificial intelligence and journalism: Systematic review of scientific production in Web of Science and Scopus (2008-2019)

    Get PDF
    Research about the use of Artificial Intelligence applied to journalism has increased over the years. The studies conducted in this field between January 2008 and December 2019 were analysed to understand the contexts in which they have been developed and the challenges detected. The method used consisted of a systematic review of the scientific literature (SLR) of 209 scientific documents published in the Web of Science and Scopus databases. The validation required the inclusion and exclusion criteria, database identification, search engines and evaluation and description of results. The findings indicate that the largest number of publications related to this topic are concentrated in the United States and that the rise of scientific production on Artificial Intelligence in journalism takes place in 2015, when the remarkable growth of these publications begins, until reaching 61 in 2019. It is concluded that research is mainly published in scientific journals, which include works that handle a broad variety of topics, such as information production, data journalism, big data, application in social networks or information checking. In relation to authorship, the trend is the presence of a single signer.La investigación sobre el uso de la Inteligencia Artificial aplicada al periodismo se ha intensificado en los últimos años. Este artículo analiza los estudios producidos en este campo entre enero 2008 y diciembre 2019, a fin de conocer qué investigaciones se han realizado y cuáles son los contextos en los que se han desarrollado. El método ha sido una revisión sistemática de la literatura científica (SLR) de 209 documentos científicos publicados en las bases de datos Web of Science y Scopus. La validación ha seguido los criterios de inclusión y exclusión, identificación de la base de datos, motores de búsqueda y evaluación y descripción de resultados. Los hallazgos indican que en Estados Unidos se concentra el mayor número de publicaciones relacionadas con este tema y que el auge de la producción científica sobre la Inteligencia Artificial en periodismo se produce en 2015, cuando empieza el crecimiento notable de estas publicaciones, hasta alcanzar las 61 en 2019. Se concluye que las investigaciones se publican principalmente en revistas científicas, que incluyen trabajos que versan sobre una amplia variedad de temas, como la producción informativa, el periodismo de datos, el big data, la aplicación en redes sociales o el chequeo de información. En relación con la autoría, la tendencia es la presencia de un único firmante
    corecore