63 research outputs found

    LAS PUBLICACIONES EN INGENIERÍA

    Get PDF
    Día a día son continuos los retos que trae consigo la investigación. Conseguir financiamiento, acceder a las herramientas necesarias, divulgar los resultados obtenidos son solo algunas de las tareas que los investigadores tienen que realizar diariamente para poder continuar con sus procesos.El reto de la divulgación suele abordarse mediante dos modalidades: con la presentación de ponencias en eventos científicos o con la publicación de artículos en revistas. En los primeros se suelen presentar resultados parciales de investigaciones en desarrollo o ideas preliminares de posibles temas de investigación, mientras que en las publicaciones se muestran resultados innovadores y originales de investigaciones finalizadas.De manera particular, las publicaciones científicas son las que representan mayor interés para investigadores, pues mediante la difusión de sus trabajos en las revistas se genera un mayor impacto y alcance en la comunidad académica internacional.En el ámbito internacional es elevado el número de revistas asociadas a la ingeniería. Tan solo el ranking Scimago Journal & Country Rank (SJR) registra al 2016 un total de 2429 revistas en esta área, desde publicaciones específicas de un área de la ingeniería hasta publicaciones transversales a todas sus ramas. Para el caso de Colombia, según el Sistema Nacional de Indexación y Homologación de Revistas Especializadas de CT+I, se tienen aproximadamente 30 revistas reconocidas por cumplir con “criterios de calidad científica y editorial, y según perfiles de estabilidad y visibilidad reconocidos internacionalmente para las publicaciones científicas” (Publindex, 2015).Dentro de las revistas reconocidas por Publindex se encuentra Ingeniero Magno, en categoría C. Ello permite validar la importancia y el crecimiento que los diferentes integrantes: editor, comités editorial y científico, autores, pares evaluadores, lectores y comunidad en general, han ayudado a consolidar, con miras a un mejoramiento continuo en los diferentes parámetros exigidos en bases de datos e índices internacionales.Lo anterior se suma al significativo número de artículos publicados en el área. Solamente Redalyc, a abril de 2016, incluye 14.421 publicaciones, de las cuales el 40,5% corresponde a autores colombianos. Esto, por supuesto, permite corroborar la importancia de divulgar los trabajos mediante publicaciones científicas; por ello, se invita a toda la comunidad investigativa nacional e internacional a seguir contribuyendo en el fortalecimiento y crecimiento de estos medios de difusión, como la revista Ingenio Magno, para coadyuvar en la expansión de la investigación en el área de la ingeniería

    Inteligencia artificial explicable como principio ético

    Get PDF
    Context: The advancement of artificial intelligence (AI) has brought numerous benefits in various fields. However, it also poses ethical challenges that must be addressed. One of these is the lack of explainability in AI systems, i.e., the inability to understand how AI makes decisions or generates results. This raises questions about the transparency and accountability of these technologies. This lack of explainability hinders the understanding of how AI systems reach conclusions, which can lead to user distrust and affect the adoption of such technologies in critical sectors (e.g., medicine or justice). In addition, there are ethical dilemmas regarding responsibility and bias in AI algorithms. Method: Considering the above, there is a research gap related to studying the importance of explainable AI from an ethical point of view. The research question is what is the ethical impact of the lack of explainability in AI systems and how can it be addressed? The aim of this work is to understand the ethical implications of this issue and to propose methods for addressing it. Results: Our findings reveal that the lack of explainability in AI systems can have negative consequences in terms of trust and accountability. Users can become frustrated by not understanding how a certain decision is made, potentially leading to mistrust of the technology. In addition, the lack of explainability makes it difficult to identify and correct biases in AI algorithms, which can perpetuate injustices and discrimination. Conclusions: The main conclusion of this research is that AI must be ethically explainable in order to ensure transparency and accountability. It is necessary to develop tools and methodologies that allow understanding how AI systems work and how they make decisions. It is also important to foster multidisciplinary collaboration between experts in AI, ethics, and human rights to address this challenge comprehensively.Contexto: El avance de la inteligencia artificial (IA) ha traído numerosos beneficios en varios campos. Sin embargo, también plantea desafíos éticos que deben ser abordados. Uno de estos es la falta de explicabilidad en los sistemas de IA, i.e., la incapacidad de entender cómo la IA toma decisiones o genera resultados. Esto plantea preguntas sobre la transparencia y la responsabilidad de estas tecnologías. Esta falta de explicabilidad limita la comprensión de la manera en que los sistemas de IA llegan a ciertas conclusiones, lo que puede llevar a la desconfianza de los usuarios y afectar la adopción de tales tecnologías en sectores críticos (e.g., medicina o justicia). Además, existen dilemas éticos respecto a la responsabilidad y el sesgo en los algoritmos de IA. Método: Considerando lo anterior, existe una brecha de investigación relacionada con estudiar la importancia de la IA explicable desde un punto de vista ético. La pregunta de investigación es ¿cuál es el impacto ético de la falta de explicabilidad en los sistemas de IA y cómo puede abordarse? El objetivo de este trabajo es entender las implicaciones éticas de este problema y proponer métodos para abordarlo. Resultados: Nuestros hallazgos revelan que la falta de explicabilidad en los sistemas de IA puede tener consecuencias negativas en términos de confianza y responsabilidad. Los usuarios pueden frustrarse por no entender cómo se toma una decisión determinada, lo que puede llevarlos a desconfiar de la tecnología. Además, la falta de explicabilidad dificulta la identificación y la corrección de sesgos en los algoritmos de IA, lo que puede perpetuar injusticias y discriminación. Conclusiones: La principal conclusión de esta investigación es que la IA debe ser éticamente explicable para asegurar la transparencia y la responsabilidad. Es necesario desarrollar herramientas y metodologías que permitan entender cómo funcionan los sistemas de IA y cómo toman decisiones. También es importante fomentar la colaboración multidisciplinaria entre expertos en IA, ética y derechos humanos para abordar este desafío de manera integral

    Amazon Web Services: alternativa para el almacenamiento de información-Amazon Web Services: an alternative for storing information

    Get PDF
    Este artículo reseñó la computación en la nube y de algunos de sus servicios de almacenamiento en sistemas gestores de bases de datos relacionales y no relacionales ofrecidos por Amazon bajo el modelo de la infraestructura como servicio (IaaS ‘infrastructure as a service’). Se realiza una comparación entre los sistemas tradicionales de almacenamiento en las organizaciones y la infraestructura como servicio, para dar a conocer las ventajas y las desventajas de la adopción de nuevas tecnologías en el ámbito personal, organizacional y académico en cuanto al almacenamiento y procesamiento de la información. Además, se describen los diferentes servicios de bases de datos ofrecidos por Amazon Web Services, los cuales ofrecen el servicio de almacenamiento según las necesidades y las tecnologías que el usuario necesite

    La importancia del uso de identificadores en las publicaciones científicas

    Get PDF
    Con el pasar de los años, cada vez son más las personas que incursionan en el mundo de las publicaciones científicas, incrementando con ello el número de artículos que se difunden. Sin embargo, de la mano de este incremento, es más complejo el proceso de realizar trazabilidad de los trabajos de un autor, dado que existen muchos autores homónimos y se asocian artículos de diferentes autores a uno solo por tener el mismo nombre. Adicionalmente, por las diversas prácticas que siguen las revistas, que en algunos casos se aferran a prácticas de medios impresos, de abreviar los nombres, eliminar un apellido, entre otras, aspecto que perjudica a los autores, pues les presenta múltiples firmas de autor, llevando a confundirlos con personas que tengan nombres similares. Dicha situación es más crítica cuando se escala a nivel de instituciones reportadas por los autores en los artículos para su filiación actual, pues más allá de una mala práctica o de un error de la revista, la falla viene desde los mismos autores e incluso de la institución, dado que al no tener una firma unificada para reportar, existen quienes acorten el nombre, quienes solo usen las siglas e incluso quienes traduzcan el nombre de la entidad, haciendo complejo evaluar la productividad de las organizaciones, repercutiendo en sus resultados de impacto en diferentes índices o rankings. Como salida a esta problemática han surgido diferentes prácticas e iniciativas, que van desde la definición de una firma fija de autor hasta la propuesta de identificadores únicos a nivel internacional, a manera de una cédula de ciudadanía. Pese a que surgieron hace bastantes años, estos últimos han cobrado una mayor fuerza recientemente por permitir, mediante un número o una combinación de caracteres alfanuméricos, la identificación de un elemento a nivel universal. Es por lo anterior, y para poder hacer un adecuado seguimiento, que se debe propender en las diferentes publicaciones por el uso de estos identificadores para cada uno de los elementos que articulan la investigación, inicialmente está el ORCID (Open Researcher and Contributor ID, o Identificador Abierto de Investigador y Colaborador) para la identificación única de los investigadores, en segundo lugar se tiene el DOI (Digital Object Identifier, o Identificador de Objeto Digital) para persistir el rastreo de los artículos, y por último el ROR (Research Organization Registry, o Registro de Organizaciones de Investigación) para la identificación univoca de las instituciones

    Laboratorios de informática para mejorar el proceso de cumplimiento fiscal de Colombia

    Get PDF
    The paper proposes the use of a digital forensic laboratory to help solve the problem of tax evasion in Colombia that involves problems in covering the public obligations of the State, and leads people to have problems of consumption and savings that affect the economic dynamics, but beyond the normative implications it is observed that when implementing new technologies in the fiscal process to avoid or detect evasion, more efficient results are obtained. The computer process that helps cover tax evasion can be improved through digital analysis as reflected in the findings of evidence of the use of forensic laboratories.El artículo propone el uso de un laboratorio de informática forense regional para ayudar a solucionar el problema de evasión fiscal en Colombia, el cual supone problemas en cubrir las obligaciones públicas del Estado, y lleva a las personas a tener dificultades de consumo y ahorro que afectan la dinámica económica. Pero más allá de las implicaciones normativas, se observa que al implementar nuevas tecnologías en el proceso fiscal para evitar o detectar la evasión se tienen resultados más eficientes. El proceso informático que ayuda a cubrir la evasión fiscal puede mejorarse por medio del análisis de información digital, como lo reflejan los hallazgos de evidencia del uso de laboratorios forenses

    DeSoftIn: A methodological proposal for individual software development

    Get PDF
    Different Computer Engineering undergraduate programs over the world are demanding the students to present individual works and, particularly, to present a degree project, which in most cases is related to software development. However, when planning the projects, students find themselves with the problem of choosing a method to develop the software, since existent methods involve team work, but the degree project is supposed to be done individually, in order to evaluate the student’s acquired knowledge. This difficulty leads to projects that fail either to achieve the proposed objectives or to finish on the expected time, among other difficulties. This paper presents a methodological proposal for the development of individual software projects, mainly in academia, named "DeSoftIn", which will contribute to accomplish the project objectives, and will allow the students to approach development methodologies since the beginning of their studies

    Estudio comparativo entre bases de datos temporales y bases de datos relacionales aplicado a historias clínicas electrónicas

    Get PDF
    Choosing a database model when a system is developed is a decision that establishes the course of a project, and understanding the advantages and disadvantages of these models provides the starting point. This article reflects on the comparison between relational and temporary databases by evaluating their performance in a case study: the management of electronic medical records. The process starts by selecting desirable features and sub-features of the DBMS and the subsequent design of the case study and the choice of representative managers of each model. All of this having as purpose to provide a framework for future projects within the field of telemedicine, electronic medical records and mostly health systems involving temporary data storage.La elección de un paradigma de base de datos cuando se crea un sistema, es una decisión que establece el curso del proyecto, entender las ventajas y desventajas de estos paradigmas proporciona el punto de partida. Por lo anterior el trabajo reflexiona sobre la comparación entre las bases de datos relacionales y bases de datos temporales evaluando su desempeño en un caso práctico: Gestión de historias clínicas electrónicas. El proceso se inicia con la selección de características y sub-características deseables del DBMS, posteriormente el diseño del caso práctico, y una selección de los gestores que representan cada paradigma. Todo esto con el fin de proporcionar un marco para proyectos futuros que se encuentran dentro del área de Telemedicina, registros médicos electrónicos y los sistemas de salud en general que implique el almacenamiento de información temporal

    Toma de decisiones en el sector turismo mediante el uso de Sistemas de Información Geográfica e inteligencia de negocios

    Get PDF
    Currently, business intelligence is present in any process of data analysis, mainly due to the advantages that the moment of evaluation of market viability, inclusion of new products, and if any activity that requires knowing people's consumption habits has Within these activities, there is tourism, since, for this sector it is also important to be able to make decisions and focus on potentializing the regions according to the needs or interests of the people. In addition, by integrating business intelligence, aspects related to space, to determine proximity, or the displacement of people between regions, through the use of Geographic Information Systems (GIS) you can obtain a visual representation of the state of tourism in a region of interest and even evaluate the integration of the affected regions and offer planes together to have benefits and joint progress. In this sense, this article presents a systematic review of literature on the use of geographic information systems and business intelligence for decision-making supported in the tourism sector; for which articles published during the period 2015 to 2019 in the Scopus and IEEE databases will be analyzed. It was obtained as a result that during the last years (2015-2019) the trend in research related to the use of GIS in tourism has been increasing. It is concluded that thanks to technological advances, the use of, WebGIS, Open Source GIS, tourism business managers have built Tourist Resources Information systems.Actualmente, la inteligencia de negocios está presente en cualquier proceso de análisis de datos, principalmente, en casos en los que se evalúa la viabilidad de mercados, la inclusión de nuevos productos o la actividad que permite conocer los hábitos de consumo de las personas, lo cual muestra ventajas evidentes.  El sector turístico tiene como fin proyectar y potencializar a las regiones, según las necesidades o intereses de las personas, por lo que los modelos de inteligencia de negocios son de fundamental utilidad para cumplir con dicho objetivo. Adicionalmente, al integrar a la inteligencia de negocios, aspectos relacionados con el espacio para determinar la cercanía o el desplazamiento de las personas entre regiones, mediante el uso de Sistemas de Información Geográfica (SIG), se puede obtener una representación visual del estado del turismo en una región de interés e incluso evaluar la integración de regiones cercanas y ofrecer planes en conjunto para tener beneficios y progreso conjunto. Este artículo presenta una revisión sistemática de literatura sobre el uso de sistemas de información geográfica y de inteligencia de negocios para la toma de decisiones apoyadas en el sector turismo; para lo cual se analizaron artículos publicados durante 2015-2019 en las bases de datos Scopus e IEEE. Se obtuvo como resultado que durante dicho periodo la tendencia en investigaciones relacionadas con la temática de uso de los GIS en turismo ha sido creciente. Se concluye que gracias a los avances tecnológicos con el uso de las WebGIS y Open Source GIS, los gerentes de empresas turísticas han podido construir sistemas de Información de Recursos Turísticos

    Automation Tool for Institutional Repositories Evaluation

    Get PDF
    The rise of digital repositories has framed a significant advance in access to academic and scientific knowledge, increasing its impact due to greater reach and lower cost. However, these platforms are a new topic that initially did not have standards or models to carry out their implementation and operation, which is why there were inconsistencies between repositories on issues such as interoperability, digital preservation, among others. Due to the lack of standardization and the exponential increase in the number of repositories, different organizations and researchers made multiple proposals to standardize the processes and characteristics of these platforms. The proposals materialized in models, such as the Dublin Core and DataCite metadata schemes, and in guides for the evaluation and implementation of repositories, such as the "Guide for the evaluation of institutional research repositories" by RECOLECTA or the DINI certificate (Deutsche Initiative für Netzwerk Information). The latter aim to evaluate the platforms in their entirety, including 8 sections with a total of 87 elements. Therefore, in this research an application was developed to automate the evaluation of repositories, automating processes that improve educational work using computer tools and their integration

    Application of Unsupervised Learning in the Early Detection of Late Blight in Potato Crops Using Image Processing

    Get PDF
    Introduction. Automatic detection can be useful in the search of large crop fields by simply detecting the disease with the symptoms appearing on the leaf. Objective: This paper presents the application of machine learning techniques aimed at detecting late blight disease using unsupervised learning methods such as K-Means and hierarchical clustering. Method: The methodology used is composed by the following phases: acquisition of the dataset, image processing, feature extraction, feature selection, implementation of the learning model, performance measurement of the algorithm, finally a 68.24% hit rate was obtained being this the best result of the unsupervised learning algorithms implemented, using 3 clusters for clustering. Results: According to the results obtained, the performance of the K-Means algorithm can be evaluated, i.e. 202 hits and 116 misses. Conclusions: Unsupervised learning algorithms are very efficient when processing a large amount of data, in this case a large amount of images without the need for predefined labels, its use to solve local problems such as late blight affectations in potato crops are novel,Introducción. La detección automática puede ser útil en la búsqueda de grandes campos de cultivo simplemente detectando la enfermedad con los síntomas que aparecen en la hoja. Objetivo: este artículo presenta la aplicación de técnicas de aprendizaje automático destinadas a detectar la enfermedad del tizón tardío utilizando métodos de aprendizaje no supervisados ​​como K-Means y agrupamiento jerárquico. Método: La metodología utilizada está compuesta por las siguientes fases: adquisición del dataset, procesamiento de la imagen, extracción de características, selección de características, implementación del modelo de aprendizaje, medición del rendimiento del algoritmo, finalmente se obtuvo una tasa de acierto del 68,24% siendo este el mejor resultado de los algoritmos de aprendizaje no supervisados ​​implementados, usando 3 clusters para el agrupamiento. Resultados: De acuerdo con los resultados obtenidos, se puede evaluar el desempeño del algoritmo K-Means, es decir, 202 aciertos y 116 errores. Conclusiones: Los algoritmos de aprendizaje no supervisado son muy eficientes al momento de procesar una gran cantidad de datos, en este caso una gran cantidad de imágenes sin necesidad de etiquetas predefinidas, su uso para solucionar problemas locales como afectaciones de tizón tardío en cultivos de papa es novedoso
    corecore