121 research outputs found

    Sistema de procesos técnicos para el Laboratorio de Metrología - variables electromédicas - de la Universidad Tecnológica de Pereira

    Get PDF
    Como uno de los resultados del proyecto de investigación "EVALUACION DE SISTEMAS DE SALUD EN LO REFERENTE A SU CAPACIDAD TECNOLOGICA RELACIONADA CON LA TRAZABILIDAD DEL EQUIPO BIOMEDICO Y SU SEGURIDAD ELECTRICA" desarrollado por el Grupo de Electrofisiología de la Universidad Tecnológica de Pereira (reconocido por Colciencias en categoría A) y co-financiado por COLCIENCIAS, entidad gubernamental dirigida a crear condiciones favorables para la generación de conocimiento científico y tecnológico nacional, se implementó el laboratorio para la calibración de equipo electromédico, el cual en estos momentos presta servicios en estas áreas, enmarcado dentro de los requisitos especificados en la norma internacional NTC - ISO - IEC - 17025. El laboratorio se encuentra en proceso de acreditación, constituyéndose esta situación en un factor de alta relevancia que obliga a que todos sus procedimientos se lleven a cabo de una manera sistemática, segura, confiable y con altos índices de calidad. Es aquí donde el presente proyecto se consolida como un aporte fundamental para lograr los propósitos planteados consistes en integrar el proceso de calibración, con el manejo de la información y la generación de reportes, mediante una aplicación de gestión operativa y gestión de calidad, así como el control de documentos y registros del propio laboratorio basados en la norma ISO 9001:2000. De igual forma la aplicación desarrollada con este proyecto, ofrece la posibilidad de ejecutarse en un ambiente web, apropiándose de todas las bondades y ventajas que dicha tecnología puede ofrecer. En este proyecto se presentan detalladamente diferentes elementos involucrados en el proceso de construcción de un producto software para el Laboratorio de Metrología Electromédica de la Universidad Tecnológica de Pereira, el cual obedece totalmente a las normas y derroteros planteados por la norma NTC - ISO - IEC - 17025

    Investigación y desarrollo de una aplicación basada en software para la ubicación en un área geográfica de teléfonos móviles utilizando servicios básicos de localización LBS

    Get PDF
    Este trabajo presenta como resultado final un prototipo de solución implementada de un servicio basado en localización por el método de identificación del Cell ID el cual permite ubicar a uno o varios suscriptores de telefonía celular en un mapa en un área determinada. Tal servicio ha sido montado en un sistema basado en web desarrollado por los autores. En este documento se plasman todos los pasos seguidos para la consecución de los objetivos planteados al inicio del proceso de investigación, se muestran los aspectos teóricos que refuerzan la comprensión de tecnologías utilizadas en cuanto a la arquitectura y funcionamiento de la redes celulares GSM (Global System Mobile) y UMTS (Universal Mobile Terrestial System), lenguajes de programación, diseño y gestión de bases de datos, sistemas operativos y otros que han sido parte del proceso que se ha realizado. Se encontrarán las hipótesis planteadas, los objetivos generales y específicos, la metodología y otros más. El método científico ha sido la base de la investigación con la peculiaridad que ésta ha sido netamente técnica orientada al campo de la Ingeniería en Telecomunicaciones con ciertos rasgos del amplio mundo de las Tecnologías de la Información. Es necesario aclarar que esta tesis no se debe utilizar como un libro texto, ya que los tópicos incluidos en la sección teórica no profundizan en ninguno de sus temas, pero si establecen un base académica-cognitiva esencial para la comprensión de la terminología y los conceptos incluidos en el documento con la cual el lector puede tener una visión clara para comprender el contenido de cada capítulo. Necesariamente se requiere un nivel de Ingeniería en Telecomunicaciones para gozar una lectura práctica y comprensiva. La experiencia en dicha área también sería maravillosa de manera que escudriñar cada apartado sea en algunos casos como leer un manual de una plataforma, equipo o servicio o inclusive un proceso de evaluación de una propuesta tecnológica, de una revista técnica en el cual no hay mayores explicaciones del contexto teórico pero si se cuenta con referencias para ampliar en caso necesario. Se cuenta además con una sección de anexos donde se encontrará con un conjunto de acrónimos y términos técnicos seleccionados específicamente para referencia en este trabaj

    PEF: Python Error Finder

    Get PDF
    Tesis (Lic. en Cs. de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía y Física, 2014.La verificación del correcto funcionamiento de los sistemas es uno de los aspectos más importante del desarrollo de software, y a su vez, uno de los más costosos de llevar a cabo. El testing tradicional y la verificación de modelos requiere mucho esfuerzo para lograr una buena cobertura de las posibles ejecuciones. En este trabajo, utilizamos y extendemos una técnica que combina ejecución simbólica, el poder de los razonadores recientes y la versatilidad de lenguajes puramente orientados a objetos, para crear una librería que explora y describe los caminos de un programa, detectando errores de manera automática y facilitando posteriormente, la generación de tests. Presentaremos a PEF, una herramienta novedosa que hace uso de la técnica mencionada para detectar errores en programas escritos en Python 3 con muy poco esfuerzo por parte del usuario. Mostraremos la arquitectura del motor de ejecución simbólica y los aspectos fundamentales del lenguaje necesarios para construir el motor en forma de librería, sin tener que re-implementar el intérprete, como es usual en proyectos similares. También explicaremos el sistema de contratos que incorporamos para indicar pre y post condiciones que se desean aplicar y validar en los programas a ser explorados por PEF

    Análisis, diseño e implementación de un sistema de información aplicado a la gestión educativa en centros de educación especial

    Get PDF
    Este proyecto consiste en el análisis, diseño e implementación de un sistema de información de apoyo a la gestión educativa en centros de educación especial. El propósito de esta plataforma es posibilitar la administración y atención de los planes curriculares funcionales (en adelante programas educativos) y terapéuticos para personas con necesidades especiales, así como consolidar el conocimiento de trastornos y promover la participación y evaluación continua entre padres y especialistas. La administración del proyecto adoptó las prácticas establecidas por el Project Management Institute. No obstante fueron recogidos un número específico de procesos de gestión según el alcance de la solución. Como metodología de desarrollo de software fue seleccionada la metodología Agile Unified Process (AUP) por su mayor afinidad y claridad de actividades en las etapas de diseño y construcción de este producto. Durante la concepción de la arquitectura se evaluaron múltiples patrones de arquitectura Web como MVC, MVP y N–capas resultando finalmente una estructura de cuatro capas con funciones específicas e independientes entre sí: manteniendo las capas de Presentación y Acceso a Datos separadas. Así como la capa de Lógica de negocio fue subdividida para la seguridad y navegabilidad entre las páginas (capa de Aplicación) como para conservación de las reglas de negocio (capa Lógica). La implementación fue llevada a cabo mediante el IDE Microsoft Visual Web Developer 2010 Express y el lenguaje de programación C# soportado bajo .NET Framework 4.0. Para la construcción de las páginas (capa de Presentación) se trabajó con ASP.NET Webforms y controles dinámicos de la librería Ajax Control Toolkit. La capa de Acceso a Datos fue construida bajo la tecnología Microsoft ADO.NET Entity Framework y en conexión con una base de datos PostgreSQL. Para la etapa de pruebas el servidor Web seleccionado fue Internet Information Services (IIS) Express 7.5 una réplica del servidor IIS 7.5 estándar diseñada para ambientes de desarrollo y sin restricciones de uso.Tesi

    Aplicación de técnicas de aprendizaje automático para la extracción de información en textos farmacológicos

    Get PDF
    En la actualidad los profesionales del dominio biomédico necesitan tener información actualizada de su campo para llevar a cabo su trabajo de manera fiable y profesional. Dentro del dominio biomédico, la administración de fármacos requiere saber de antemano si dos fármacos interaccionan entre sí, ya que esta interacción puede provocar efectos no deseados en la salud del paciente. Los profesionales cuentan con ingentes cantidades de información, ya sea en textos biomédicos no estructurados o en bases de datos; es por esto que se necesita un método automático para extraer información de estas fuentes de datos para poder detectar interacciones entre fármacos. En este proyecto se van a estudiar distintas técnicas de aprendizaje automático supervisado para detectar posibles interacciones entre dos fármacos. Partiendo del corpus DrugDDI, creado en la tesis Application of Information Extraction techniques to pharmacological domain: Extracting drug-drug interactions, se van a aplicar diferentes algoritmos para su posterior estudio y comparación con los resultados obtenidos en dicha tesis. ____________________________________________________________________________________________________________________________In the biomedical domain, interaction between two or more drugs is a desired knowing in drugs administration, as that interaction can provoke undesirable effects over a patient health. Medical professional have access to huge amounts of data, whether they are in biomedical unstructured texts or in databases. For this reason it is desirable an automatic method to extract useful information from this data sources for processing and detecting drugs interactions. In this project we are going to introduce some supervised machine learning techniques in order to detect possible interactions between two drugs. Based on the DrugDDI corpus, gathered in the thesis Application of Information Extraction techniques to pharmacological domain: Extracting drug-drug interactions, we are going to apply different algorithms for its later research and comparison with the results obtained in the thesis.Ingeniería Técnica en Informática de Gestió

    Software Desktop que Optimiza la Vigilancia Sanitaria de Parámetros de Calidad de Agua para Consumo Humano

    Get PDF
    La presente tesis titulado: “Software desktop que optimiza la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica”, debe responder al siguiente problema general: “¿De qué manera influye la implementación de un software desktop en la optimización de la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica“, el objetivo general: “Implementar el software desktop para optimizar la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica” y la hipótesis general que debe verificarse es: ”La implementación del software desktop influye positivamente en la optimización de la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica”. El Método de investigación utilizado es Método Inductivo - Deductivo, el método específico: Metodología RUP, el tipo de investigación: aplicada, de nivel explicativo, y con un diseño pre experimental, la población de la investigación consiste en 500 formatos, el tipo de muestreo es no aleatorio o definido para la muestrea de 217 formatos. La conclusión principal de esta investigación es que con el software desktop se optimiza la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región Huancavelica, habiendo comprobado que las hipótesis planteadas son aceptadas con un 95 % de confiabilidad.Tesi

    Uso de dispositivos GPS e IMU para analizar la performance de deportistas de alto rendimiento

    Get PDF
    Dado la constante evolución de las tecnologías IoT y la aplicación de éstas en el competitivo estudio del mundo del deporte, se presenta en esta tesina el diseño y desarrollo de un sistema de monitoreo en tiempo real en el que se visualizan ciertas métricas logradas tras el procesamiento de los datos obtenidos por parte del dispositivo diseñado para el trabajo. Se detallan los filtros y cálculos matemáticos sobre los datos, el protocolo de comunicación utilizado entre el dispositivo y el ente receptor, la tecnología de almacenamiento utilizada y el software de monitoreo en cuestión. A su vez, se realiza una breve comparación con uno de los dispositivos de análisis de deportistas más ampliamente usado en la actualidad por equipos profesionales de distintas disciplinas, el Catapult Playertek. En este trabajo se integró una placa de desarrollo con un GPS y un IMU. Se procesaron los datos de los sensores en distintos flujos del trabajo para obtener métricas como velocidad actual, velocidad máxima, velocidad promedio, aceleración, distancia recorrida, trackeo de localización, cantidad de sprints y duración total en sprint. Se comparó el rendimiento de filtros matemáticos para la fusión de los datos. Se realizó la conexión entre los dispositivos y un Broker MQTT. Se creó un script Python que procesa, formatea y almacena los datos en una TSDB. Se configuraron dashboards y paneles para visualizar las métricas. Se configuró una RPi 4 que actúa como nodo middleware y ejecuta las partes que conforman el sistema. Por último, se realizó una sesión de entrenamiento como caso de prueba para demostrar el funcionamiento integral del trabajo en detalle.Facultad de Informátic

    Testing de performance en sistemas críticos: una nueva metodología y aplicaciones

    Get PDF
    El nuevo mundo es digital y crece a un ritmo sin precedentes. Se estima que hasta 2003 la humanidad había creado y almacenado digitalmente una cantidad de información equivalente a la que hoy se genera a diario. En la actualidad la mayoría de los procesos masivos, así como los datos y contenidos tanto públicos como personales, están informáticamente soportados. Por su creciente importancia y transversalidad a todos los sectores, los sistemas se han constituido en uno de los activos más críticos para las organizaciones. Buscando elevar la confiabilidad de esos sistemas, se recurre a diversas combinaciones de múltiples prácticas como ser: alta disponibilidad y performance de los componentes de los sistemas, procesos de desarrollo estandarizados y depurados en el tiempo, y el “testing de software”, entre otros. El testing en particular busca una validación independiente sobre los requerimientos que un componente o sistema debe cumplir, y tiene múltiples variantes. En lo que hace al tipo de requerimiento destacamos: funcionales (si el resultado de las acciones es el esperado), performance (si soporta el nivel de carga o el volumen de datos necesario) y seguridad (capacidad para resistir fallas, o ataques intencionales). El objeto de esta tesis es introducir una metodología que sirva como marco de trabajo para realizar “pruebas de performance”, y presentar además tres aplicaciones reales complementarias donde se constate su efectividad. El “testing de performance” es un área de vanguardia, de alta complejidad, que requiere entre otras cosas el costoso desarrollo de una plataforma para interactuar con el sistema a probar. Es usual entonces que a la hora de priorizar pruebas, las organizaciones se inclinen hacia los aspectos funcionales, o incluso los de seguridad, en muchos de los cuales se puede avanzar sin enfrentarse a grandes dificultades tecnológicas. Esto es razonable para una pequeña empresa o para una aplicación con pocos usuarios o datos a manejar, pero es inaceptable en las grandes organizaciones, que son precisamente las que más dependen de la informática. Durante este trabajo no sólo veremos cómo aplicar la metodología a aplicaciones de distintos contextos tecnológicos, veremos además cómo los resultados de esas pruebas ayudan a optimizar el desempeño de los sistemas con mínimos ajustes en los componentes. Los casos son entonces evidencia de que incluso los sistemas soportados sobre componentes de hardware y software de tipo world-class, pueden no cumplir las condiciones mínimas para entrar en producción aún cuando hayan pasado por un proceso de validación funcional, y muestran también que la solución no necesariamente viene acompañada de inversiones en infraestructura. La metodología aquí presentada fue co-desarrollada por el autor como miembro del Centro de Ensayos de Software (CES), a partir de las mejores prácticas existentes combinadas y ajustadas a la luz de la experiencia acumulada durante más diez de años en aplicaciones reales. Se elabora en actividades agrupadas en etapas, cuyo fin se resume en: identificar las transacciones representativas del uso esperado del sistema y los monitores para cuantificar su desempeño; la implementación de esas transacciones en un framework que permita automatizar la ejecución simultánea de combinaciones de múltiples instancias; la ejecución de varios ciclos de pruebas en los que se identifican los problemas a partir del análisis de los datos disponibles, se busca un diagnóstico y se repiten las pruebas explorando soluciones junto a los expertos del sistema. Durante los últimos diez años, distintas versiones de esta metodología han sido usadas en más de 20 organizaciones, algunas de las cuales atienden a más de 3000 usuarios, y ajustes de configuración mediante han permitido mejoras en los tiempos de respuesta del sistema de hasta 1000%. Entendemos que los resultados son alentadores y confiamos que se potenciarán por el creciente uso de sistemas distribuidos complejos, particularmente en la forma del denominado “cloud-computing”

    Optimización de la cobertura y la capacidad en redes LTE mediante procesado de eventos complejos

    Get PDF
    A diferencia de propuestas anteriores, el algoritmo propuesto utiliza como entrada tres nuevos indicadores que reflejan los problemas de cobertura, sobreapuntamiento y solapamiento entre celdas, a partir de medidas extraídas de las trazas de conexión. Como alternativa al ajuste de inclinación de antenas, se propone un algoritmo de optimización automática de la potencia máxima de transmisión de las estaciones base de una red LTE. El objetivo del algoritmo es mejorar la eficiencia espectral global del sistema en el enlace descendente mediante la reducción de la potencia de transmisión de celdas que generen problemas de interferencia. Como novedad, el algoritmo propuesto se basa en un nuevo indicador que predice el impacto causado por el cambio de la potencia de transmisión de cada celda en la calidad de señal global de la red en el enlace descendente. Todos los métodos desarrollados en esta Tesis se conciben para ser integrados en una herramienta de optimización comercial centralizada en el sistema de gestión de red. Para formular el problema, se analizan estadísticas de rendimiento y trazas de conexión tomadas de redes reales. En su desarrollo, se consideran las restricciones impuestas por el operador y el fabricante, prestando especial atención a la eficiencia computacional de los algoritmos de resolución. Como prueba de concepto, se realizan pruebas de campo en un escenario real donde las estaciones base incorporan mecanismos para la inclinación remota de antenas (Remote Electrical Tilt, RET). Finalmente, para estimar el beneficio potencial, los algoritmos se validan en un simulador de nivel de sistema que implementa escenarios ajustados con estadísticas de una red real LTE.El aumento del tamaño y la complejidad de las actuales redes de comunicaciones móviles dificulta enormemente las tareas de gestión de red. Para afrontar este problema, los operadores demandan herramientas automáticas capaces de recopilar y procesar las medidas de red con una mínima intervención humana. Con tales herramientas, es posible aprovechar la información proporcionada por los eventos de señalización, que hoy en día se descarta, para determinar la configuración óptima de la red. En esta Tesis se proponen diversos algoritmos de optimización automática de parámetros de una red de acceso radio Long Term Evolution (LTE), cuya principal novedad es la utilización de indicadores obtenidos a partir de trazas de conexión de la interfaz radio. Como punto de partida, se describe una metodología genérica para construir indicadores de rendimiento de red mediante el procesado de eventos complejos (Complex Event Processing, CEP). El objetivo de esta metodología es mostrar la posibilidad de crear nuevos indicadores de rendimiento, distintos de los proporcionados por los fabricantes, para obtener información más detallada del funcionamiento de la red a partir de las trazas de conexión. A continuación, se presenta un análisis de diversos indicadores de capacidad utilizados por los operadores, basado en datos extraídos de una red LTE real. Este análisis preliminar permite entender cómo difieren los distintos indicadores de capacidad y confirma la correlación de estos indicadores con los indicadores de calidad de señal. Posteriormente, se propone un algoritmo de ajuste automático del ángulo de inclinación de las antenas para la optimización de la cobertura y la capacidad de una red LTE. El objetivo del algoritmo es maximizar el área de cobertura y mejorar la eficiencia espectral global de la red, eliminando situaciones de sobreapuntamiento (overshooting) o excesivo solapamiento entre celdas vecinas
    corecore