121 research outputs found
Sistema de procesos técnicos para el Laboratorio de Metrología - variables electromédicas - de la Universidad Tecnológica de Pereira
Como uno de los resultados del proyecto de investigación "EVALUACION DE SISTEMAS DE SALUD EN LO REFERENTE A SU CAPACIDAD TECNOLOGICA RELACIONADA CON LA TRAZABILIDAD DEL EQUIPO BIOMEDICO Y SU SEGURIDAD ELECTRICA" desarrollado por el Grupo de Electrofisiología de la Universidad Tecnológica de Pereira (reconocido por Colciencias en categoría A) y co-financiado por COLCIENCIAS, entidad gubernamental dirigida a crear condiciones favorables para la generación de conocimiento científico y tecnológico nacional, se implementó el laboratorio para la calibración de equipo electromédico, el cual en estos momentos presta servicios en estas áreas, enmarcado dentro de los requisitos especificados en la norma internacional NTC - ISO - IEC - 17025.
El laboratorio se encuentra en proceso de acreditación, constituyéndose esta situación en un factor de alta relevancia que obliga a que todos sus procedimientos se lleven a cabo de una manera sistemática, segura, confiable y con altos índices de calidad. Es aquí donde el presente proyecto se consolida como un aporte fundamental para lograr los propósitos planteados consistes en integrar el proceso de calibración, con el manejo de la información y la generación de reportes, mediante una aplicación de gestión operativa y gestión de calidad, así como el control de documentos y registros del propio laboratorio basados en la norma ISO 9001:2000. De igual forma la aplicación desarrollada con este proyecto, ofrece la posibilidad de ejecutarse en un ambiente web, apropiándose de todas las bondades y ventajas que dicha tecnología puede ofrecer.
En este proyecto se presentan detalladamente diferentes elementos involucrados en el proceso de construcción de un producto software para el Laboratorio de Metrología Electromédica de la Universidad Tecnológica de Pereira, el cual obedece totalmente a las normas y derroteros planteados por la norma NTC - ISO - IEC - 17025
Investigación y desarrollo de una aplicación basada en software para la ubicación en un área geográfica de teléfonos móviles utilizando servicios básicos de localización LBS
Este trabajo presenta como resultado final un prototipo de solución implementada de un servicio basado en localización por el método de identificación del Cell ID el cual permite ubicar a uno o varios suscriptores de telefonía celular en un mapa en un área determinada. Tal servicio ha sido montado en un sistema basado en web desarrollado por los autores. En este documento se plasman todos los pasos seguidos para la consecución de los objetivos planteados al inicio del proceso de investigación, se muestran los aspectos teóricos que refuerzan la comprensión de tecnologías utilizadas en cuanto a la arquitectura y funcionamiento de la redes celulares GSM (Global System Mobile) y UMTS (Universal Mobile Terrestial System), lenguajes de programación, diseño y gestión de bases de datos, sistemas operativos y otros que han sido parte del proceso que se ha realizado. Se encontrarán las hipótesis planteadas, los objetivos generales y específicos, la metodología y otros más. El método científico ha sido la base de la investigación con la peculiaridad que ésta ha sido netamente técnica orientada al campo de la Ingeniería en Telecomunicaciones con ciertos rasgos del amplio mundo de las Tecnologías de la Información. Es necesario aclarar que esta tesis no se debe utilizar como un libro texto, ya que los tópicos incluidos en la sección teórica no profundizan en ninguno de sus temas, pero si establecen un base académica-cognitiva esencial para la comprensión de la terminología y los conceptos incluidos en el documento con la cual el lector puede tener una visión clara para comprender el contenido de cada capítulo. Necesariamente se requiere un nivel de Ingeniería en Telecomunicaciones para gozar una lectura práctica y comprensiva. La experiencia en dicha área también sería maravillosa de manera que escudriñar cada apartado sea en algunos casos como leer un manual de una plataforma, equipo o servicio o inclusive un proceso de evaluación de una propuesta tecnológica, de una revista técnica en el cual no hay mayores explicaciones del contexto teórico pero si se cuenta con referencias para ampliar en caso necesario. Se cuenta además con una sección de anexos donde se encontrará con un conjunto de acrónimos y términos técnicos seleccionados específicamente para referencia en este trabaj
PEF: Python Error Finder
Tesis (Lic. en Cs. de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía y Física, 2014.La verificación del correcto funcionamiento de los sistemas es uno de los aspectos más importante
del desarrollo de software, y a su vez, uno de los más costosos de llevar a cabo. El testing tradicional
y la verificación de modelos requiere mucho esfuerzo para lograr una buena cobertura de las posibles
ejecuciones. En este trabajo, utilizamos y extendemos una técnica que combina ejecución simbólica,
el poder de los razonadores recientes y la versatilidad de lenguajes puramente orientados a objetos,
para crear una librería que explora y describe los caminos de un programa, detectando errores de
manera automática y facilitando posteriormente, la generación de tests.
Presentaremos a PEF, una herramienta novedosa que hace uso de la técnica mencionada para
detectar errores en programas escritos en Python 3 con muy poco esfuerzo por parte del usuario.
Mostraremos la arquitectura del motor de ejecución simbólica y los aspectos fundamentales del
lenguaje necesarios para construir el motor en forma de librería, sin tener que re-implementar el
intérprete, como es usual en proyectos similares. También explicaremos el sistema de contratos que
incorporamos para indicar pre y post condiciones que se desean aplicar y validar en los programas
a ser explorados por PEF
Análisis, diseño e implementación de un sistema de información aplicado a la gestión educativa en centros de educación especial
Este proyecto consiste en el análisis, diseño e implementación de un sistema de
información de apoyo a la gestión educativa en centros de educación especial. El
propósito de esta plataforma es posibilitar la administración y atención de los planes
curriculares funcionales (en adelante programas educativos) y terapéuticos para
personas con necesidades especiales, así como consolidar el conocimiento de
trastornos y promover la participación y evaluación continua entre padres y
especialistas.
La administración del proyecto adoptó las prácticas establecidas por el Project
Management Institute. No obstante fueron recogidos un número específico de
procesos de gestión según el alcance de la solución. Como metodología de
desarrollo de software fue seleccionada la metodología Agile Unified Process (AUP)
por su mayor afinidad y claridad de actividades en las etapas de diseño y
construcción de este producto.
Durante la concepción de la arquitectura se evaluaron múltiples patrones de
arquitectura Web como MVC, MVP y N–capas resultando finalmente una estructura
de cuatro capas con funciones específicas e independientes entre sí: manteniendo
las capas de Presentación y Acceso a Datos separadas. Así como la capa de
Lógica de negocio fue subdividida para la seguridad y navegabilidad entre las
páginas (capa de Aplicación) como para conservación de las reglas de negocio
(capa Lógica).
La implementación fue llevada a cabo mediante el IDE Microsoft Visual Web
Developer 2010 Express y el lenguaje de programación C# soportado bajo .NET
Framework 4.0. Para la construcción de las páginas (capa de Presentación) se
trabajó con ASP.NET Webforms y controles dinámicos de la librería Ajax Control
Toolkit. La capa de Acceso a Datos fue construida bajo la tecnología Microsoft
ADO.NET Entity Framework y en conexión con una base de datos PostgreSQL.
Para la etapa de pruebas el servidor Web seleccionado fue Internet Information
Services (IIS) Express 7.5 una réplica del servidor IIS 7.5 estándar diseñada para
ambientes de desarrollo y sin restricciones de uso.Tesi
Aplicación de técnicas de aprendizaje automático para la extracción de información en textos farmacológicos
En la actualidad los profesionales del dominio biomédico necesitan tener información actualizada de su campo para llevar a cabo su trabajo de manera fiable y profesional. Dentro del dominio biomédico, la administración de fármacos requiere saber de antemano si dos fármacos interaccionan entre sí, ya que esta interacción puede provocar efectos no deseados en la salud del paciente. Los profesionales cuentan con ingentes cantidades de información, ya sea en textos biomédicos no estructurados o en bases de datos; es por esto que se necesita un método automático para extraer información de estas fuentes de datos para poder detectar interacciones entre fármacos. En este proyecto se van a estudiar distintas técnicas de aprendizaje automático supervisado para detectar posibles interacciones entre dos fármacos. Partiendo del corpus DrugDDI, creado en la tesis Application of Information Extraction techniques to pharmacological domain: Extracting drug-drug interactions, se van a aplicar diferentes algoritmos para su posterior estudio y comparación con los resultados obtenidos en dicha tesis. ____________________________________________________________________________________________________________________________In the biomedical domain, interaction between two or more drugs is a desired
knowing in drugs administration, as that interaction can provoke undesirable effects
over a patient health. Medical professional have access to huge amounts of data,
whether they are in biomedical unstructured texts or in databases. For this reason it is
desirable an automatic method to extract useful information from this data sources for
processing and detecting drugs interactions.
In this project we are going to introduce some supervised machine learning
techniques in order to detect possible interactions between two drugs. Based on the
DrugDDI corpus, gathered in the thesis Application of Information Extraction
techniques to pharmacological domain: Extracting drug-drug interactions, we are
going to apply different algorithms for its later research and comparison with the
results obtained in the thesis.Ingeniería Técnica en Informática de Gestió
Software Desktop que Optimiza la Vigilancia Sanitaria de Parámetros de Calidad de Agua para Consumo Humano
La presente tesis titulado: “Software desktop que optimiza la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica”, debe responder al siguiente problema general: “¿De qué manera influye la implementación de un software desktop en la optimización de la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica“, el objetivo general: “Implementar el software desktop para optimizar la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica” y la hipótesis general que debe verificarse es: ”La implementación del software desktop influye positivamente en la optimización de la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región de Huancavelica”.
El Método de investigación utilizado es Método Inductivo - Deductivo, el método específico: Metodología RUP, el tipo de investigación: aplicada, de nivel explicativo, y con un diseño pre experimental, la población de la investigación consiste en 500 formatos, el tipo de muestreo es no aleatorio o definido para la muestrea de 217 formatos.
La conclusión principal de esta investigación es que con el software desktop se optimiza la vigilancia sanitaria de parámetros de calidad de agua para consumo humano de la región Huancavelica, habiendo comprobado que las hipótesis planteadas son aceptadas con un 95 % de confiabilidad.Tesi
Uso de dispositivos GPS e IMU para analizar la performance de deportistas de alto rendimiento
Dado la constante evolución de las tecnologías IoT y la aplicación de éstas en el competitivo estudio del mundo del deporte, se presenta en esta tesina el diseño y desarrollo de un sistema de monitoreo en tiempo real en el que se visualizan ciertas métricas logradas tras el procesamiento de los datos obtenidos por parte del dispositivo diseñado para el trabajo. Se detallan los filtros y cálculos matemáticos sobre los datos, el protocolo de comunicación utilizado entre el dispositivo y el ente receptor, la tecnología de almacenamiento utilizada y el software de monitoreo en cuestión. A su vez, se realiza una breve comparación con uno de los dispositivos de análisis de deportistas más ampliamente usado en la actualidad por equipos profesionales de distintas disciplinas, el Catapult Playertek.
En este trabajo se integró una placa de desarrollo con un GPS y un IMU. Se procesaron los datos de los sensores en distintos flujos del trabajo para obtener métricas como velocidad actual, velocidad máxima, velocidad promedio, aceleración, distancia recorrida, trackeo de localización, cantidad de sprints y duración total en sprint. Se comparó el rendimiento de filtros matemáticos para la fusión de los datos. Se realizó la conexión entre los dispositivos y un Broker MQTT. Se creó un script Python que procesa, formatea y almacena los datos en una TSDB. Se configuraron dashboards y paneles para visualizar las métricas. Se configuró una RPi 4 que actúa como nodo middleware y ejecuta las partes que conforman el sistema. Por último, se realizó una sesión de entrenamiento como caso de prueba para demostrar el funcionamiento integral del trabajo en detalle.Facultad de Informátic
Testing de performance en sistemas críticos: una nueva metodología y aplicaciones
El nuevo mundo es digital y crece a un ritmo sin precedentes. Se estima que hasta 2003 la
humanidad había creado y almacenado digitalmente una cantidad de información equivalente
a la que hoy se genera a diario. En la actualidad la mayoría de los procesos masivos, así como
los datos y contenidos tanto públicos como personales, están informáticamente soportados.
Por su creciente importancia y transversalidad a todos los sectores, los sistemas se han
constituido en uno de los activos más críticos para las organizaciones. Buscando elevar la
confiabilidad de esos sistemas, se recurre a diversas combinaciones de múltiples prácticas
como ser: alta disponibilidad y performance de los componentes de los sistemas, procesos de
desarrollo estandarizados y depurados en el tiempo, y el “testing de software”, entre otros. El
testing en particular busca una validación independiente sobre los requerimientos que un
componente o sistema debe cumplir, y tiene múltiples variantes. En lo que hace al tipo de
requerimiento destacamos: funcionales (si el resultado de las acciones es el esperado),
performance (si soporta el nivel de carga o el volumen de datos necesario) y seguridad
(capacidad para resistir fallas, o ataques intencionales). El objeto de esta tesis es introducir una
metodología que sirva como marco de trabajo para realizar “pruebas de performance”, y
presentar además tres aplicaciones reales complementarias donde se constate su efectividad.
El “testing de performance” es un área de vanguardia, de alta complejidad, que requiere entre
otras cosas el costoso desarrollo de una plataforma para interactuar con el sistema a probar.
Es usual entonces que a la hora de priorizar pruebas, las organizaciones se inclinen hacia los
aspectos funcionales, o incluso los de seguridad, en muchos de los cuales se puede avanzar sin
enfrentarse a grandes dificultades tecnológicas. Esto es razonable para una pequeña empresa
o para una aplicación con pocos usuarios o datos a manejar, pero es inaceptable en las grandes
organizaciones, que son precisamente las que más dependen de la informática. Durante este
trabajo no sólo veremos cómo aplicar la metodología a aplicaciones de distintos contextos
tecnológicos, veremos además cómo los resultados de esas pruebas ayudan a optimizar el
desempeño de los sistemas con mínimos ajustes en los componentes. Los casos son entonces
evidencia de que incluso los sistemas soportados sobre componentes de hardware y software
de tipo world-class, pueden no cumplir las condiciones mínimas para entrar en producción aún
cuando hayan pasado por un proceso de validación funcional, y muestran también que la
solución no necesariamente viene acompañada de inversiones en infraestructura.
La metodología aquí presentada fue co-desarrollada por el autor como miembro del Centro de
Ensayos de Software (CES), a partir de las mejores prácticas existentes combinadas y ajustadas
a la luz de la experiencia acumulada durante más diez de años en aplicaciones reales. Se
elabora en actividades agrupadas en etapas, cuyo fin se resume en: identificar las
transacciones representativas del uso esperado del sistema y los monitores para cuantificar su
desempeño; la implementación de esas transacciones en un framework que permita
automatizar la ejecución simultánea de combinaciones de múltiples instancias; la ejecución de
varios ciclos de pruebas en los que se identifican los problemas a partir del análisis de los datos
disponibles, se busca un diagnóstico y se repiten las pruebas explorando soluciones junto a los
expertos del sistema. Durante los últimos diez años, distintas versiones de esta metodología
han sido usadas en más de 20 organizaciones, algunas de las cuales atienden a más de 3000
usuarios, y ajustes de configuración mediante han permitido mejoras en los tiempos de
respuesta del sistema de hasta 1000%. Entendemos que los resultados son alentadores y
confiamos que se potenciarán por el creciente uso de sistemas distribuidos complejos,
particularmente en la forma del denominado “cloud-computing”
Optimización de la cobertura y la capacidad en redes LTE mediante procesado de eventos complejos
A diferencia de propuestas anteriores, el algoritmo propuesto utiliza como entrada tres nuevos indicadores que reflejan los problemas de cobertura, sobreapuntamiento y solapamiento entre celdas, a partir de medidas extraídas de las trazas de conexión.
Como alternativa al ajuste de inclinación de antenas, se propone un algoritmo de optimización automática de la potencia máxima de transmisión de las estaciones base de una red LTE. El objetivo del algoritmo es mejorar la eficiencia espectral global del sistema en el enlace descendente mediante la reducción de la potencia de transmisión de celdas que generen problemas de interferencia. Como novedad, el algoritmo propuesto se basa en un nuevo indicador que predice el impacto causado por el cambio de la potencia de transmisión de cada celda en la calidad de señal global de la red en el enlace descendente.
Todos los métodos desarrollados en esta Tesis se conciben para ser integrados en una herramienta de optimización comercial centralizada en el sistema de gestión de red. Para formular el problema, se analizan estadísticas de rendimiento y trazas de conexión tomadas de redes reales. En su desarrollo, se consideran las restricciones impuestas por el operador y el fabricante, prestando especial atención a la eficiencia computacional de los algoritmos de resolución. Como prueba de concepto, se realizan pruebas de campo en un escenario real donde las estaciones base incorporan mecanismos para la inclinación remota de antenas (Remote Electrical Tilt, RET). Finalmente, para estimar el beneficio potencial, los algoritmos se validan en un simulador de nivel de sistema que implementa escenarios ajustados con estadísticas de una red real LTE.El aumento del tamaño y la complejidad de las actuales redes de comunicaciones móviles dificulta enormemente las tareas de gestión de red. Para afrontar este problema, los operadores demandan herramientas automáticas capaces de recopilar y procesar las medidas de red con una mínima intervención humana. Con tales herramientas, es posible aprovechar la información proporcionada por los eventos de señalización, que hoy en día se descarta, para determinar la configuración óptima de la red.
En esta Tesis se proponen diversos algoritmos de optimización automática de parámetros de una red de acceso radio Long Term Evolution (LTE), cuya principal novedad es la utilización de indicadores obtenidos a partir de trazas de conexión de la interfaz radio.
Como punto de partida, se describe una metodología genérica para construir indicadores de rendimiento de red mediante el procesado de eventos complejos (Complex Event Processing, CEP). El objetivo de esta metodología es mostrar la posibilidad de crear nuevos indicadores de rendimiento, distintos de los proporcionados por los fabricantes, para obtener información más detallada del funcionamiento de la red a partir de las trazas de conexión.
A continuación, se presenta un análisis de diversos indicadores de capacidad utilizados por los operadores, basado en datos extraídos de una red LTE real. Este análisis preliminar permite entender cómo difieren los distintos indicadores de capacidad y confirma la correlación de estos indicadores con los indicadores de calidad de señal.
Posteriormente, se propone un algoritmo de ajuste automático del ángulo de inclinación de las antenas para la optimización de la cobertura y la capacidad de una red LTE. El objetivo del algoritmo es maximizar el área de cobertura y mejorar la eficiencia espectral global de la red, eliminando situaciones de sobreapuntamiento (overshooting) o excesivo solapamiento entre celdas vecinas
- …