19 research outputs found

    Modelar éxito o fracaso de proyectos de software utilizando razonamiento basado en casos

    Get PDF
    117 p.Si bien existen herramientas que ayudan al jefe de proyectos de software a la toma de decisiones, estas no permiten predecir si el proyecto ser a un éxito o un fracaso. Con este estudio se aspira a predecir el éxito o fracaso de nuevos proyectos de software ocupando un software que utiliza como técnica el CBR, con el fin de que los gerentes de proyectos y empresas puedan considerar su uso y as poder tomar una decisi on sobre realizar o no un nuevo desarrollo de software. Por lo tanto, es requerimiento un estudio sobre la teori a del razonamiento basado en casos, con el prop osito de entender el funcionamiento de los sistemas CBR y poder determinar cuando un proyecto ser a un éxito o un fracaso.Un modelo basado en CBR proporciona cierta ventaja a la toma de decisiones, ayudando al gerente de proyectos a determinar la viabilidad del desarrollo de software, con el fin de poder diagnosticar cuando un proyecto de softwate ser a un éxito o un fracaso y con ello lograr identifi car de forma temprana los factores que puedan llevar al fracaso el proyecto. Esto se logra almacenando los proyectos terminados y relacionando los casos m ás similares con el proyecto a predecir. Por lo tanto se ocupa una base de entrenamiento con datos recopilados de distintos proyectos de software que han sido exitosos o han fracasado con el fi n de poder utilizarlos en la predicci on, luego se toma una muestra con proyectos de software (casos de prueba) a los cuales se les predijo si el proyecto ser a un exito o un fracaso. Adem as se utilizaron distintos tipos de algoritmos para predecir los casos de prueba, con el fin de analizar y validar los resultados obtenidos, para luego comparar todos los algoritmos y concluir cuales de ellos tiene un porcentaje de exactitud mayor a los dem ás

    Mejoras en los sistemas de operación y navegación autónoma de un quadcopter

    Get PDF
    86 p.La utilización de UAVs en en el presente ha aumentado, conforme van apareciendo nuevas áreas de estudio e investigación. La gran mayoría de estos, necesitan estar supervisados por una persona que este capacitada en su operación y manejo. En este trabajo se expone el diseño e implementación de un algoritmo que permite la comunicación y el control de un AUV, mediante el intercambio de comandos desde un microcomputador hacia el controlador de vuelo. En el contexto de buscar personas pérdidas o extraviadas, las mejoras en la operación y la navegación del cuadricoptero están dadas por la continuidad de otro trabajo que utilizo componentes menos precisos y que tienen un nivel de abstracción menor. El tema tratado en este trabajo se basa en la detección de puntos de interés, la asignación de coordenadas GPS a ellos, la creación de una ruta y la asignación de la misma para que sea seguida por el UAV en tiempo de vuelo sin la intervención del piloto en tierra. La implementación del código está hecho en C++ y otra parte de la solución está escrita en Python. Ambos códigos probados en el microcomputador y documentados para su buen rendimiento. La implementación se prueba en condiciones reales y basadas en los alcances estipulados. Palabras claves: UAV cuadricoptero, algoritmo, personas perdidas, puntos de interés, GPS, microcomputado

    Prototipo de visualización de datos en altas dimensiones en el contexto educacional

    Get PDF
    137 p.La visualización es un proceso primordial en minera de datos. Se considera parte de la fase conocida como análisis exploratorio de Datos, propuesto por Tukey [32]. La ventaja de este método es el utilizar la capacidad innata del ser humano para reconocer patrones, lo que ayuda a tomar decisiones en etapas tempranas cuando se realiza minera de datos. Este trabajo consiste en la construcción de un prototipo de visualización web para realizar análisis exploratorio de datos. La contribución principal del trabajo es la visualización multidimensional para la familia de redes neuronales conocida como Tree-Based Topology Oriented Self-Organizing Maps (TTOSOM). Esta familia de algoritmos actualmente es útil para resolver problemas de clustering, clasificación y regresión. Los detalles de este método ha sido reportado en diversos trabajos científicos [3].A pesar que los códigos fuente de estas redes neuronales ya se encuentran disponibles públicamente en diversos repositorios de código libre, el uso de estos requiere un conocimiento previo en programación. Este trabajo proporciona una capa de fácil uso enfocado a personas sin habilidades en programación, pero entrenados en la interpretación del algoritmo inteligente. Estos usuarios pueden utilizar los métodos para establecer conclusiones respecto a los datos analizados. Este framework, única las técnicas de clustering, clasificación y regresión basadas en TTOSOM a través de una interfaz web de acceso público. Adicionalmente, se presenta una aplicación del algoritmo TTOSOM en el contexto educacional. Específicamente se toman datos obtenidos del SIMCE (Sistema Sistema de Medición de la Calidad de la Educación) para visualizar tanto los datos como los arboles neuronales. Un beneficio extra que se ha incorporado en este trabajo, es su naturaleza genérica. A pesar que la implementación de este prototipo se limita al entrenamiento y visualización de la familia TTOSOM, se diseño el sistema de manera modular

    Diseño y desarrollo de un índice basado en hiperplanos para búsqueda en espacios métricos

    Get PDF
    109 p.La constante evolución de los datos en los últimos tiempos ha provocado que organizar la información con los métodos tradicionales se vuelva muy di cultoso.Es por esto que la investigación en esta área ha crecido bastante. Uno de los problemas más importantes al momento de administrar bases de datos con los métodos tradicionales, es que existen algunos conjuntos de datos donde la búsqueda exacta no tiene mayor sentido. En estos casos es necesario considerar la búsqueda por proximidad o similitud. Para enfrentar este nuevo problema los datos se pueden modelar como un espacio métrico (EM), que se de ne como el par (X; d), en que X denota el universo de objetos válidos y d una función de distancia (no negativa) entre cualquier par de objetos, que generalmente es costosa de calcular. Es por esta ultima razón que los EM se indexan con estructuras que permiten reducir el número de cálculos de distancia al momento de realizar búsquedas por similitud. Existen índices que permiten resolver consultas por similitud de forma exacta. Sin embargo, hay varios espacios métricos de interés práctico donde el rendimiento de estos índices decae. En estos casos existen alternativas no exactas, como por ejemplo el índice basado en permutantes (IBP). Este índice permite cambiar el espacio del problema a uno en donde es más barato calcular la distancia y de esta forma defi nir un orden de revisión promisorio al momento de resolver las búsquedas.En esta memoria se proponen dos índices no exactos que utilizan una estrategia basada en el particionado por hiperplanos. En ellos cada elemento se representa con una rma binaria que es una secuencia de bits que se calcula a partir de los elementos que constituyen los hiperplanos. Similar al caso del IBP, al representar los elementos con rmas binarias se puede de nir un orden promisorio de revisión.Una característica importante de este trabajo es la utilización de poco espacio de memoria.Para evaluar los índices propuestos, se realiza una comparación de rendimiento a mismo espacio de memoria utilizada con respecto al IBP. Los resultados obtenidos para el primer índice muestran un mejor comportamiento al momento de realizar búsquedas. Por su parte, aún cuando el segundo índice no logró superar a los permutantes es importante continuar con su investigación, ya que podría ser útil para categorizar a los elementos

    Diseño de una interfaz gráfica para búsqueda de patrones estructurales en el Protein Data Bank

    Get PDF
    114 p.La estructura que posee la materia define sus propiedades y funciones. En las últimas décadas, gracias a los avances de la ciencia y la tecnología, investigadores han utilizado variadas técnicas para determinar la estructura de macromoléculas tales como proteínas, ADN y ARN. La información conseguida es útil para describir las interacciones que se dan entre moléculas, y así poder entender las estructuras y funciones que permiten muchos procesos biológicos importantes. El volumen de información de macromoléculas que se maneja hoy en día es muy grande. Por esto se han creado bancos de datos que intentan unificar y mantener accesible la información a nivel global. Este es el caso del Protein Data Bank (PDB). Sin embargo, poder analizar los datos almacenados es una tarea difícil, que solo se lleva a cabo mediante herramientas de software especializadas. La mayor a de las herramientas disponibles actualmente poseen interfaces estándar y se limitan a realizar búsquedas a través de formularios, con los cuales no se pueden elaborar consultas avanzadas que entreguen datos realmente trabajados. Para efectuar una consulta compleja, las herramientas ofrecen confeccionarlas y ejecutarlas directamente, por ejemplo, en código SQL o a través de lenguajes de programación. Este proyecto se enfoca en entregar una solución práctica para un problema específico, la búsqueda de patrones estructurales a nivel de interacción entre un ligando y los aminoácidos que lo rodean, en su sitio de unión en las macromoléculas. La solución consiste en el diseño de una interfaz gráfica que permita dar forma a un patrón estructural basado en elementos de grafo, y que luego tal patrón sea transformado en una consulta SQL para buscar coincidencias dentro de una base de datos relacional que contiene la información de PDB. Respecto a las contribuciones, en este proyecto se implementó un prototipo funcional que satisface las necesidades originadas por el problema abordado, el prototipo fue validado, y evaluado positivamente por un grupo de usuarios cualificados. Además, en el proceso se desarrolló un método que permite transformar asociaciones de pares de componentes gráficos en consultas SQL, y que al unirlas pueden representar patrones estructurales de alta complejidad. Por último, el aporte a la comunidad científica es facilitar el estudio de estructuras por medio de una interfaz comprensible y fácil de usar, que revoluciona el modo de interacción habitual.Palabras clave : Patrones estructurales , Interacciones proteína-ligado , Interfaz gráfi ca de usuario ,Sitio de unión, PD

    Desarrollo de un Sistema de Control y Digitalización de Pruebas Psicotécnicas para GNEX Gabinete Psicotécnico

    Get PDF
    138 p.En nuestro país, como en cualquier parte del mundo el conducir un vehículo moto-rizado conlleva una enorme responsabilidad, por ello se hace indispensable demostrar que se está capacitado para dicho ejercicio. Para obtener un permiso de conducción se debe acreditar un adecuado estado moral, psíquico y físico, además de contar con los conocimientos teóricos y prácticos de conducción enmarcados dentro de las dis- posiciones legales y reglamentarias dispuestas por la legislación vigente. Dentro del contexto psíquico y físico los municipios realizan evaluaciones psicosen-sométricas con un equipo de evaluación que mide la concentración, la velocidad de reacción y el nivel de visión entre otras habilidades, este equipo se conoce como gabinete psicotécnico [1]. Este proyecto tiene como objetivo el desarrollo de un sistema de software para el control de un gabinete psicotécnico denominado Gnex, desarrollado por la empresa Exceed Ltda. Este software tiene como finalidad el control centralizado de las distintas pruebas que conforman el gabinete y la administración de datos emanados de cada evaluación, permitiendo entre otras cosas: Evitar el falseo de resultado por parte de los evaluadores en perjuicio o beneficio de quien está siendo evaluado. La idea es que los resultados de las interacciones del evaluado con las pruebas sean leídas y registradas por el software y no dependan del juicio de quien está realizando la evaluación, mejorando de esta forma la veracidad de los resultados. Dar mayor confianza del resultado de los exámenes psíquicos a los evaluados; reemplazando las pruebas mecánicas por pruebas virtuales, las cuales permiten visualizar de forma gráfica e inequívoca los errores y/o aciertos cometidos. Tener un registro histórico de los resultados de las evaluaciones realizadas. Permitir el control de pruebas y la obtención de resultados desde otras aplicaciones, (comúnmente usadas para la gestión de licencias de conducir) mediante el uso de una interfaz de interoperabilidad./ABSTRACT: In our country as elsewhere in the world to drive a motor vehicle carries enormous responsibility, so it is essential to demonstrate to be qualified for that practice.To obtain a driving license you must demonstrate an adequate moral, mental and physical status, in addition you need to have a theoretical and practical knowledge of driving according to the laws and regulations set by the legislation. In the context of physical and psychological the municipalities made psychometric evaluations, with an equipement that measures the concentration, the reaction rate and the level of vision, among other skills, this equipement is known as psycho cabinet [1]. This project aims to develop a software system for controlling a psycho cabinet called GNEX, developed by Exceed Company Ltd. This software objetive is the centralized control of various tests that are part of cabinet and management data obtained from each test, allowing among other things: Avoid falsified results by evaluator in aid or benefit of who are being evaluated. The idea is that the interactions results of evaluated with tests are read and recorded by the software does not depend on the judgment of who is making the evaluation, thereby improving the accuracy of the results. Give greater confidence psychic test results for evaluated, replacing mechani- cal testing for virtual testing, allowing graphical display of mistakes and / or successes done. To have a historical record of evaluations results. Allow the control and obtaining of testing results from another applications (commonly used for managing drivers licenses) through an interoperability interface .

    Búsqueda aproximada en espacios métricos usando agrupamientos basados en distancias cuantizadas

    Get PDF
    90 p.La evolución de la cantidad y calidad de la información que es manipulada va de la mano con el rápido crecimiento que ha presentado el área de la computación.Junto con esto, las bases de datos han tenido que adaptarse para poder dar abasto a todas las necesidades, las cuales no contemplan únicamente el almacenamiento de la información, sino que también deben proveer formas de obtener información según se requeriera. Dentro de las búsquedas que se solicitan a una base de datos comúnmente se encuentran las búsquedas exactas, es decir, dado un identificador único se quiere conseguir información vinculada con éste. Por ejemplo, al realizar una búsqueda de la información de morosidad asociada a una persona a través de su RUT.Por otro lado dada la gran cantidad de características que existen aparece otra necesidad, la cual consiste en obtener los elementos que son los más parecidos a otro. Siguiendo con el ejemplo, buscar el conjunto de personas que tengan las mismas características respecto al pago de deudas como: tiempo de morosidad del pago de cuentas, cantidad de créditos obtenidos, montos adeudados y muchas otras características que son agregadas según la cantidad de información capturada. A este tipo de búsquedas se les llama búsquedas de proximidad, en donde se tiene un elemento de consulta y una función de distancia que indica que tan similares son dos elementos, para obtener el conjunto de elementos más parecidos a la consulta. Actualmente existen métodos para indizar datos no convencionales que entregan una respuesta exacta. Sin embargo el gran problema que estos sufren es la cantidad de memoria RAM que requieren. También existen índices de búsqueda que carecen de este problema, en los que no se asegura que el resultado obtenido sea el correcto, pero si es muy aproximado a éste. El propósito de ésta memoria consiste en el diseño e implementación de un índice nuevo que provecha las características de índices probabilísticos existentes y que busca reducir el esfuerzo de la búsqueda a una porción de la base de datos. Los resultados obtenidos indican que la exactitud del índice propuesto es menor respecto al índice probabilístico del que éste se basa. Pese a esto, los tiempos de reacción obtenidos se mantienen constantes y predecibles, superando en algunos casos a su antecesor

    Metodología para detección del cambio en modelos de regresión logística aplicado al problema de Credit Scoring

    Get PDF
    110 p.En industrias altamente competitivas, como la industria financiera, es necesario contar con modelos de Credit Scoring que sean eficientes y objetivos para evaluar el mérito del postulante para recibir un crédito. Dentro de las limitaciones de estos modelos se puede mencionar que son estáticos, y no considera que los patrones que definen la relación entre la variable objetivo y las variables explicativas cambien a través del tiempo (Concept Drift), debido a que la distribución asumida en la construcción del modelo es estacionaria. Esto tendrá como consecuencia que el modelo pierda su poder discriminador en las nuevas observaciones y deba ser constantemente re-calibrado.El objetivo de esta tesis tiene por finalidad proponer una metodología que permita detectar de manera temprana si las variables involucradas en la calibración de los modelos de regresión logística aplicados al problema de Credit Scoring, sufrieron un cambio estadísticamente significativo a medida que trascurre el tiempo.En primer lugar se desarrolló un modelo de Credit Scoring bajo la metodología de descubrimiento de conocimiento en bases de datos (KDD) utilizando información de una institución financiera real. La técnica estadística utilizada fue la regresión logística, ya que posee buen desempeño en la tarea de clasificación, facilidad de aplicación e interpretación y por calcular directamente las probabilidades de no pago. Se aplicó la metodología de detección del cambio propuesta en esta tesis sobre una muestra de 5.207 observaciones que busca detectar los cuatro posibles tipos de cambio, siendo éstos: cambio en la estabilidad de parámetros, en la capacidad discriminante de las variables, distribución de las variables y un cambio global en el modelo.Se determinó que hubo cambio estadísticamente significativo en las variables del modelo, corroborando que existe una consistencia importante entre el test de estabilidad de parámetros, los test no paramétricos Chi-cuadrado de Pearson y Kolmogorov – Smirnov y la divergencia de Kullback – Leibler, los cuales coinciden en la determinación de las variables más críticas. La capacidad predictiva del modelo disminuyó a un 68,7% en referencia al 84,7% de acierto global que tenía el modelo original al momento de ser calibrado.Para determinar si un modelo deber ser re-calibrado, las Instituciones Financieras deben definir el apetito de riesgo con el objeto de delimitar de forma sintética y explícita, los niveles y tipologías de riesgo que la entidad está dispuesta a asumir en el desarrollo de su actividad

    Heurísticas de selección de permutantes para búsqueda aproximada en espacios métricos

    Get PDF
    82 p.La constante evolución que han mantenido las bases de datos lleva a que en la actualidad no solo se necesita almacenar núumeros y palabras sino tambíen multimedia, documentos, muestras biológicas, etc. Esto nos hace pensar que para poder buscar en estas colecciones de elementos, los métodos tradicionales no son suficientes. Para resolver este dilema, se utiliza la búsqueda por similitud o búsqueda aproximada, en donde el resultado del proceso retorna uno o más elementos similares al que se está comparando. La búsqueda por similitud se apoya en un índice que permite descartar elementos, con lo cual el proceso de búsqueda es más rápido. Una técnica para construir índices relativamente nueva es aquella basada en permutantes, siendo el enfoque de este trabajo el cómo obtener un conjunto de elementos desde la colección de datos para ser usados como permutantes. Se exponen nuevas heurísticas para selección de permutantes y su posterior implementación con el fin de analizar el comportamiento de cada una en distintos tipos de bases de datos, ya sean sint´eticas o reales. Luego de realizar las pruebas en los distintos conjuntos de datos y obtener los resultados preliminares de los experimentos, se analizan de manera cruzada las heurísticas, en el mismo espacio métrico, a fin de conocer o estimar cuál es la que genera un conjunto mejor de permutantes. Esto influye en los resultados de la búsqueda, vale decir, se puede determinar con cuál se necesita recorrer una porción menor de la base de datos para obtener la misma cantidad de respuestas satisfactorias. También se expone una técnica para mejorar el conjunto de permutantes que se obtienen con las heurısticas propuestas.´Del proceso de este trabajo, se concluye que las heurísticas propuestas mejoran los resultados con respecto al estado del arte. Esto indica que los resultados obtenidos en cada uno de los espacios métricos testeados son un indicio de lo que puede pasar en otros espacios métricos del mismo tipo. Palabras claves: Búsqueda aproximada, búsqueda por similitud, permutantes

    Desarrollo de un prototipo web para análisis de regresión

    Get PDF
    171 p.El análisis de datos es un proceso que involucra la inspección, reparación, transformación, interfaz, predicción y validación de un conjunto de datos, con el objetivo de extraer información útil para la toma de decisiones. Este trabajo detalla el diseño e implementación de una herramienta web para realizar análisis de datos. La finalidad de la herramienta es poder realizar una serie de procedimientos para facilitar la tarea de análisis de datos a personas que requieren este tipo de servicio pero que no necesariamente cuentan con competencias avanzadas en lenguajes de programación estadística. La herramienta propuesta posee una serie de ventajas. La ventaja principal es que el usuario no depende de la arquitectura de computadores ni del sistema operativo específico con el que trabaja. Por el contrario, el usuario puede realizar una serie de operaciones relativas al análisis de datos a través del navegador web. El sistema ha sido cuidadosamente diseñado para proveer portabilidad, encapsulamiento, disponibilidad, correctitud, usabilidad, escalabilidad y expandible. Palabras claves: prototipo web, regresión lineal, análisis de datos
    corecore