147 research outputs found

    Testing Basado en la Busqueda en TESTAR

    Full text link
    [ES] Las interfaces gráficas de usuario (IGU) constituyen un punto vital para testear una aplicación. Para ello se han desarrollado diversas herramientas automáticas, que, en su mayoría, utilizan algoritmos en los que las acciones a ejecutar en cada paso se deciden aleatoriamente. Esto es eficaz en aquellas aplicaciones inmaduras que han sido poco testeadas y presentan muchos errores. Dotar de “inteligencia” a los mecanismos de selección de acciones constituiría un importante avance para conseguir una mayor implantación de las herramientas de testeo automatizado, lo que redundaría en un incremento de la calidad del software. Éste es precisamente el objetivo de este trabajo. Para conseguirlo, se ha utilizado un enfoque basado en búsqueda (o search-based) que convierte el testeo en un problema de optimización. Nuestro punto de partida es la herramienta TESTAR, desarrollada en el ámbito del proyecto de investigación europeo FITTEST. Se han utilizado y evaluado dos métodos: Q-learning y programación genética. Otro resultado importante son la definición de las métricas apropiadas para optimizar; en este trabajo se han introducido cuatro nuevas métricas. La combinación de los algoritmos search-based con estas métricas ha permitido obtener resultados muy prometedores, que redundarán en la mejora de TESTAR.[EN] Graphic User Interfaces (GUI) are a main entry point to test an application. Different automated tools to test at the GUI level exist. Those that automate the design of test cases usually use random algorithms to choose the action that should be executed next in the test sequence. This technique is quite useful in applications that are immature, have been poorly tested or present many errors. To give more “intelligence” to this action selection mechanism, in this work we suppose a great development in the implantation of the automated testing tools. This improvement will result in better testing. To achieve this, we use search-based techniques to transform the problem into an optimization one. Our starting point is the tool called TESTAR, a tool developed during an EU research Project called FITTEST. Two different methods have been implemented and evaluated: Q-learning and genetic programming. Another results of our work is the definition of metrics that guide the optimization properly. Four new and different metrics have been introduced. The combination between metrics and search-based algorithms has been assessed and promising results have been obtained that will increase TESTAR capabilities.Almenar Pedrós, F. (2016). Testing Basado en la Busqueda en TESTAR. http://hdl.handle.net/10251/71699.TFG

    Metaheurística ILS para la solución del problema de ruteo de vehículos con flota propia y subcontratada VRPPC

    Get PDF
    El problema de ruteo de vehículos con ruta propia y subcontratada Vehicle Routing Problem with Private Fleet and Common Carriers (VRPPC ) es una variante del problema de ruteo de vehículos clásico con restricción de capacidad Capacitated Vehicle Routing Problem (CVRP), que consiste en encontrar rutas con el menor costo posible atendiendo la totalidad de clientes. El VRPPC se da cuando la demanda de los clientes supera la capacidad de los vehículos propios o por indisponibilidad de los mismos y se tiene que subcontratar la operación de algunas rutas o eventualmente todas las rutas. Se considera que este planteamiento del problema es relativamente nuevo de acuerdo a la revisión de literatura realizada en este trabajo, con un campo de aplicación en una industria del transporte cambiante donde la demanda de los clientes puede tener picos considerables que se hacen imposibles de atender con vehículos propios. Una revisión a la literatura relacionada al problema es llevada a cabo con el fin de verificar el estado del arte y contribuciones en este tema. Además de lo anterior, se identifican vacíos de conocimiento en los cuales se pueden realizar aportes. Este problema de ruteo de vehículos se define como un problema de optimización combinatorial de la clase NP - completo por su complejidad computacional. Para este tipo de problemas existen dos formas de encontrar su solución: el primero corresponde a los métodos exactos, y el segundo a los métodos aproximados. En este trabajo se desarrolla un algoritmo de optimización aproximado denominado Iterated Local Search (ILS) que implementa la búsqueda en vecindarios variables Variable Neighborhood Search (VNS). Es considerado en la primera etapa del algoritmo, la obtención de una solución inicial con base en la heurística de ahorros modificada, la cual resulta ser determinante en el desempeño global del algoritmo..

    Introducción al problema de enrutamiento de vehículos en la logística de distribución

    Get PDF
    Este libro presenta un modelo matemático flexible y una metodología metaheurística que puede ser adaptada a diferentes variantes del problema de enrutamiento. Este se basa en el problema clásico del agente viajero, travel salesman problem (TSP), donde se necesita definir una ruta que visite todos los nodos una única vez. En algunas aplicaciones no se permite que la longitud de ruta exceda un límite de tiempo o de distancia, lo que hace necesaria la confección de varias trayectorias o ciclos para visitar todo el conjunto de clientes, esto configura el problema de múltiples agentes viajeros, multitravel salesman problem (M-TSP). En ambos problemas, el objetivo es visitar todos los clientes, minimizando la sumatoria de los arcos activos

    Búsqueda rápida de caminos en grafos de alta cardinalidad estáticos y dinámicos

    Get PDF
    Los grafos han sido empleados en la resolución de problemas complejos de distinta índole desde su aparición. Para ello, toda la información asociada al dominio debe ser representada mediante nodos y relaciones entre nodos (enlaces), y posteriormente aplicar diversas operaciones sobre el grafo creado. Entre todas ellas, la búsqueda de caminos es una de las más frecuentes y permite resolver problemas de distinta naturaleza. Debido a la frecuencia con la que se resuelven gran cantidad de problemas aplicando búsquedas de caminos, existen multitud de trabajos que han aportado al estado del arte algoritmos para realizar dicha tarea. Sin embargo, debido a la constante aparición de nuevos requisitos a tener en cuenta en los grafos sobre los que se realizan las búsquedas de caminos, siguen surgiendo nuevas propuestas impulsadas por la evolución de las necesidades, que añaden nuevos matices al problema. Entre estas nuevas características, merecen especial atención aquellas relacionadas con el continuo crecimiento de los grafos; el hecho de que tanto la estructura de los mismos como los costes asociados a los nodos y enlaces varían con el tiempo; y la aparición de nuevas topologías derivadas del tamaño de los grafos como es el caso de las Small-World Networks. Además, a todo esto hay que unir el que cada vez existen más limitaciones en lo que a tiempo de respuesta se refiere, pues hay gran cantidad de aplicaciones en tiempo real, o de tiempo limitado, convirtiéndose este parámetro en prioritario y situándose por encima de la obtención de los caminos con el coste óptimo. Después de hacer un estudio del estado del arte, se ha encontrado que no existen trabajos que busquen caminos de una manera rápida sobre grafos de alta cardinalidad (a partir de este momento grafos vastos por simplicidad) dinámicos con estructura genérica. Por este motivo, en este trabajo de tesis doctoral se plantea una propuesta que se apoya en los algoritmos basados en colonias de hormigas (ACO - Ant Colony Optimization) para cubrir este hueco, de manera que los objetivos del mismo se pueden resumir en: Tiempo de respuesta reducido, grafos vastos dinámicos, y topología genérica. El elegir este tipo de algoritmos como base para la propuesta, se debe a su demostrada capacidad de adaptación a entornos dinámicos así como a su eficacia a la hora de encontrar caminos entre nodos. Sin embargo, este tipo de algoritmos se ha aplicado a grafos de, como mucho, unos cuantos millares de nodos, pues en grafos mayores el comportamiento presentado no es correcto: las hormigas no encuentran el destino, o en caso de hacerlo, la calidad del camino obtenido se encuentra muy por debajo del valor óptimo. Para permitir su utilización en grafos mayores, hay propuestas que incorporan un preprocesado del grafo de manera que la búsqueda se realiza en fragmentos del grafo principal en lugar de en el grafo completo. El problema de este preprocesado es que hace que se pierda la adaptabilidad propia de este tipo de algoritmos, pues cada vez que se produce un cambio, la búsqueda debe detenerse y esperar a que se ejecute de nuevo todo el preprocesado. Con el fin de proponer un algoritmo capaz de alcanzar todos los objetivos analizados anteriormente, la propuesta presentada en este trabajo de tesis doctoral incorpora una ayuda a la búsqueda del camino que en ningún momento modifica la estructura del grafo y que está basada en la forma en la que los animales consiguen reducir el espacio de búsqueda para encontrar la comida empleando su sentido del olfato. Para ello, se ha incluido al algoritmo lo que se ha denominado Nodos Comida y Olor a Comida, pasando el algoritmo de ser ACO (Ant Colony Optimization) a ser SoSACO (Sense of Smell ACO). Junto a esta ayuda, se ha seleccionado un sistema gestor de base de datos para almacenar y gestionar toda la información con la que es necesario tratar debido a la cantidad de la misma, a la necesidad de permitir un acceso concurrente a ella, y a la potente gestión de la información que proporciona y que permite mejorar los tiempos de acceso. Además, el emplear un sistema gestor de base de datos va a permitir dividir el problema de la búsqueda de caminos en grandes grafos en dos, independizando la tarea de buscar un camino de la de manejar una cantidad de datos masiva, encargándose el sistema gestor de la segunda tarea y permitiendo que este trabajo se tenga que ocupar únicamente de encontrar un algoritmo de búsqueda adecuado a grandes grafos dinámicos. Con respecto a las fases sobre las que se apoya el algoritmo propuesto, se pueden resumir de la siguiente manera: Elección de los Nodos Comida: Se elegirán de entre los nodos del grafo basándose en la frecuencia con la que se utiliza el nodo como nodo extremo de un camino; en función de la distribución del grafo, permitiendo que el mismo quede divido en zonas; en función del grado del nodo; o en función de la frecuencia de tránsito del nodo. Una vez elegidos, podrán emplearse como puntos de encuentro de hormigas (en caso de que el nodo comida sea distinto al nodo destino), de manera que cuando una hormiga llegue a uno de ellos, si tiene como nodo destino el origen de otra hormiga que alcanzó dicha fuente de alimento con anterioridad, podrá obtener directamente el camino global uniendo ambos tramos. Olor a Comida: Este nuevo parámetro tendrá como función simular el olor que desprende cualquier fuente de alimento en la naturaleza creando un área alrededor de ella dentro de la cual se puede saber, mediante el empleo del olfato, donde se encuentra el alimento. Esta característica no tendrá nada que ver con la feromona, ya que, mientras que esta última es empleada por las hormigas para comunicarse entre ellas de manera indirecta, el olor solo será utilizado por las hormigas en su búsqueda a modo de ayuda. Dispersión de Olor Inicial: Se dispersará el olor de los Nodos Comida a los nodos en torno a ellos, de modo que el olor máximo se encontrará en los nodos comida, y a los nodos en torno a ellos se les asignará una cantidad que se verá reducida según el nodo esté más alejado de la fuente de olor. Además, se fijará un umbral a partir del cual ya no se asignará olor al nodo, limitando de esta manera el tamaño de las áreas con olor y siendo necesario encontrar un punto de equilibrio entre el número de nodos comida y el umbral. Dispersión de Olor Radial: Se realizará cuando un nodo comida sea empleado para ir del nodo inicio al destino. Esto trata de imitar el hecho de que cuando una hormiga real coge un trozo de comida, el mismo tiene un olor asociado que se dispersará por el camino empleado por la hormiga para transportarlo. Este hecho implicará que el tamaño inicial de las áreas de olor entorno a los nodos comida se verá extendido rápidamente, especialmente en nodos habitualmente transitados, gracias a las distintas búsquedas realizadas por las hormigas. El olor se dispersará disminuyendo su valor en función de la lejanía al nodo comida y la condición de parada será que el olor a asignar sea cero. Gracias a todo este proceso, la hormiga buscará su nodo destino utilizando el rastro de feromona creado por otras hormigas de manera probabilística, manteniendo su capacidad de adaptación a cambios gracias a este proceso aleatorio, y si durante la búsqueda se encuentra con algún rastro de olor, podrá utilizarlo para ir hasta el nodo comida (siguiendo el rastro creciente de olor) y, en caso de no ser el destino, emplearlo a modo de punto de encuentro. De lo explicado anteriormente se puede apreciar que la incorporación realizada al algoritmo no modifica la estructura del grafo ni cambia la manera de buscar habitual de las hormigas, por lo que si aparece un cambio que afecte a los olores y que implique tener que volver a realizar la dispersión, o borrar un área ya creada, las hormigas no se verán interrumpidas y podrán proseguir con su búsqueda mientras se realice aquello que sea necesario para restaurar los olores. Además, puesto que el encontrar el camino empleando el rastro de olor únicamente implica seguirlo en sentido creciente, la primera aproximación de camino encontrado será mostrada rápidamente, cumpliendo de esta manera el objetivo prioritario de la presente tesis: minimizar el tiempo de respuesta. Con el fin de cumplir con el resto de objetivos, y disminuir en mayor medida el tiempo empleado para la obtención de una primera respuesta, la propuesta fue evolucionando a través de una consecución de ciclos en los que se fueron fijando valores para determinados parámetros del algoritmo (gracias a la ejecución de una serie de experimentos llevados a cabo sobre grafos vastos), así como incorporando otros nuevos que permitiesen solucionar problemas detectados en ciclos anteriores e incluir las nuevas restricciones. Es decir, se siguió un método de desarrollo iterativo incremental. Respecto a los ciclos de evolución del algoritmo, se basaron en la aplicación del algoritmo a grafos vastos estáticos con un único nodo comida, estáticos con varios nodos comida, dinámicos con varios nodos comida, y estáticos con varios nodos comida pero con un preprocesado de caminos entre los nodos comida y un mantenimiento de los mismos (aplicando el algoritmo propuesto de manera paralela a las búsquedas de caminos solicitadas) con el fin de reducir el tiempo de respuesta, y mejorar de manera secundaria la calidad de los caminos solicitados. Después de realizar todos estos ciclos de evolución, y observar los resultados obtenidos en los experimentos llevados a cabo en cada uno de ellos, se pudo concluir que se ha conseguido un algoritmo capaz de reducir la tasa de pérdida de las hormigas así como el tiempo de respuesta del algoritmo, de adaptarse a los cambios que se puedan producir en el grafo, y de obtener unos costes de caminos dentro de un rango de calidad determinado cuando ejecuta sobre grafos vastos. Es decir, se han satisfecho todos los objetivos iniciales del presente trabajo de tesis doctoral. --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------Graphs have been employed to resolve different kinds of complex problems since they first appeared. In order to do so, all the information associated to the domain should be represented by nodes and relationships among nodes (links) to subsequently apply different operations on the graph thus created. Among these, the search for paths is one of the most frequent, which allows different kinds of problems to be resolved. Due to the frequency with which a large number of problems are resolved by applying path searches, a great number of papers have made a contribution to state-of-the-art algorithms to carry out such tasks. Nonetheless, due to the constant appearance of new requirements to be taken into account in graphs on which path searches are conducted, new proposals driven forward by the evolution of needs continue to arise, adding new nuances to the problem. Among these new characteristics, those which deserve special attention are the continuous growth of graphs, the fact that both the structure of graphs as well as the costs associated to nodes and links vary over time, and the appearance of new typologies arising from the size of graphs, as in the case of Small-World Networks. Also, as there are a large number of real-time or time-limited applications, this parameter is given priority above obtaining paths having the lowest possible cost, it being sufficient that their quality is within a specific margin with respect of the optimum. After having conducted a study of the state of the art, it was found that there are no papers on searching for paths quickly on large generically structured dynamic graphs. Hence, this doctoral thesis work is setting out a proposal based on Ant Colony Optimisation (ACO) algorithms to cover this gap and its objectives can be summed up as follows: short response times, large dynamic graphs and a generic typology. The fact of having chosen this kind of algorithms as a basis for the proposal is due to their proven capacity to adapt to dynamic environments, as well as on their efficiency in finding paths between nodes. Nevertheless, this type of algorithm has usually been applied to graphs having several thousand nodes at most, as it does not behave properly in larger graphs: the ants fail to find the destination or, should they do so, the quality of the path obtained is way below the optimum value. In order to allow for the use of larger graphs, some proposals incorporate the graph's pre-processing, so that the search is conducted on fragments of the main graph instead of on the complete graph. The problem with such pre-processing is that it entails a loss of adaptability characteristic of this kind of algorithm. Once a change has come about, the search has to be stopped and has to wait for the entire pre-processing to be executed once more. In order to put forward an algorithm capable of meeting all the objectives analysed above, the proposal contained herein incorporates a path search aid which in no way modifies the structure of the graph and which is based on the way animals manage to reduce the search space to find a food source by using their sense of smell. In order to achieve this, what have been called Food Nodes and Smell of Food, have been included in the algorithm, so that the ACO (Ant Colony Optimisation) algorithm has become the SoSACO (Sense of Smell ACO) algorithm. Along with this aid, it is necessary to select the best storage medium to process the massive amount of information to be used in the work, in addition to allowing concurrent access to such information. Both of these characteristics are fully covered through the use of a secondary support, more specifically a Database Management System, which allows powerful information management to be added, thereby improving access times. Furthermore, the use of a database management system will allow the problem of searching for paths in large graphs to be divided into two, making the task of searching for a path independent from the task of handling a massive amount of data. The management system will be in charge of the latter and allow this work to only deal with finding a search algorithm which is suitable for large dynamic graphs. The stages around which the proposal is structured are explained below: Choice of Food Nodes: Choosing a series of Food Nodes among all the graph's nodes based on the frequency with which the node is used as a path's end/init node; on the basis of the graph's distribution, allowing the graph to be divided into areas; on the basis of the node's degree; or on the basis of the frequency of transit. Once these have been chosen, they can be used as meeting points for ants (should the food node not be the destination node), so that when an ant reaches one of them it can directly obtain the overall path linking both sections if its destination node is the node of origin of another ant that has previously reached the food node. Smell of Food: The function of this new parameter will be to mimic the smell given off by any food source in nature, creating an area around it within which it is possible to know where the food source is to be found through the sense of smell. This characteristic has nothing to do with pheromone. While the latter is used by ants to communicate indirectly among themselves, smell will only be used as an aid in their search. Initial Dispersion of Smell: The dispersion of the smell from Food Nodes to the nodes around them, so that the strongest smell will be found at food nodes and the nodes around them will be assigned a quantity which will progressively decrease as one moves further away from the source of the smell. Additionally, a threshold will be set from which the smell will no longer be assigned to nodes, thereby limiting the size of areas of smell. This means that it is necessary to strike a balance between the number of food nodes and the threshold. V Radial Dispersion of Smell: The radial dispersion of the smell of food will come about when a food node is used to go from the starting node to the end node. This aims to mimic the fact that when a real ant gathers a piece of food, such food has a smell which will be dispersed along the path used by the ant to transport it. This fact means that the initial size of the areas of smell around food nodes will be rapidly extended, especially at frequently transited nodes thanks to the different searches made by ants. The smell will be dispersed, decreasing in value depending on the distance to the food node. In this case, the only stopping condition will be that the smell to be assigned has to be greater than zero. As a result of this entire process, the ant will search for its destination node by making use of the pheromone trail left by other ants in a probabilistic fashion, whilst maintaining its capacity to adapt to changes thanks to this random process. If it comes across a trail of smell during the search, it can use it to go to the food node (following the increasing trail of smell) and, if it is not the destination, to use it as a meeting point. From the explanation set out above, it can be seen that the addition made to the algorithm does not change either the graph's structure or the way ants usually go about doing their searches. Thus, if a change comes about which affects the smells or involves having to disperse them once again or deletes an already created area, the ants will not be interrupted and will be able to carry on with their search while whatever may be necessary to restore the smells is being done. Additionally, given that finding the path solely by using the trail of smell involves following it in an increasing direction, the first approximation to be found will be shown rapidly, thereby meeting the priority objective set for this thesis: namely reducing response times. In order to meet the remaining objectives and to greatly reduce the time employed to obtain the first response, the proposal gradually evolved through several stages at which values were set to determine the algorithm's parameters (thanks to the execution of a series of experiments over huge graphs), as well as by incorporating other new parameters which would enable the problems detected in preceding stages to be solved and new constraints to be included. In other words, an incremental iterative development method was followed. The algorithm's stages of evolution where based in the application of the algorithm to huge static graphs with a single food node, to huge static graphs with several food nodes, to huge dynamic graphs with several food nodes, and to huge static graphs with several food nodes but with a pre-processing of paths between selected food nodes and with a paths' maintenance (applying the SoSACO algorithm running parallel to the path searches for the services requested) in order to further improve response times and, in a secondary way, the quality of the paths. After completing all these stages of evolution, and studying the results of the experiments in each one, it can be stated that the proposed algorithm is capable of reducing the rate of lost ants and the response time, of adapting to changes in the graph, and of obtaining paths with quality within a specific margin with respect of the optimum when it executes over huge graphs. In other words, all the objectives initially set for this doctoral thesis have been met

    Restauración del servicio en sistemas de distribución considerando clientes prioritarios y microrredes

    Get PDF
    La instalación de equipamiento de automatización de distribución (DA) permite la implementación de la aplicación avanzada FLISR (Fault Location, Isolation and Service Restoration). Esta implementación proporciona a la red la capacidad de autorreparación para mejorar su resiliencia. La restauración del servicio (SR) es un componente esencial de la aplicación FLISR. Permite que luego de detectada y aislada una falla permanente en un área del sistema, se genere y ejecute automáticamente un plan para restaurar el servicio en las áreas no afectadas, empleando el menor número de maniobras. Existen algunas investigaciones que se enfocan en una solución de SR con diferentes arquitecturas de automatización y técnicas de optimización. Sin embargo, los algoritmos son limitados y requieren de más estudios para tener en cuenta escenarios como clientes prioritarios, integración de reconfiguración de red y operación de microrredes, incertidumbres de recursos energéticos distribuidos (DER) y cargas; con el propósito de lograr una red inteligente capaz de autorrepararse de eventos extremos. El presente trabajo de titulación propone un algoritmo de optimización centralizado basado en la combinación de técnicas metaheurísticas de Evolución Diferencial (DE) y Aprendizaje Incremental Basado en Población Continúa (PBILc) para resolver el problema de la restauración del servicio en Sistemas de Distribución. Este algoritmo considera los clientes prioritarios y el despacho de generación distribuida (DG) para soporte de la red principal, o alimentación local de las cargas, formándose microrredes. De esta forma, se provee al sistema de capacidad de autorreparación para atender a más escenarios de restauración.The distribution automation (DA) allows the implementation of the advanced application FLISR (Fault Location, Insolation, and Service Restoration). This implementation provides the network the self-healing capability to improve its resilience. Service Restoration (SR) is an essential component of the FLISR application. It allows generating and executing automatically a plan to restore the service in healthy areas using the least number of maneuvers after detecting and isolating a permanent fault in the system area. There is some research that focuses on a solution based on SR with different architectures of automatization and optimization techniques. However, the algorithms are limited and require more work to consider scenarios such as priority clients, network reconfiguration and operation of microgrids, uncertainties of distributed energy resources (DER) and loads, to achieve a smart grid capable of self-healing itself from extreme events. The present research proposes an optimization centralized algorithm based on the combination of metaheuristic techniques of Differential Evolution (DE) and Continuous Population-Based Incremental Learning (PBILc) to solve the service restoration problem in Distribution Systems. This algorithm considers priority clients and distributed generation (DG) dispatch to support the main network, or local power supply of the loads by micro-grids. In this way, the system is provided with a selfhealing capacity to meet more restoration scenariosMagíster en Electricidad mención Redes Eléctricas InteligentesCuenc

    Metodología Metaheurística Para La Resolución De Problemas Informáticos En Programación De Software

    Get PDF
    UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE HUMANIDADES Y EDUCACIÓN COMISIÓN DE ESTUDIOS DE POSTGRADO. ÁREA EDUCACIÓN MAESTRÍA EN EDUCACIÓN. MENCIÓN: TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN Metodología Metaheurística Para La Resolución De Problemas Informáticos En Programación De Software Trabajo para optar al Grado de Magíster Scientiarum en Educación Mención Tecnología para la Información y la Comunicación Autora: Marisol Sarmiento Alvarado Tutora: Marina Polo Noviembre de 2008 RESUMEN En el objetivo de describir efectos en el aprendizaje en la Asignatura Procesamiento de Datos y Programación I; por aplicación didáctica de una metódica metaheurística sustentada en un software contentivo de modelos y praxis a la resolución de problemas informáticos; considerado a partir del diagnóstico de debilidades cognitivas, evidenciadas en una sección de 28 estudiantes de Educación en la Especialidad Informática; sustentándose en parámetros jurídicos que al país le preceptúa el uso de tecnologías emergentes; ante la necesidad de desarrollo del pensamiento sistémico, el derecho de aprender con éxito competencias del significante curricular; utilizando recursos disponibles a ese aprendizaje, desde escenarios computacionales, que en sí mismos demandan de innovaciones en paradigmas normativos: técnicos, académicos, tecnológicos, administrativos, a la formación de formadores; cuando el tiempo actual, exige el uso de soportes teóricos aplicable al Programa Informática. Es así que desde la metódica multimedial, en una metaheurística que autoevalúa el efecto de calidad de aprendizaje obtenido; el presente trabajo, con base en la incursión de la realidad por opinión de fuentes primarias; en exégesis ante fuentes secundarias en analisis y síntesis de metamodelos garantes de esa calidad de alcance a objetivos de aprendizajes del estudiante de la asignatura; aplicando técnicas estadígrafas en modalidad descriptiva del procesamiento de datos, según enfoques de la Ecuación Alpha de Cronbach; obtuvo los resultados desglosados en el Capítulo IV, y la valoración de la propuesta, descrita en el Capitulo V, que define a la didáctica, parámetros posibles, en este caso por mediación del software utilizado en la mediación de los citados aprendizajes. Descriptores. Estado, Ciencia, Tecnología. Estructura y Programación. Metaheurística. Cognoscentes y Metacogniciones. Software Didáctico.Universidad Central de Venezuela. Postgrado de Humanidades y EducaciónTesis de Maestrí

    Calibración de un algoritmo de detección de anomalías marítimas basado en la fusión de datos satelitales

    Get PDF
    La fusión de diferentes fuentes de datos aporta una ayuda significativa en el proceso de toma de decisiones. El presente artículo describe el desarrollo de una plataforma que permite detectar anomalías marítimas por medio de la fusión de datos del Sistema de Información Automática (AIS) para seguimiento de buques y de imágenes satelitales de Radares de Apertura Sintética (SAR). Estas anomalías son presentadas al operador como un conjunto de detecciones que requieren ser monitoreadas para descubrir su naturaleza. El proceso de detección se lleva adelante primero identificando objetos dentro de las imágenes SAR a través de la aplicación de algoritmos CFAR, y luego correlacionando los objetos detectados con los datos reportados mediante el sistema AIS. En este trabajo reportamos las pruebas realizadas con diferentes configuraciones de los parámetros para los algoritmos de detección y asociación, analizamos la respuesta de la plataforma y reportamos la combinación de parámetros que reporta mejores resultados para las imágenes utilizadas. Este es un primer paso en nuestro objetivo futuro de desarrollar un sistema que ajuste los parámetros en forma dinámica dependiendo de las imágenes disponibles.XVI Workshop Computación Gráfica, Imágenes y Visualización (WCGIV)Red de Universidades con Carreras en Informática (RedUNCI

    Reducción de costos de recolección y transporte de residuos sólidos en contenedores soterrados aplicando algoritmos genéticos para determinación de rutas. Caso: distrito Bellavista - Callao

    Get PDF
    Presenta una alternativa diseñada en NetBeans, software libre, usando lenguaje de programación Java, por medio del cual se busca una ruta eficiente en términos de distancia para visitar los contenedores soterrados ubicados a lo largo del distrito de Bellavista, Callao. Para lo cual se usó: “Grafo Tipo 1”, cada nodo representa intersección de calles y avenidas principales para movilizarse al relleno sanitario; donde se usó el algoritmo de FloydWarshall para determinar rutas entre cada par de nodos. “Grafo Tipo 2”, cada nodo representa un punto crítico (contenedor soterrado, maestranza, relleno sanitario); donde se usó un Algoritmo Genético para determinar el orden de visita de los contenedores soterrados en base a las rutas determinadas en “Grafo Tipo 1”. Ese orden fue exportado a un archivo “.xlsx” encontrándose una disminución anual de 4295km con respecto al recorrido oficial y un ahorro de 6723 soles
    corecore