16 research outputs found

    La inteligencia artificial en la actualidad

    Get PDF
    La Inteligencia Artificial (IA) ha tenido en los últimos años una implicación cada vez mayor en el área de desarrollo de software, tratando de alcanzar un sólo objetivo: “incorporar inteligencia” en agentes no vivos y que ésta sea muy similar a la de un ser humano. Ese anhelo por crear software que incorpore procesos que solamente la inteligencia humana puede realizar es un reto y se ha convertido en una actividad atractiva en la que muchos ya están dando sus primeros resultados. La inteligencia artificial abre un mundo de posibilidades a quien conoce su potencial, ya que proporciona un amplio conjunto de métodos, técnicas y algoritmos que, mediante su estudio exhaustivo y cuidadoso, pueden ser incluidas en distintas aplicaciones financieras, educativas, de seguridad informática, videojuegos, entre otras y que son muestra clara de la intervención de la IA en nuestras actividades diarias

    Estudio e implementación de metaheurísticas para solucionar el problema de la selección deseada

    Get PDF
    Evolutionary algorithms are among the most successful approaches for solving a number of problems where systematic search in huge domains must be performed. One problem of practical interest that falls into this category is known as The Root Identification Problem in Geometric Constraint Solving, where one solution to the geometric problem must be selected among a number of possible solutions bounded by an exponential number. In this work we analize habilities and drawbacks of a series of metaheuristics in relation with the Root identification problem.Postprint (published version

    Contribución a la negociación automática en espacios de utilidad complejos

    Get PDF
    Premio Extraordinario de Doctorado 2012Podemos entender la negociación como una interacción entre varias partes que intentan alcanzar un acuerdo en relación a una serie de atributos que les suponen un conflicto de intereses. Así definida, la negociación está presente en numerosos aspectos de la vida cotidiana, desde las relaciones personales a la economía o la política internacional. Algunos escenarios de negociación pueden ser total o parcialmente automatizados, beneficiándose así de las ventajas en cuanto a eficiencia del empleo de técnicas de inteligencia artificial. Entre los problemas que ya se han abordado con éxito en la literatura haciendo uso de negociación automática entre agentes podemos destacar diferentes escenarios de negociación en comercio electrónico y problemas de reparto de recursos o tareas, como por ejemplo cadenas de producción o reparto de carga computacional en procesos informáticos. La automatización de los procesos de negociación permite no sólo replicar la toma de decisiones humana en escenarios de negociación tradicionales, sino también abordar problemas en los que la negociación con humanos no es viable, ya sea por la complejidad del escenario o por las limitaciones temporales del proceso de negociación. Dentro de este ámbito, existe un interés creciente por el estudio de escenarios de negociación complejos, como pueden ser las negociaciones de contratos jurídicos o los acuerdos de requisitos entre proveedores y clientes. En este tipo de escenarios, son frecuentes las negociaciones de múltiples atributos interdependientes. La complejidad inherente a este tipo de problemas de negociación sugiere la automatización total o parcial del proceso, especialmente cuando existen restricciones temporales severas sobre la duración de la negociación. Sin embargo, la dependencia entre atributos genera espacios de utilidad no lineales, haciendo que los mecanismos clásicos de negociación automática no sean aplicables. Incluso mecanismos específicamente diseñados para escenarios no lineales pueden fallar si la complejidad del espacio de utilidades aumenta considerablemente. Existe, por tanto, la necesidad de diseñar mecanismos que permitan negociar de forma efectiva y eficaz en escenarios que impliquen espacios de utilidad de elevada complejidad. Esta tesis aborda el problema de la negociación automática multilateral en espacios de utilidad complejos, tratando de dar respuesta a esta necesidad. Para ello se propone un modelo de negociación especialmente diseñado para este tipo de escenarios. El modelo comprende la representación de las preferencias de los agentes, la especificación del protocolo de interacción que gobierna la negociación, y el diseño de estrategias heurísticas para la toma de decisiones de los agentes. Para las preferencias de los agentes, se opta por funciones de utilidad basadas en restricciones ponderadas, y se presenta un generador de preferencias que permite diseñar, a partir de un conjunto de parámetros, escenarios de complejidad ajustable, tanto en lo referente a la complejidad de los espacios de preferencias individuales de los agentes como en lo referente a la correlación mutua de las funciones de utilidad de los diferentes agentes. Para el proceso de negociación, este trabajo parte de la hipótesis de que, en escenarios en los que los espacios de utilidad de los agentes son complejos, la dificultad de la consecución de acuerdos mutuamente aceptables puede paliarse buscando un equilibrio adecuado entre los objetivos individuales de maximización de la utilidad de cada agente, y el objetivo social de la consecución del acuerdo. Teniendo esto en cuenta, se propone un protocolo de interacción expresivo e iterativo basado en subastas, que permite a los agentes refinar sus propuestas en cada iteración sirviéndose de la capacidad expresiva que proporcionan las técnicas de argumentación. Finalmente, se diseña un conjunto de estrategias para la toma de decisiones de los agentes, orientadas a equilibrar el beneficio obtenido y la probabilidad de acuerdo en función de la actitud hacia el riesgo de cada agente. Una vez formulada la propuesta, se ha realizado una exhaustiva evaluación experimental orientada a determinar la contribución a la negociación de los mecanismos propuestos en términos de efectividad y eficiencia. Los experimentos realizados han confirmado nuestra hipótesis de trabajo y la adecuación de nuestra propuesta basada en el equilibrio entre utilidad y probabilidad de acuerdo y la capacidad expresiva de los agentes, y nos han permitido extraer importantes conclusiones en el ámbito de investigación de los sistemas de negociación automática multilateral multiatributo para espacios de utilidad complejos

    Contribución a la negociación automática en espacios de utilidad complejos

    Get PDF
    Premio Extraordinario de Doctorado 2012Podemos entender la negociación como una interacción entre varias partes que intentan alcanzar un acuerdo en relación a una serie de atributos que les suponen un conflicto de intereses. Así definida, la negociación está presente en numerosos aspectos de la vida cotidiana, desde las relaciones personales a la economía o la política internacional. Algunos escenarios de negociación pueden ser total o parcialmente automatizados, beneficiándose así de las ventajas en cuanto a eficiencia del empleo de técnicas de inteligencia artificial. Entre los problemas que ya se han abordado con éxito en la literatura haciendo uso de negociación automática entre agentes podemos destacar diferentes escenarios de negociación en comercio electrónico y problemas de reparto de recursos o tareas, como por ejemplo cadenas de producción o reparto de carga computacional en procesos informáticos. La automatización de los procesos de negociación permite no sólo replicar la toma de decisiones humana en escenarios de negociación tradicionales, sino también abordar problemas en los que la negociación con humanos no es viable, ya sea por la complejidad del escenario o por las limitaciones temporales del proceso de negociación. Dentro de este ámbito, existe un interés creciente por el estudio de escenarios de negociación complejos, como pueden ser las negociaciones de contratos jurídicos o los acuerdos de requisitos entre proveedores y clientes. En este tipo de escenarios, son frecuentes las negociaciones de múltiples atributos interdependientes. La complejidad inherente a este tipo de problemas de negociación sugiere la automatización total o parcial del proceso, especialmente cuando existen restricciones temporales severas sobre la duración de la negociación. Sin embargo, la dependencia entre atributos genera espacios de utilidad no lineales, haciendo que los mecanismos clásicos de negociación automática no sean aplicables. Incluso mecanismos específicamente diseñados para escenarios no lineales pueden fallar si la complejidad del espacio de utilidades aumenta considerablemente. Existe, por tanto, la necesidad de diseñar mecanismos que permitan negociar de forma efectiva y eficaz en escenarios que impliquen espacios de utilidad de elevada complejidad. Esta tesis aborda el problema de la negociación automática multilateral en espacios de utilidad complejos, tratando de dar respuesta a esta necesidad. Para ello se propone un modelo de negociación especialmente diseñado para este tipo de escenarios. El modelo comprende la representación de las preferencias de los agentes, la especificación del protocolo de interacción que gobierna la negociación, y el diseño de estrategias heurísticas para la toma de decisiones de los agentes. Para las preferencias de los agentes, se opta por funciones de utilidad basadas en restricciones ponderadas, y se presenta un generador de preferencias que permite diseñar, a partir de un conjunto de parámetros, escenarios de complejidad ajustable, tanto en lo referente a la complejidad de los espacios de preferencias individuales de los agentes como en lo referente a la correlación mutua de las funciones de utilidad de los diferentes agentes. Para el proceso de negociación, este trabajo parte de la hipótesis de que, en escenarios en los que los espacios de utilidad de los agentes son complejos, la dificultad de la consecución de acuerdos mutuamente aceptables puede paliarse buscando un equilibrio adecuado entre los objetivos individuales de maximización de la utilidad de cada agente, y el objetivo social de la consecución del acuerdo. Teniendo esto en cuenta, se propone un protocolo de interacción expresivo e iterativo basado en subastas, que permite a los agentes refinar sus propuestas en cada iteración sirviéndose de la capacidad expresiva que proporcionan las técnicas de argumentación. Finalmente, se diseña un conjunto de estrategias para la toma de decisiones de los agentes, orientadas a equilibrar el beneficio obtenido y la probabilidad de acuerdo en función de la actitud hacia el riesgo de cada agente. Una vez formulada la propuesta, se ha realizado una exhaustiva evaluación experimental orientada a determinar la contribución a la negociación de los mecanismos propuestos en términos de efectividad y eficiencia. Los experimentos realizados han confirmado nuestra hipótesis de trabajo y la adecuación de nuestra propuesta basada en el equilibrio entre utilidad y probabilidad de acuerdo y la capacidad expresiva de los agentes, y nos han permitido extraer importantes conclusiones en el ámbito de investigación de los sistemas de negociación automática multilateral multiatributo para espacios de utilidad complejos

    Desarrollo de técnicas bioinformáticas para el análisis de datos de secuenciación masiva en sistemática y genómica evolutiva: Aplicación en el análisis del sistema quimiosensorial en artrópodos

    Get PDF
    [spa] Las tecnologías de secuenciación de próxima generación (NGS) proporcionan datos potentes para investigar cuestiones biológicas y evolutivas fundamentales, como estudios relacionados con la genómica evolutiva de la adaptación y la filogenética. Actualmente, es posible llevar a cabo proyectos genómicos complejos analizando genomas completos y / o transcriptomas, incluso de organismos no modelo. En esta tesis, hemos realizado dos estudios complementarios utilizando datos NGS. En primer lugar, hemos analizado el transcriptoma (RNAseq) de los principales órganos quimiosensoriales del quelicerado Macrothele calpeiana, Walckenaer, 1805, la única araña protegida en Europa, para investigar el origen y la evolución del sistema quimiosensorial (SQ) en los artrópodos. El SQ es un proceso fisiológico esencial para la supervivencia de los organismos, y está involucrado en procesos biológicos vitales, como la detección de alimentos, parejas o depredadores y sitios de ovoposición. Este sistema, está relativamente bien caracterizado en hexápodos, pero existen pocos estudios en otros linajes de artrópodos. El análisis de nuestro transcriptoma permitió detectar algunos genes expresados en los supuestos órganos quimiosensoriales de los quelicerados, como cinco NPC2 y dos IR. Además, también detectamos 29 tránscritos adicionales después de incluir en los perfiles de HMM nuevos miembros del SQ de genomas de artrópodos recientemente disponibles, como algunos genes de las familias de los SNMP, ENaC, TRP, GR y una OBP-like. Desafortunadamente, muchos de ellos eran fragmentos parciales. En segundo lugar, también hemos desarrollado algunas herramientas bioinformáticas para analizar datos de RNAseq y desarrollar marcadores moleculares. Los investigadores interesados en la aplicación biológica de datos NGS pueden carecer de la experiencia bioinformática requerida para el tratamiento de la gran cantidad de datos generados. En este contexto, principalmente, es necesario el desarrollo de herramientas fáciles de usar para realizar todos los procesos relacionados con el procesamiento básico de datos NGS y la integración de utilidades para realizar análisis posteriores. En esta tesis, hemos desarrollado dos herramientas bioinformáticas con interfaz gráfica, que permite realizar todos los procesos comunes del procesamiento de datos NGS y algunos de los principales análisis posteriores: i) TRUFA (TRanscriptome User-Friendly Analysis), que permite analizar datos RNAseq de organismos que no modelos, incluyendo la anotación funcional y el análisis de expresión génica diferencial; y ii) DOMINO (Development Of Molecular markers In Non-model Organisms), que permite identificar y seleccionar marcadores moleculares apropiados para análisis de biología evolutiva. Estas herramientas han sido validadas utilizando simulaciones por ordenador y datos experimentales, principalmente de arañas.[eng] The Next Generation Sequencing (NGS) technologies are providing powerful data to investigate fundamental biological and evolutionary questions including phylogenetic and adaptive genomic topics. Currently, it is possible to carry out complex genomic projects analyzing the complete genomes and/or transcriptomes even in non-model organisms. In this thesis, we have performed two complementary studies using NGS data. Firstly, we have analyzed the transcriptome (RNAseq) of the main chemosensory organs of the chelicerate Macrothele calpeiana, Walckenaer, 1805, the only spider protected in Europe, to investigate the origin and evolution of the Chemosensory System (CS) in arthropods. The CS is an essential physiological process for the survival of organisms, and it is involved in vital biological processes, such as the detection of food, partners or predators and oviposition sites. This system, which has it relatively well characterized in hexapods, is completely unknown in other arthropod lineages. Our transcriptome analysis allowed to detect some genes expressed in the putative chemosensory organs of chelicerates, such as five NPC2s and two IRs. Furthermore, we detected 29 additional transcripts after including new CS members from recently available genomes in the HMM profiles, such as the SNMPs, ENaCs, TRPs, GRs and one OBP-like. Unfortunately, many of them were partial fragments. Secondly, we have also developed some bioinformatics tools to analyze RNAseq data, and to develop molecular markers. Researchers interested in the biological application of NGS data may lack the bioinformatic expertise required for the treatment of the large amount of data generated. In this context, the development of user-friendly tools for common data processing and the integration of utilities to perform downstream analysis is mostly needed. In this thesis, we have developed two bioinformatics tools with an easy to use graphical interface to perform all the basics processes of the NGS data processing: i) TRUFA (TRanscriptome User-Friendly Analysis), that allows analyzing RNAseq data from non-model organisms, including the functional annotation and differential gene expression analysis; and ii) DOMINO (Development of Molecular markers in Non-model Organisms), which allows identifying and selecting molecular markers appropriated for evolutionary biology analysis. These tools have been validated using computer simulations and experimental data, mainly from spiders

    Hacia una representación del conocimiento basada en la percepción

    Get PDF
    Mención Internacional en el título de doctorEsta Tesis define un marco de referencia para crear un modelo de representación del conocimiento inspirándose en la componente biológica cognitiva. Con ello se pretende conseguir un meta-modelo que se comporte de manera análoga a cómo funciona el sistema de adquisición, representación y almacenamiento de la información en los seres humanos, considerando los principales componentes cognitivos asociados: la percepción, el conocimiento y la memoria. Se espera de dicho meta-modelo el poder extender las capacidades del ser humano (limitación perceptual, tanto en capacidad como en variedad), reduciendo sus inconvenientes, de manera que sea posible integrar más información semántica en cada una de las entidades almacenadas en la Base de Conocimiento Global. Dicho conocimiento global podrá ser usado posteriormente en una gran variedad de Sistemas de Información, tales como motores de inferencia avanzados, planificadores y sistemas de recomendación, entre otros. El marco de referencia está compuesto por tres partes bien diferenciadas: - Una serie de Principios Fundamentales identificados y obtenidos mediante un análisis exhaustivo de la literatura, en el área de la Psicología y la Neurociencia Cognitiva. - Una serie de Características Tecnológicas inferidas por dichos principios y soportadas por un estudio del estado actual en el área de las Ciencias de la Computación. - Una implementación modular, distribuida, escalable, eficiente y segura del modelo de representación basada en las características tecnológicas y en los principios fundamentales expuestos. El marco de referencia ha sido validado en sus componentes teóricas mediante expertos en la materia para ambos campos, y en su componente práctica mediante una implementación física y su correspondiente experimentación.This Thesis defines a framework to create a knowledge representation model inspired by the biological cognitive component. With this, it is sought to achieve a meta-model that behaves in an analogous way as the acquisition, representation and storage systems in humans, considering the main associated cognitive components: perception, knowledge and memory. This meta-model is expected to extend the capabilities of the mankind (perceptual limitation, both in capacity and variety), reducing its drawbacks, so that it is possible to integrate more semantic information in each one of the entities stored in the Global Knowledge Base. Such global knowledge can later be used in a wide variety of Information Systems, such as advanced inference engines, planners and recommendation systems, among others. The framework is composed by three distinct parts: - A set of Fundamental Principles identified and obtained through an exhaustive analysis of the literature, in the area of Psychology and Cognitive Neuroscience. - A series of Technical Characteristics inferred by such Fundamental Principles and supported by a study of the current state in the area of Computer Science. - A modular, distributed, scalable, efficient and secure implementation of the representation model based on the technological characteristics and fundamental principles exposed. The framework has been validated in its theoretical components by experts in both fields, and in its practical component through a physical implementation and its corresponding experimentation.Programa Oficial de Doctorado en Ciencia y Tecnología InformáticaPresidente: María Isabel Sánchez Segura.- Secretario: Agustín Gonzalo Cuevas.- Vocal: Alan Edwin Serrano-Ric

    Algoritmos meméticos para la resolución de problemas combinatorios de satisfacción con restricciones y con simetrías

    Get PDF
    Dicho análisis incluye un estudio del empleo de diferentes arquitecturas cooperativas que utilizan un variado número de algoritmos metaheurísticos e híbridos, apoyándonos en métodos estadísticos propuestos para la evaluación de este tipo de algoritmos.Este trabajo se enfoca en la resolución de problemas complejos de optimización, principalmente con el objetivo de prestar atención al modelado y ajuste de diversas técnicas metaheurísticas con el fin de resolver problemas de optimización con simetrías. La principal motivación para el desarrollo de esta investigación ha sido presentar una metodología que reúna las líneas principales que se deben seguir al momento de abordar este tipo de problemas. Es por ello que hemos utilizado un enfoque incremental de corte integrativo que involucre aspectos relacionados con la construcción o aplicación de modelos adecuados para la representación de los problemas objeto de estudio, considerando diferentes formas de representación enmarcados en la teoría de la dualidad, e intentando emplear algún mecanismo que permita reducir el paisaje de búsqueda (esto es, ruptura de simetrías). Se ha empleado un esquema de colaboración utilizando diferentes modelos de arquitectura, así como algoritmos híbridos evolutivos con diferentes métodos de búsqueda local. Además, consideraremos la utilización de un enfoque colaborativo entre las metaheurísticas propuestas a través de la definición de topologías de comunicación entre los diferentes componentes que participan en dicho esquema. Este enfoque propuesto se engloba dentro del paradigma de los algoritmos meméticos y ha sido validado empíricamente por medio dos problemas de optimización combinatoria que presentan un alto grado de complejidad, cuyos espacios de búsqueda son ricos en lo que se refiere a presencia de estados simétricos, y que han sido tradicionalmente formulados y resueltos por medio de técnicas de programación lineal entera (ILP) y programación con restricciones (CP). A tal fin, se presenta un extenso análisis de los resultados obtenidos con el fin de validar la adecuación y la eficacia de las técnicas metaheurísticas propuestas

    Actas del XXIV Workshop de Investigadores en Ciencias de la Computación: WICC 2022

    Get PDF
    Compilación de las ponencias presentadas en el XXIV Workshop de Investigadores en Ciencias de la Computación (WICC), llevado a cabo en Mendoza en abril de 2022.Red de Universidades con Carreras en Informátic

    Aplicabilidad del Procesamiento de Lenguaje Natural al análisis de errores en logs de aplicativos utilizados en el área de BSS (Business Support System)

    Get PDF
    Este estudio se ha realizado en colaboración con la empresa HPE CDS; en él se resume una investigación sobre la aplicabilidad de la tecnología de Machine Learning en la lectura de logs, y más concretamente la lectura de logs generados por las máquinas de Mediación de una empresa de telecomunicaciones. La finalidad de este trabajo es determinar la viabilidad de la implantación de la tecnología mencionada a fin de prevenir posibles abortos de las máquinas en esta área de la telefonía. Se analiza por un lado el funcionamiento de la tecnología Machine Learning y, por otro, cómo funciona el Business Support System dentro del área de Mediación de Telefonía. Gracias a este análisis, se sugiere la fórmula para aplicar dicha tecnología a la mencionada lectura de logs, así como su viabilidad en un entorno real. La metodología para la realización de las pruebas ha sido el análisis de los datos desde distintas perspectivas de tratamiento de los mismos, mediante el lenguaje Python y su librería scikit-learn. Al final del estudio se exponen una serie de conclusiones derivadas de las distintas pruebas realizadas, y se abren diferentes vías de análisis, de cara a la realización de otros estudios prácticos.Grado en Ingeniería Informática de Servicios y Aplicacione

    A new ant colony optimization model for complex graph-based problems

    Full text link
    Tesis doctoral inédita leída en la Universidad Autónoma de Madrid. Escuela Politécnica Superior, Departamento de Ingeniería Informática. Fecha de lectura: julio de 2014Nowadays, there is a huge number of problems that due to their complexity have employed heuristic-based algorithms to search for near-to-optimal (or even optimal) solutions. These problems are usually NP-complete, so classical algorithms are not the best candidates to address these problems because they need a large amount of computational resources, or they simply cannot find any solution when the problem grows. Some classical examples of these kind of problems are the Travelling Salesman Problem (TSP) or the N-Queens problem. It is also possible to find examples in real and industrial domains related to the optimization of complex problems, like planning, scheduling, Vehicle Routing Problems (VRP), WiFi network Design Problem (WiFiDP) or behavioural pattern identification, among others. Regarding to heuristic-based algorithms, two well-known paradigms are Swarm Intelligence and Evolutionary Computation. Both paradigms belongs to a subfield from Artificial Intelligence, named Computational Intelligence that also contains Fuzzy Systems, Artificial Neural Networks and Artificial Immune Systems areas. Swarm Intelligence (SI) algorithms are focused on the collective behaviour of selforganizing systems. These algorithms are characterized by the generation of collective intelligence from non-complex individual behaviour and the communication schemes amongst them. Some examples of SI algorithms are particle swarm optimization, ant colony optimization (ACO), bee colony optimization o bird flocking. Ant Colony Optimization (ACO) are based on the foraging behaviour of these insects. In these kind of algorithms, the ants take different decisions during their execution that allows them to build their own solution to the problem. Once any ant has finished its execution, the ant goes back through the followed path and it deposits, in the environment, pheromones that contains information about the built solution. These pheromones will influence the decision of future ants, so there is an indirect communication through the environment called stigmergy. When an ACO algorithm is applied to any of the optimization problems just described, the problem is usually modelled into a graph. Nevertheless, the classical graph-based representation is not the best one for the execution of ACO algorithms because it presents some important pitfalls. The first one is related to the polynomial, or even exponential, growth of the resulting graph. The second pitfall is related to those problems that needs from real variables because these problems cannot be modelled using the classical graph-based representation. On the other hand, Evolutionary Computation (EC) are a set of population-based algorithms based in the Darwinian evolutionary process. In this kind of algorithms there is one (or more) population composed by different individuals that represent a possible solution to the problem. For each iteration, the population evolves by the use of evolutionary procedures which means that better individuals (i.e. better solutions) are generated along the execution of the algorithm. Both kind of algorithms, EC and SI, have been traditionally applied in previous NP-hard problems. Different population-based strategies have been developed, compared and even combined to design hybrid algorithms. This thesis has been focused on the analysis of classical graph-based representations and its application in ACO algorithms into complex problems, and the development of a new ACO model that tries to take a step forward in this kind of algorithms. In this new model, the problem is represented using a reduced graph that affects to the ants behaviour, which becomes more complex. Also, this size reduction generates a fast growth in the number of pheromones created. For this reason, a new metaheuristic (called Oblivion Rate) has been designed to control the number of pheromones stored in the graph. In this thesis different metaheuristics have been designed for the proposed system and their performance have been compared. One of these metaheuristics is the Oblivion Rate, based on an exponential function that takes into account the number of pheromones created in the system. Other Oblivion Rate function is based on a bioinspired swarm algorithm that uses some concepts extracted from the evolutionary algorithms. This bio-inspired swarm algorithm is called Coral Reef Opmization (CRO) algorithm and it is based on the behaviour of the corals in a reef. Finally, to test and validate the proposed model, different domains have been used such as the N-Queens Problem, the Resource-Constraint Project Scheduling Problem, the Path Finding problem in Video Games, or the Behavioural Pattern Identification in users. In some of these domains, the performance of the proposed model has been compared against a classical Genetic Algorithm to provide a comparative study and perform an analytical comparison between both approaches.En la actualidad, existen un gran número de problemas que debido a su complejidad necesitan algoritmos basados en heurísticas para la búsqueda de solucionas subóptimas (o incluso óptimas). Normalmente, estos problemas presentan una complejidad NP-completa, por lo que los algoritmos clásicos de búsqueda de soluciones no son apropiados ya que necesitan una gran cantidad de recursos computacionales, o simplemente, no son capaces de encontrar alguna solución cuando el problema crece. Ejemplos clásicos de este tipo de problemas son el problema del vendedor viajero (o TSP del inglés Travelling Salesman Problem) o el problema de las N-reinas. También se pueden encontrar ejemplos en dominios reales o industriales que generalmente están ligados a temas de optimización de sistemas complejos, como pueden ser problemas de planificación, scheduling, problemas de enrutamiento de vehículos (o VRP del inglés Vehicle Routing Problem), el diseño de redes Wifi abiertas (o WiFiDP del inglés WiFi network Design Problem), o la identificación de patrones de comportamiento, entre otros. En lo referente a los algoritmos basados en heuristicas, dos paradigmas muy conocidos son los algoritmos de enjambre (Swarm Intelligence) y la computación evolutiva (Evolutionary Computation). Ambos paradigmas pertencen al subárea de la Inteligencia Artificial denominada Inteligencia Computacional, que además contiene los sistemas difusos, redes neuronales y sistemas inmunológicos artificiales. Los algoritmos de inteligencia de enjambre, o Swarm Intelligence, se centran en el comportamiento colectivo de sistemas auto-organizativos. Estos algoritmos se caracterizan por la generación de inteligencia colectiva a partir del comportamiento, no muy complejo, de los individuos y los esquemas de comunicación entre ellos. Algunos ejemplos son particle swarm optimization, ant colony optimization (ACO), bee colony optimization o bird flocking. Los algoritmos de colonias de hormigas (o ACO del inglés Ant Colony Optimization) se basan en el comportamiento de estos insectos en el proceso de recolección de comida. En este tipo de algoritmos, las hormigas van tomando decisiones a lo largo de la simulación que les permiten construir su propia solución al problema. Una vez que una hormiga termina su ejecución, deshace el camino andado depositando en el entorno feronomas que contienen información sobre la solución construida. Estas feromonas influirán en las decisiones de futuras hormigas, por lo que produce una comunicación indirecta utilizando el entorno. A este proceso se le llama estigmergia. Cuando un algoritmo de hormigas se aplica a alguno de los problemas de optimización descritos anteriormente, se suele modelar el problema como un grafo sobre el cual se ejecutarán las hormigas. Sin embargo, la representación basada en grafos clásica no parece ser la mejor para la ejecución de algoritmos de hormigas porque presenta algunos problemas importantes. El primer problema está relacionado con el crecimiento polinómico, o incluso expnomencial, del grafo resultante. El segundo problema tiene que ver con los problemas que necesitan de variables reales, o de coma flotante, porque estos problemas, con la representación tradicional basada en grafos, no pueden ser modelados. Por otro lado, los algoritmos evolutivos (o EC del inglés Evolutionary Computation) son un tipo de algoritmos basados en población que están inspirados en el proceso evolutivo propuesto por Darwin. En este tipo de algoritmos, hay una, o varias, poblaciones compuestas por individuos diferentes que representan problems solutiones al problema modelado. Por cada iteración, la población evoluciona mediante el uso de procedimientos evolutivos, lo que significa que mejores individuos (mejores soluciones) son creados a lo largo de la ejecución del algoritmo. Ambos tipos de algorithmos, EC y SI, han sido tradicionalmente aplicados a los problemas NPcompletos descritos anteriormente. Diferentes estrategias basadas en población han sido desarrolladas, comparadas e incluso combinadas para el diseño de algoritmos híbridos. Esta tesis se ha centrado en el análisis de los modelos clásicos de representación basada en grafos de problemas complejos para la posterior ejecución de algoritmos de colonias de hormigas y el desarrollo de un nuevo modelo de hormigas que pretende suponer un avance en este tipo de algoritmos. En este nuevo modelo, los problemas son representados en un grafo más compacto que afecta al comportamiento de las hormigas, el cual se vuelve más complejo. Además, esta reducción en el tamaño del grafo genera un rápido crecimiento en el número de feronomas creadas. Por esta razón, una nueva metaheurística (llamada Oblivion Rate) ha sido diseñada para controlar el número de feromonas almacenadas en el grafo. En esta tesis, varias metaheuristicas han sido diseñadas para el sistema propuesto y sus rendimientos han sido comparados. Una de estas metaheurísticas es la Oblivion Rate basada en una función exponencial que tiene en cuenta el número de feromonas creadas en el sistema. Otra Oblivion Rate está basada en un algoritmo de enjambre bio-inspirado que usa algunos conceptos extraídos de la computación evolutiva. Este algoritmo de enjambre bio-inspirado se llama Optimización de arrecifes de corales (o CRO del inglés Coral Reef Optimization) y está basado en el comportamiento de los corales en el arrecife. Finalmente, para validar y testear el modelo propuesto, se han utilizado diversos dominios de aplicación como son el problema de las N-reinas, problemas de planificación de proyectos con restricciones de recursos, problemas de búsqueda de caminos en entornos de videojuegos y la identificación de patrones de comportamiento de usuarios. En algunos de estos dominios, el rendimiento del modelo propuesto ha sido comparado contra un algoritmo genético clásico para realizar un estudio comparativo, y analítico, entre ambos enfoques
    corecore