69 research outputs found

    Sobre la toma de decisiones usando razonamiento argumentativo en agentes autónomos

    Get PDF
    Desde hace mucho tiempo, la Toma de Decisiones es objeto de estudio activo en muchas áreas de investigación, como la Filosofía, Economía, Psicología, Ciencias de la Computación, entre otras. Como se discute en [29], es claro que ésta tiene tantas formas de interpretarse como áreas de estudio abordan este tema de investigación. Por ejemplo, desde una perspectiva psicológica, es necesario examinar las decisiones individuales en el contexto del conjunto de necesidades y preferencias que la gente tiene. Esto se debe a que las personas evalúan sus posibilidades basándose en la expectativa de valores subjetivos de lo que se espera de ellas. Desde una perspectiva cognitiva, la toma de decisiones es considerada como el resultado de un proceso mental en continua interacción con el ambiente, con el fin de seleccionar un curso de acción entre las alternativas posibles. El análisis normativo hace hincapié en la definición de racionalidad y en la lógica de la toma de decisiones. Alternativamente, el análisis descriptivo de la toma de decisiones concierne a las creencias y preferencias de las personas como son, y no como deberían ser. Inclusive, a otro nivel, la toma de decisiones puede concebirse como una actividad de resolución de problemas cuya finalización está dada por la obtención de una solución satisfactoria. Por lo tanto, de forma general, podría decirse que la toma de decisiones es un proceso de razonamiento (racional) o emocional (quizás irracional), y que puede estar basado en suposiciones explícitas o implícitasEje: Agentes y sistemas inteligentes. Síntesis de la tesis de igual título, presentada ante la Universidad Nacional de San Luis para obtener el título de Doctor en Ciencias de la Computación (2010).Red de Universidades con Carreras en Informática (RedUNCI

    Inferencia de Redes de Asociación de Genes Guiada por Similitud Semántica

    Get PDF
    En este trabajo se propone el uso de conocimiento a priori como heurística en métodos de inferencia de redes de genes a partir de datos de expresión obtenidos con tecnología de Microarray. Utilizamos Gene Ontology [15] como fuente de conocimiento a priori. Este repositorio se nutre de la información de anotaciones de relaciones en el material genético basadas en evidencias científicas. En este trabajo se propone el uso de medidas de similitud semántica, de manera más concreta la medida SimGIC en un método de inferencia basado en regresión. La propuesta se compara frente al mismo método sin integración de información y frente a otros métodos clásicos obteniendo mejoras y resultados comparables en otros casos

    Identificación de fallas en bujías por desgaste de electrodos en automóviles a través de la extracción de características de audios y clasificación k-nn y svm.

    Get PDF
    La falta de prevención por parte de los conductores lleva a revisar sus vehículos cuando presentan alguna falla que evita que el automóvil funcione. Algunas de estas fallas se presentan por falta de mantenimiento, desconocimiento o por descuido del propietario, así como elementos naturales tales como polvo y agua. Una de las fallas que se presenta es el desgaste de electrodos en bujías. En este trabajo se desarrolló una técnica no invasiva que detecta y clasifica puntualmente las fallas por desgaste de electrodos en bujías de automóviles para prevenir daños más graves, y un mayor consumo de combustible. Al ser una técnica no invasiva se reduce el tiempo en el que el automóvil se encuentra en mantenimiento. El proyecto se desarrolló en tres etapas. En la primera se realizó la grabación de las señales acústicas provenientes de dos motores de automóviles (Honda Civic y Seat Ibiza) con desgaste en los electrodos de las bujías. Dichas grabaciones se sometieron a un análisis en donde se etiquetaron con el fin de tener tres clasificaciones posibles: ninguna falla, 1 falla y 2 fallas. En la segunda etapa se realizó un pre-procesamiento en la que se acortaron en duración las grabaciones, se obtuvieron los espectrogramas y se extrajeron tanto las características MFCC (Mel Frequency Cepstral Coefficients) como las características estadísticas de primer y segundo grado (Media, Mediana, Moda, desviación estándar, varianza, percentiles, etc) de las señales acústicas, para construir dos bases de datos. La detección de fallas se llevó a cabo mediante los clasificadores K-NN (K Nearest Neighbour) y SVM (Support Vector Machine). Las bases de datos se subdividieron en dos subconjuntos con el fin de entrenar y validar los modelos de clasificación. En la tercera etapa se utilizó el escáner ELM327 para determinar el consumo de combustible en cada una de las pruebas realizadas a los dos automóviles. La clasificación utilizando las características de los espectrogramas produjeron una eficiencia del 100% en el entrenamiento y un 53% en la validación del modelo en el mejor de los casos. Cuando se utilizaron las características estadísticas y MFCC la eficiencia en el entrenamiento bajo al 95% y subió hasta el 100% en la validación. De acuerdo a los registros obtenidos del consumo de combustible se tiene que con la presencia de una bujía con electrodos desgastados el consumo incrementa un 2%, mientras que con la presencia de dos bujías con electrodos desgastados el consumo incrementa hasta un 8%. El uso de MFCC y características estadísticas incrementa la eficiencia de la clasificación de las señales acústicas

    Algoritmos Meméticos con Propiedades Self-* para la Optimización de Problemas Complejos

    Get PDF
    Las propiedades self-* de un sistema son aquellas que le permiten controlar de forma autónoma diferentes aspectos de su funcionamiento. En esta tesis doctoral se estudia el diseño y desarrollo de algoritmos meméticos con propiedades self-* a partir de una clase de algoritmo multimemético (MMA) con estructura espacial. En este MMA la población se dispone conforme a una cierta topología que permite restringir las interacciones entre los individuos, y en él los memes se definen como reglas de reescritura. Estos memes están sujetos a un proceso evolutivo propio similar al de la evolución genética mediante el cual pueden variar su estructura y complejidad, auto-optimizando de esta forma el proceso de búsqueda local. En este contexto se estudia la propagación y difusión de los memes a través de la población, proceso en el que la calidad de estos últimos solo se percibe indirectamente por el efecto que producen sobre los genotipos. Considerando el modelo teórico anterior como sustrato se incorporan características adicionales al MMA. Por un lado se crean algoritmos híbridos con el uso de modelos probabilísticos para la generación de la descendencia utilizando algoritmos de estimación de distribuciones (EDAs) y por otro, se consideran MMAs basados en islas. Este último modelo distribuido es objeto de un estudio más detallado, analizándose cómo afecta a su funcionamiento la utilización de diferentes políticas de migración de individuos entre nodos y el impacto que sobre el rendimiento de los mismos tiene la inestabilidad del entorno donde se ejecutan. Para ello se diseñan mecanismos de tolerancia a fallos y se estudia la utilización de redes complejas como topología de interconexión de los nodos. Asimismo, se proporciona al algoritmo la capacidad de escalabilidad automática mediante técnicas de auto-equilibrado de la carga, de forma tal que el propio MMA sea capaz, por sí mismo y sin necesidad de recurrir a un control central, de auto-adaptarse a la volatilidad del entorno. Finalmente se incorporan procedimientos de auto-reparación para compensar el deterioro producido por dicha inestabilidad: (i) auto-muestreo a través de un modelo probabilístico dinámico sobre las poblaciones de los nodos y (ii) auto-adaptación de la topología de interconexión a medida que diferentes nodos de cómputo entran o abandonan el sistema. Los experimentos realizados permiten concluir que la auto-adaptación de los memes contribuye a mejorar el rendimiento del MMA, así como que los modelos híbridos que utilizan EDAs proporcionan resultados notables, preferentemente los basados en distribuciones bivariadas. Con respecto al modelo de islas, las políticas de migración relativas a la selección de los migrantes o la estrategia de reemplazo de estos en la isla receptora son determinantes. Asimismo, las estrategias de gestión de fallos basadas en puntos de restauración mitigan la degradación del rendimiento conforme la red se vuelve más volátil, si bien conllevan sobrecargas computacionales. Como alternativa, la incorporación de propiedades self-* tales como el auto-equilibrado de la carga, el auto-muestreo probabilístico o la auto-adaptación de la topología de la red, tiene un impacto claramente positivo en el sistema, limitando su degradación en escenarios altamente inestables

    Verif cation of Real-Time Bounded Distributed Systems With Mobility

    Get PDF
    We introduce and study a prototyping language for describing real-time distributed systems. Its time constraints are expressed as bounded intervals to model the uncertainty of the delay in migration and communication of agents placed in the locations of a distributed system. We provide the operational semantics, and illustrate the new language by a detailed example for which we use software tools for analyzing its temporal properties

    Soft computing and non-parametric techniques for effective video surveillance systems

    Get PDF
    Esta tesis propone varios objetivos interconectados para el diseño de un sistema de vídeovigilancia cuyo funcionamiento es pensado para un amplio rango de condiciones. Primeramente se propone una métrica de evaluación del detector y sistema de seguimiento basada en una mínima referencia. Dicha técnica es una respuesta a la demanda de ajuste de forma rápida y fácil del sistema adecuándose a distintos entornos. También se propone una técnica de optimización basada en Estrategias Evolutivas y la combinación de funciones de idoneidad en varios pasos. El objetivo es obtener los parámetros de ajuste del detector y el sistema de seguimiento adecuados para el mejor funcionamiento en una amplia gama de situaciones posibles Finalmente, se propone la construcción de un clasificador basado en técnicas no paramétricas que pudieran modelar la distribución de datos de entrada independientemente de la fuente de generación de dichos datos. Se escogen actividades detectables a corto plazo que siguen un patrón de tiempo que puede ser fácilmente modelado mediante HMMs. La propuesta consiste en una modificación del algoritmo de Baum-Welch con el fin de modelar las probabilidades de emisión del HMM mediante una técnica no paramétrica basada en estimación de densidad con kernels (KDE). _____________________________________This thesis proposes several interconnected objectives for the design of a video-monitoring system whose operation is thought for a wide rank of conditions. Firstly an evaluation technique of the detector and tracking system is proposed and it is based on a minimum reference or ground-truth. This technique is an answer to the demand of fast and easy adjustment of the system adapting itself to different contexts. Also, this thesis proposes a technique of optimization based on Evolutionary Strategies and the combination of fitness functions. The objective is to obtain the parameters of adjustment of the detector and tracking system for the best operation in an ample range of possible situations. Finally, it is proposed the generation of a classifier in which a non-parametric statistic technique models the distribution of data regardless the source generation of such data. Short term detectable activities are chosen that follow a time pattern that can easily be modeled by Hidden Markov Models (HMMs). The proposal consists in a modification of the Baum-Welch algorithm with the purpose of modeling the emission probabilities of the HMM by means of a nonparametric technique based on the density estimation with kernels (KDE)

    Development of a clinical decision support system, using rough sets and type 2 fuzzy control

    Get PDF
    Sistema intel·ligent de suport a la presa de decisions basat en rough i fuzzy sets

    Analizando los efectos del diseño contractual y estructural en la cadena de suministro del sector salud

    Get PDF
    Introducción Balancear el acceso a medicamentos necesarios contra el aumento en los costes es uno de los retos fundamentales en el diseño y la reforma de los sistemas de salud. Del año 2000 al 2008, el crecimiento promedio en el gasto per capita en productos farmacéuticos para los países de la Organización para la Cooperación y Desarrollo Económico (OCDE) fue de casi 60 %. La problemática se encuentra especialmente presente en el proceso de introducción de nuevos medicamentos orientados al tratamiento de condiciones crónicas. Aquí los precios de lista propuestos por los productores farmacéuticos tienden a ser altos para recuperar la inversión, en algunas ocasiones contrastando con la falta de evidencia robusta con respecto a la coste-efectividad del tratamiento al momento de la negociación del precio de transferencia. Más aún, tal coste-efectividad puede variar a través de las diferentes indicaciones terapéuticas de un mismo medicamento, i.e., para distintos grupos de pacientes. Como resultado, en los acuerdos tradicionales el pagador de salud (e.g., Sistemas Nacionales de Salud, Organizaciones de Mantenimiento de la Salud, grandes empresas aseguradoras) puede verse atrapado entre restringir el acceso al medicamento o arriesgar el pago de altos precios que pueden no justificarse ex-post debido a la incertidumbre sobre el valor real de la innovación terapéutica del medicamento, la falta de solidez en los resultados presentados por el productor, o la replicabilidad de esos resultados en la práctica clínica. En respuesta a la creciente presión para controlar el gasto en el sector salud, los pagadores de salud han empujado a los productores farmacéuticos a reducir los precios, potencialmente reduciendo los incentivos para invertir en tratamientos innovadores, y continuamente resultando en la (temporal o definitiva) ausencia de un acuerdo entre ambos agentes involucrados con la consecuente pérdida de bienestar para los pacientes potenciales y de benficios financieros para el productor. Lo anterior ha motivado a los productores -particularmente aquellos en los sectores cardiovasculares y de oncología- a explorar acuerdos más sofisticados donde los riesgos puedan ser compartidos de una manera más eficiente. Motivados por la tendencia mencionada, reconocemos que un pagador de salud debe decidir no únicamente si aprobar o no un nuevo medicamento para su (parcial o total) reembolso por consumo para la población de pacientes que sirve, sino también determinar el nivel de servicio (cuál será el volumen adquirido para satisfacer la demanda de los pacientes), el nivel de acceso (cuáles grupos de pacientes estarán cubiertos por el pagador de salud), y las condiciones de reembolso a los productores (los parámetros del contrato). Además reconocemos que un pagador de salud puede tener diferentes prioridades según el ambiente social e industrial donde opere (e.g., maximizar la eficiencia de los recursos versus maximizar el bienestar de los pacientes), así como restricciones (e.g., límite máximo de gastos por periodo de demanda para algún medicamento o innovación terapéutica, y un límite mínimo de coste-efectividad). Con respecto a los productores farmacéuticos, consideramos que: la determinación del precio de transferencia puede ser exógena (a través de precios de referencia externos) o endógena (a través de acuerdos directos con los pagadores de salud); que pueden internalizar (parcial o totalmente) el riesgo de mantener el inventario; y que en algunos casos son capaces de segmentar el mercado a través de la creación de productos o canales distinguibles enfocados a cada grupo de pacientes. Preguntas de Investigación En el contexto descrito donde un medicamento innovador con múltiples aplicaciones terapéuticas busca su introducción al mercado, la presente investigación pretende responder de manera analítica las preguntas mostradas a continuación. -- En un sistema verticalmente integrado, ¿cómo interactúan los niveles de acceso y de servicio en función de las prioridades y restricciones del sistema? -- En una cadena de tipo productor - pagador de salud, ¿qué cambia cuando el precio es determinado de manera exógena (vs. endógena) y el productor está (vs. no está) dispuesto a compartir los riesgos asociados a la incertidumbre en la magnitud de la demanda y en los resultados observados en los pacientes? -- Para un medicamento con múltiples aplicaciones terapéuticas, ¿cómo se refleja la decisión de segmentar vs. consolidar el diseño/canal de distribución, en el nivel de servicio y los incentivos para ejercer esfuerzo orientado a la innovación? -- ¿Cuál es el efecto de todo lo anterior en los beneficios del productor farmacéutico, los gastos del pagador de salud, y el bienestar de los pacientes? De este modo, la investigación espera contribuir a una comprensión más amplia del comportamiento del sistema, y así eventualmente orientar el diseño de la estructura y los contratos en las cadenas de suministro del sector salud, de modo que exista una mejor alineación con los objetivos de los agentes involucrados. Metodología y Suposiciones Fundamentales El procedimiento general para responder a las preguntas anteriores se basa en una modelación matemática de las situaciones previamente descritas utilizando la estructura del modelo del vendedor de periódicos (o newsvendor, como se le conoce normalmente en inglés). Esta elección se debe a: i)los tiempos de espera extensos (aproximadamente 4 meses) para la construcción de capacidad productiva, aprovisionamiento de materias primas, producción, y envío de los medicamentos; ii)la práctica común en la industria de ofrecer precios preferenciales para órdenes de gran tamaño, respaldando la suposición sobre la división de la demanda en periodos largos de tiempo; iii)los altos niveles de utilización que son típicos en la industria, limitando la suposición de una amplia capacidad productiva; y iv)la baja probabilidad de, y las consecuencias negativas en tema de salud asociadas con, retrasar el tratamiento médico de un paciente. La cadena de suministro considerada se compone de un productor farmacéutico que ofrece la venta de un medicamento a un pagador de salud quien está a cargo de la disponibilidad de dicho medicamento para la población de pacientes. Se asume que existe heterogeneidad de pacientes de modo que al menos dos grupos de pacientes pueden verse beneficiados al recibir el medicamento, donde se espera que cada grupo obtenga beneficios clínicos diferentes entre sí al consumir el mismo medicamento. Analizamos el problema de optimización con restricciones para el productor, el pagador de salud, o el sistema integrado (según sea el caso en cuestión), utilizando conceptos de teoría de juegos para caractrizar la solución de equilibrio en la toma de decisiones tanto simultáneas como secuenciales. Contribución Teórica En su artículo seminal, Arrow (1963)1 sostiene que la incertidumbre tanto en la incidencia de la enfermedad (i.e., el tamaño de la demanda) como en la eficacia del tratamiento (i.e., el ingreso/beneficio clínico por unidad de tratamiento) genera adaptaciones que limitan el poder descriptivo del modelo tradicional de competencia y sus implicaciones para la eficiencia económica. Tomando esto en cuenta, la disertación contribuye primordialmente a tres vertientes de investigación. Primeramente, la literatura en economía de la salud se concentra sea en la determinación del nivel de acceso dada la heterogeneidad en las características de los pacientes y la incertidumbre en la eficacia del tratamiento (e.g., Barros, 20112; Zaric, 20083), o en la decisión binaria de incluir un medicamento en la lista de tratamientos reembolsables por un pagador de salud dada la incertidumbre en la demanda (e.g., Zhang et al., 20114). En constraste, la tesis analiza de manera simultánea el problema del nivel de acceso e incertidumbre en la demanda, bajo las características específicas del sector. Tal situación es similar al problema planteado en administración de operaciones donde el precio de venta y la cantidad de inventario disponible son determinadas de manera simultánea en la presencia de demanda aleatoria y dependiente del precio. La disertación contribuye a tal línea de investigación (e.g.,., Petruzzi et al., 19995; Salinger et al., 20116) al analizar dicha interacción de decisiones según diferentes diseños de contratos entre el productor y el pagador de salud, bajo una combinación de objetivos y restricciones. Adicionalmente, contribuye a los trabajos en coordinación de la cadena de suministro (e.g.,., Bernstein et al., 20057; Cachon et al., 20058) al permitir que el "ingreso" por unidad "vendida" , i.e., los beneficios clínicos, sea un valor no determinístico, limitando además el espacio de los posibles "precios de venta" a un subconjunto de valores discretos, siendo estos una función del nivel de acceso seleccionado. Finalmente, se contribuye a la literatura de agregación de inventarios (e.g., Eppen, 1979)9 al incorporar la heterogeneidad de pacientes en un sistema de primeras-llegadas primeros-servicios sin posibilidad de reserva, demostrando resultados contrastantes con respecto a las preconcepciones sobre los beneficios generales de la agregación

    Model predictive control for freeway traffic networks

    Get PDF
    Falta palabras claveTraffic congestion on freeways is a critical problem due to higher delays, waste of fuel, a higher accident risk probability, negative impact on the environment, etc. Variable speed limits, ramp metering, and reversible lanes are some of the most often used examples of freeway traffic measures that can be used to dynamically control traffic. Nowadays, most of the dynamic traffic control systems operate according to a linear and local control loop. As explained in the thesis, the use of appropriate non-local and multivariable techniques can considerably improve the reduction in the total time spent by the drivers and other traffic performance indexes. Nonlinear centralized Model Predictive Control (MPC) is probably the best control algorithm choice for a small network as can be seen on previous references. The main practical problem of nonlinear centralized MPC is that the computational time quickly increases with the size of the network making diffcult to apply centralized MPC for large networks. Therefore, completely centralized control of large networks is viewed by most practitioners as impractical and unrealistic. The main objective of this thesis is the proposal of MPC techniques which can be applied, in practice, to real large traffic networks. Possible solutions are the use of distributed MPC (considering the network as a set of subsystems controlling each subsystem by one independent MPC), hybrid MPC (splitting the problem in a continuous optimization for the ramp metering signals and in a discrete optimization for speed limits) or genetic algorithms (finding the fittest individuals within a generation, applying genetic operators for the recombination of those individuals, and generating a good offspring). This thesis proposes and analyses these solutions. Other open problem in freeway traffic control is the dynamic operation of reversible lanes. Despite the long history and widespread use of reversible lanes worldwide, there have been few quantitative evaluations and research studies conducted on their performance. To address this problem, this thesis proposes a macroscopic model for reversible lanes and on-line controllers for the operation of reversible lanes. Moreover, a MPC controller for freeway traffic requires a model to make accurate and reliable predictions of the traffic flow. On the other hand, this model is required to be fast enough, so that it can be used for on-line based control applications. Therefore, it is imperative to select or develop appropriate models, i.e., models that are fast and that provide accurate predictions. In this thesis, the METANET model and its extensions have been selected to be used for the prediction of the traffic flow and, based on this model, new advances in freeway traffic modeling for optimal control strategies are proposed.El ahorro de combustible, la mejora de la movilidad de los ciudadanos, la reducción de las emisiones atmosféricas y de los accidentes de tráfico son algunos de los aspectos claves en las políticas gubernamentales en el primer mundo. Durante los últimos años, un gran esfuerzo investigador se ha centrado en resolver, o mitigar, estos problemas. Debido a que la construcción de nuevos ramales viarios (o la ampliación de las ya presentes) no es siempre una opción viable (por razones económicas o técnicas), es necesaria la búsqueda de otras alternativas. Los sistemas de control dinámico de tráfico miden o estiman el estado de la circulación en cada instante y calculan la señal de control que cambia la respuesta del sistema mejorando su funcionamiento. Las señales de control de tráfico más útiles son los “ramps metering'' (o rampas de acceso controlado) y los “límites dinámicos de velocidad'' (VSL) porque son fáciles de implementar, relativamente baratos y suponen una mejora sustancial en el tiempo total de conducción empleado por los conductores (TTS). En la actualidad, la mayoría de los sistemas de control de tráfico operan usando un control clásico por realimentación, lineal y local. Sin embargo, el uso apropiado de técnicas multivariables y no locales mejorará substancialmente el comportamiento del sistema controlado. El uso de un controlador predictivo basado en modelo (MPC) centralizado es posiblemente la mejor elección para una red de tráfico pequeña. El problema fundamental del MPC centralizado es que el tiempo de computación crece exponencialmente con el tamaño de la red. Por tanto, este tipo de controladores son imposibles de implementar en tiempo real en redes suficientemente grandes. El principal objetivo de la tesis es diseñar un algoritmo de control que pueda ser calculado en tiempo real en una red viaria de gran escala minimizando, al mismo tiempo, el tiempo total de conducción empleado. Las principales contribuciones al estado del arte pueden enumerarse en: • La extensión del modelo de tráfico en autovías METANET para permitir el modelado de carriles reversibles. • Un algoritmo de identificación para los parámetros de METANET, especialmente pensado para casos donde solo hay disponible un número limitado de sensores. • El uso de una nueva definición matemática del diagrama fundamental de tráfico. • La primera comparación directa entre los dos modelos macroscópicos de tráfico más comúnmente usados. • El análisis de la robustez de los controladores predictivos aplicados a sistemas de tráfico (con respecto a variaciones de la demanda de tráfico). • La justificación de la necesidad de usar algoritmos de control globales o distribuidos (y no algoritmos locales) en sistemas de control de tráfico. • El uso de dos algoritmos predictivos distribuidos para el control de tráfico en autovías. • El diseño de un método para obtener los valores óptimos de los límites de velocidad considerando la característica discreta de los mismos y otras restricciones prácticas. • El diseño de un controlador MPC discreto para la operación de carriles reversibles. • Un algoritmo lógico fácilmente implementable para la operación de carriles reversibles.Premio Extraordinario de Doctorado U

    Optimization Techniques for Automated Software Test Data Generation

    Get PDF
    Esta tesis propone una variedad de contribuciones al campo de pruebas evolutivas. Hemos abarcados un amplio rango de aspectos relativos a las pruebas de programas: código fuente procedimental y orientado a objetos, paradigmas estructural y funcional, problemas mono-objetivo y multi-objetivo, casos de prueba aislados y secuencias de pruebas, y trabajos teóricos y experimentales. En relación a los análisis llevados a cabo, hemos puesto énfasis en el análisis estadístico de los resultados para evaluar la significancia práctica de los resultados. En resumen, las principales contribuciones de la tesis son: Definición de una nueva medida de distancia para el operador instanceof en programas orientados a objetos: En este trabajo nos hemos centrado en un aspecto relacionado con el software orientado a objetos, la herencia, para proponer algunos enfoques que pueden ayudar a guiar la búsqueda de datos de prueba en el contexto de las pruebas evolutivas. En particular, hemos propuesto una medida de distancia para computar la distancia de ramas en presencia del operador instanceof en programas Java. También hemos propuesto dos operadores de mutación que modifican las soluciones candidatas basadas en la medida de distancia definida. Definición de una nueva medida de complejidad llamada ``Branch Coverage Expectation'': En este trabajo nos enfrentamos a la complejidad de pruebas desde un punto de vista original: un programa es más complejo si es más difícil de probar de forma automática. Consecuentemente, definimos la ``Branch Coverage Expectation'' para proporcionar conocimiento sobre la dificultad de probar programas. La fundación de esta medida se basa en el modelo de Markov del programa. El modelo de Markov proporciona fundamentos teóricos. El análisis de esta medida indica que está más correlacionada con la cobertura de rama que las otras medidas de código estáticas. Esto significa que esto es un buen modo de estimar la dificultad de probar un programa. Predicción teórica del número de casos de prueba necesarios para cubrir un porcentaje concreto de un programa: Nuestro modelo de Markov del programa puede ser usado para proporcionar una estimación del número de casos de prueba necesarios para cubrir un porcentaje concreto del programa. Hemos comparado nuestra predicción teórica con la media de las ejecuciones reales de un generador de datos de prueba. Este modelo puede ayudar a predecir la evolución de la fase de pruebas, la cual consecuentemente puede ahorrar tiempo y coste del proyecto completo. Esta predicción teórica podría ser también muy útil para determinar el porcentaje del programa cubierto dados un número de casos de prueba. Propuesta de enfoques para resolver el problema de generación de datos de prueba multi-objetivo: En ese capítulo estudiamos el problema de la generación multi-objetivo con el fin de analizar el rendimiento de un enfoque directo multi-objetivo frente a la aplicación de un algoritmo mono-objetivo seguido de una selección de casos de prueba. Hemos evaluado cuatro algoritmos multi-objetivo (MOCell, NSGA-II, SPEA2, y PAES) y dos algoritmos mono-objetivo (GA y ES), y dos algoritmos aleatorios. En términos de convergencia hacía el frente de Pareto óptimo, GA y MOCell han sido los mejores resolutores en nuestra comparación. Queremos destacar que el enfoque mono-objetivo, donde se ataca cada rama por separado, es más efectivo cuando el programa tiene un grado de anidamiento alto. Comparativa de diferentes estrategias de priorización en líneas de productos y árboles de clasificación: En el contexto de pruebas funcionales hemos tratado el tema de la priorización de casos de prueba con dos representaciones diferentes, modelos de características que representan líneas de productos software y árboles de clasificación. Hemos comparado cinco enfoques relativos al método de clasificación con árboles y dos relativos a líneas de productos, cuatro de ellos propuestos por nosotros. Los resultados nos indican que las propuestas para ambas representaciones basadas en un algoritmo genético son mejores que el resto en la mayoría de escenarios experimentales, es la mejor opción cuando tenemos restricciones de tiempo o coste. Definición de la extensión del método de clasificación con árbol para la generación de secuencias de pruebas: Hemos definido formalmente esta extensión para la generación de secuencias de pruebas que puede ser útil para la industria y para la comunidad investigadora. Sus beneficios son claros ya que indudablemente el coste de situar el artefacto bajo pruebas en el siguiente estado no es necesario, a la vez que reducimos significativamente el tamaño de la secuencia utilizando técnicas metaheurísticas. Particularmente nuestra propuesta basada en colonias de hormigas es el mejor algoritmo de la comparativa, siendo el único algoritmo que alcanza la cobertura máxima para todos los modelos y tipos de cobertura. Exploración del efecto de diferentes estrategias de seeding en el cálculo de frentes de Pareto óptimos en líneas de productos: Estudiamos el comportamiento de algoritmos clásicos multi-objetivo evolutivos aplicados a las pruebas por pares de líneas de productos. El grupo de algoritmos fue seleccionado para cubrir una amplia y diversa gama de técnicas. Nuestra evaluación indica claramente que las estrategias de seeding ayudan al proceso de búsqueda de forma determinante. Cuanta más información se disponga para crear esta población inicial, mejores serán los resultados obtenidos. Además, gracias al uso de técnicas multi-objetivo podemos proporcionar un conjunto de pruebas adecuado mayor o menor, en resumen, que mejor se adapte a sus restricciones económicas o tecnológicas. Propuesta de técnica exacta para la computación del frente de Pareto óptimo en líneas de productos software: Hemos propuesto un enfoque exacto para este cálculo en el caso multi-objetivo con cobertura paiwise. Definimos un programa lineal 0-1 y un algoritmo basado en resolutores SAT para obtener el frente de Pareto verdadero. La evaluación de los resultados nos indica que, a pesar de ser un fantástico método para el cálculo de soluciones óptimas, tiene el inconveniente de la escalabilidad, ya que para modelos grandes el tiempo de ejecución sube considerablemente. Tras realizar un estudio de correlaciones, confirmamos nuestras sospechas, existe una alta correlación entre el tiempo de ejecución y el número de productos denotado por el modelo de características del programa
    corecore