19 research outputs found

    Broadening the Horizon of Adversarial Attacks in Deep Learning

    Get PDF
    152 p.Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente el núcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o la conducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitos fundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados deforma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo que implica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado que estas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que,progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar el alcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y seguro de esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevas nociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado de esta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden o amplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces de alcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechas de seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habían sido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades de estos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejor comprensión de estos fenómenos

    On the human evaluation of universal audio adversarial perturbations

    Get PDF
    [EN] Human-machine interaction is increasingly dependent on speech communication, mainly due to the remarkable performance of Machine Learning models in speech recognition tasks. However, these models can be fooled by adversarial examples, which are inputs in-tentionally perturbed to produce a wrong prediction without the changes being noticeable to humans. While much research has focused on developing new techniques to generate adversarial perturbations, less attention has been given to aspects that determine whether and how the perturbations are noticed by humans. This question is relevant since high fool-ing rates of proposed adversarial perturbation strategies are only valuable if the perturba-tions are not detectable. In this paper we investigate to which extent the distortion metrics proposed in the literature for audio adversarial examples, and which are commonly applied to evaluate the effectiveness of methods for generating these attacks, are a reliable mea-sure of the human perception of the perturbations. Using an analytical framework, and an experiment in which 36 subjects evaluate audio adversarial examples according to different factors, we demonstrate that the metrics employed by convention are not a reliable measure of the perceptual similarity of adversarial examples in the audio domain.This work was supported by the Basque Government (PRE_2019_1_0128 predoctoral grant, IT1244-19 and project KK-2020/00049 through the ELKARTEK program); the Spanish Ministry of Economy and Competitiveness MINECO (projects TIN2016-78365-R and PID2019-104966GB-I00); and the Spanish Ministry of Science, Innovation and Universities (FPU19/03231 predoctoral grant). The authors would also like to thank to the Intelligent Systems Group (University of the Basque Country UPV/EHU, Spain) for providing the computational resources needed to develop the project, as well as to all the participants that took part in the experiments

    Extending Adversarial Attacks to Produce Adversarial Class Probability Distributions

    Full text link
    Despite the remarkable performance and generalization levels of deep learning models in a wide range of artificial intelligence tasks, it has been demonstrated that these models can be easily fooled by the addition of imperceptible but malicious perturbations to natural inputs. These altered inputs are known in the literature as adversarial examples. In this paper we propose a novel probabilistic framework to generalize and extend adversarial attacks in order to produce a desired probability distribution for the classes when we apply the attack method to a large number of inputs. This novel attack strategy provides the attacker with greater control over the target model, and increases the complexity of detecting that the model is being attacked. We introduce three different strategies to efficiently generate such attacks, and illustrate our approach extending DeepFool, a state-of-the-art attack algorithm to generate adversarial examples. We also experimentally validate our approach for the spoken command classification task, an exemplary machine learning problem in the audio domain. Our results demonstrate that we can closely approximate any probability distribution for the classes while maintaining a high fooling rate and by injecting imperceptible perturbations to the inputs.Comment: 13 pages, 7 figures, 2 tables, 2 algorithm

    Procesado y análisis de datos procedentes de una máquina de extrusión de polímeros

    Get PDF
    Este Trabajo de Fin de Grado se circunscribe dentro de un proyecto real más amplio, desarrollado en el entorno de la Industria 4.0. El objetivo principal del TFG consiste en realizar, a modo de prueba de concepto, un análisis de datos procedentes de una máquina de extrusión de polímeros, con la finalidad de mostrar la viabilidad y el interés de la aplicación de recursos computacionales enfocados a la fabricación avanzada. Para ello, en primer lugar, se han seleccionado, implementado y validado múltiples técnicas de preprocesado para el tratamiento inicial de los datos. En segundo lugar, se ha analizado, de manera experimental, el comportamiento de diversos modelos de minería de datos en diferentes escenarios, con la finalidad de evaluar el potencial del uso de estos recursos. Por último, tras describir las aportaciones más relevantes, se proponen varias vías de mejora y líneas futuras abiertas que faciliten el desarrollo de objetivos más ambiciosos a largo plazo

    When and How to Fool Explainable Models (and Humans) with Adversarial Examples

    Full text link
    Reliable deployment of machine learning models such as neural networks continues to be challenging due to several limitations. Some of the main shortcomings are the lack of interpretability and the lack of robustness against adversarial examples or out-of-distribution inputs. In this paper, we explore the possibilities and limits of adversarial attacks for explainable machine learning models. First, we extend the notion of adversarial examples to fit in explainable machine learning scenarios, in which the inputs, the output classifications and the explanations of the model's decisions are assessed by humans. Next, we propose a comprehensive framework to study whether (and how) adversarial examples can be generated for explainable models under human assessment, introducing novel attack paradigms. In particular, our framework considers a wide range of relevant (yet often ignored) factors such as the type of problem, the user expertise or the objective of the explanations in order to identify the attack strategies that should be adopted in each scenario to successfully deceive the model (and the human). These contributions intend to serve as a basis for a more rigorous and realistic study of adversarial examples in the field of explainable machine learning.Comment: 12 pages, 1 figur

    Procesado y análisis de datos procedentes de una máquina de extrusión de polímeros

    Get PDF
    Este Trabajo de Fin de Grado se circunscribe dentro de un proyecto real más amplio, desarrollado en el entorno de la Industria 4.0. El objetivo principal del TFG consiste en realizar, a modo de prueba de concepto, un análisis de datos procedentes de una máquina de extrusión de polímeros, con la finalidad de mostrar la viabilidad y el interés de la aplicación de recursos computacionales enfocados a la fabricación avanzada. Para ello, en primer lugar, se han seleccionado, implementado y validado múltiples técnicas de preprocesado para el tratamiento inicial de los datos. En segundo lugar, se ha analizado, de manera experimental, el comportamiento de diversos modelos de minería de datos en diferentes escenarios, con la finalidad de evaluar el potencial del uso de estos recursos. Por último, tras describir las aportaciones más relevantes, se proponen varias vías de mejora y líneas futuras abiertas que faciliten el desarrollo de objetivos más ambiciosos a largo plazo

    Aprendizaje basado en proyectos usando metodologías ágiles para una asignatura básica de Ingeniería del Software

    Get PDF
    En este trabajo se presenta el proyecto docente de la asignatura Ingeniería del Software I (segundo curso, segundo cuatrimestre) siguiendo la metodología del Aprendizaje Basado en Proyectos (ABP) utilizando metodologías ágiles. Nuestra hipótesis se basa en que estas metodologías recogen en su propia esencia los fundamentos del ABP, y por tanto, su correcta utilización garantizan los beneficios de este enfoque. Para su implementación, proponemos el desarrollo de un proyecto software siguiendo el proceso unificado de desarrollo software (UP) utilizando SCRUM como metodología ágil. El enfoque iterativo e incremental de esta metodología nos permite presentar de manera natural conceptos más complejos a medida que va evolucionando el proyecto. El desarrollo del proyecto se realizará en tres iteraciones o sprints, donde en cada iteración se van añadiendo nuevos requisitos que implican el estudio de nuevos objetivos de aprendizaje. La realización del proyecto comienza prácticamente el primer día de clase, y su evaluación supone el 75% de la calificación final. Para finalizar, presentamos los resultados y conclusiones obtenidas utilizando esta metodología después del primer año de su implementación.SUMMARY -- This paper presents the teaching project for the subject Software Engineering I (second year, second semester) based on Project-Based Learning (PBL) methodology. For its implementation, we propose the use of agile techniques widely applied in the software development industry. We believe that agile methodologies do capture the very principles of PBL, and its use can therefore guarantee the acquisition of the proposed learning goals. During the course, students will develop a project using the unified software development process, or simply Unified Process (UP), encompassed in the agile methodology SCRUM. The elaboration of the project will be undertaken in teams that will need to explore the appropriate modelling tools and implementation technologies along three successive iterations or sprints. The project will be in place almost from the first day of class, and its assessment will compute for a 75% of the final grade. Additionally, the iterative structure of the project development will entail an incremental learning framework that results especially useful to assimilate the concepts involved in Software Engineering

    Detección de la enfermedad de Alzheimer en base a volúmenes de regiones cerebrales

    Get PDF
    Este proyecto tiene como objetivo reducir el proceso necesario para la detección del Alzheimer, para lograr este objetivo, se ha intentado desarrollar una herramienta que a través del aprendizaje automático y utilizando la información volumétrica extraída de resonancias magnéticas, permita un diagnóstico fiable del Alzheimer
    corecore