322 research outputs found

    Filtrando atributos para mejorar procesos de aprendizaje

    Get PDF
    IX Conferencia de la Asociación Española para la Inteligencia Artificial. Gijón, EspañaLos sistemas de aprendizaje automático han sido tradicionalmente usados para extraer conocimiento a partir de conjuntos de ejemplos descritos mediante atributos. Cuando la información de partida representa un problema real no se sabe, generalmente, qué atributos influyen en su resolución. En esos casos, la única opción a priori es utilizar toda la información disponible. Para evitar los problemas que esto conlleva se puede emplear un filtrado de atributos, previo al aprendizaje, que nos permita quedarnos sólo con los atributos más relevantes, aquellos que encierran la solución del problema. En este artículo se describe un método que realiza esta selección. Como se mostrará, está técnica mejora los procesos posteriores de aprendizaj

    Caracterización de patrones de actividad mediante el seguimiento ocular

    Full text link
    En este Trabajo de Fin de Grado, se ha diseñado y evaluado una metodología que permita reconocer la actividad que realiza una persona con un ordenador a partir de sus patrones de movimiento ocular. La consecución de este objetivo requiere capturar la posición en pantalla de la mirada del usuario mientras ejecuta determinadas tareas. Esta información puede ser registrada mediante tecnología de seguimiento ocular y los dispositivos que implementan esta tecnología se denominan eye trackers. En este proyecto se ha optado por utilizar uno de estos dispositivos: el Eye Tribe Tracker. Se trata de un eye tracker de bajo coste, el cual es capaz de medir la posición de las pupilas del usuario y calcular a partir de esta información las coordenadas x e y, medidas en píxeles, de los puntos en la pantalla. En primer lugar se han diseñado y programado las herramientas de captura de datos oculares a partir de las librerías proporcionadas por el fabricante del eye tracker. El análisis y caracterización de las actividades realizadas por el usuario se ha llevado a cabo por medio de algoritmos de aprendizaje automático. El perceptrón multicapa y el bosque aleatorio son las opciones elegidas para esta tarea. El estudio llevado a cabo, ha requerido el diseño y ejecución de pruebas para la validación del sistema. En primer lugar, se han seleccionado las actividades a reconocer: la lectura de un texto, el visionado de un vídeo tranquilo, el visionado de un vídeo de acción y la navegación por una página web. Después se ha registrado con el eye tracker los patrones oculares de 20 voluntarios durante la realización de estas actividades. Se han reservado datos para entrenar los algoritmos y para evaluar su precisión en la predicción de las actividades. También se ha medido el coste computacional de los algoritmos con el objetivo de evaluar el sistema para su posible uso en tiempo real. En este documento se recoge la metodología empleada y se analizan los resultados obtenidos en las pruebas de validación. Estos resultados demuestran que es posible reconocer con una precisión suficiente las tareas que realiza un usuario en el ordenador, haciendo uso de un dispositivo de eye tracking de bajo coste. Además, es razonable implementar el sistema en un entorno de procesamiento en tiempo real.In this undergraduate thesis project, a methodology that allows the recognition of a person’s activity with a computer has been assessed based on his/her eye movement patterns. Achieving this aim requires to acquire the user’s gaze screen position while executing specific tasks. This information can be recorded by eye-tracking technology and the devices that implement such technology are called eye trackers. One of these devices has been chosen to be used in this project: the Eye Tribe Tracker. It is a low-cost eye tracker, which is able to measure the user’s gaze direction and compute from this information the x and y coordinates of the screen points, measured in pixels. First the tools to capture the eye data using the libraries provided by the manufacturer or the eye tracker were designed and programmed. The analysis and characterization of the data was carried out by machine learning algorithms. The multilayer perceptron and a random forest were the options chosen for this task. The study carried out in this project has required the design and execution of validation tests for the data collected. First, the activities to be recognized have been selected: reading a text, viewing a quiet video, viewing an action video and browsing a web page. Then, 20 volunteers’ eye patterns have been recorded with the eye tracker during the performance of these activities. Data was divided for the algorithms’ training and for the evaluation of accuracy in the activity prediction. Also, the algorithms’ computational cost was measured in order to evaluate the system for online use. The methodology used and the results obtained in the tests are reported and analyzed in this document. These results show that it is possible to recognize the tasks performed by a user on a computer with enough precision using a low-cost eye tracking device. In addition, the results also show that it is reasonable to implement the system for an online use

    Utilización de técnicas de Inteligencia Artificial en la clasificación de canales bovinas

    Get PDF
    En esta comunicación se presenta una aplicación de técnicas de Inteligencia Artificial en la industria alimentaria. Se ha desarrollado una metodología de representación de la conformación de canales bovinas, sintetizándose el conocimiento de los expertos mediante herramientas de Aprendizaje Automático. Los resultados obtenidos demuestran la viabilidad de utilizar clasificadores automáticos, que son capaces de realizar su tarea de manera eficaz con una reducción importante del número de atributos inicial. Este trabajo abre un amplio abanico de posibilidades de aplicación del Aprendizaje Automático en la industria de la alimentació

    Inteligencias en aplicaciones sensibles al contexto

    Get PDF
    El objetivo de esta tesis es introducir inteligencia en las aplicaciones sensibles a contexto. Este tipo de aplicaciones cambian su conducta dependiendo de la combinación de estímulos que recibe. Esta combinación de estímulos, proveniente de sensores, se denomina contexto. Por ejemplo, en una oficina puedo tener una serie de sensores que midan la intensidad de la luz, cuyos valores pueden ser: oscuro, normal, brillante y el ruido con valores posibles: silencio, moderado y ruidoso. Partiendo de la combinación de estos datos, se podría obtener el contexto “horario_no_laboral”, resultado de combinar intensidad de luz = oscuro y ruido = silencio. Una aplicación sensible a contexto podría estar programada para responder al contexto “horario_no_laboral”, bloqueando las puertas de la oficina, apagando luces, fotocopiadoras y demás aparatos que no deban usarse en este contexto. Para que la aplicación reaccione a determinado contexto se lo debe vincular a una acción determinada. Este enlace se establece en una base de conocimientos. Esta consiste en una serie de reglas del tipo Si contextoA y contextoB (ocurren simultáneamente) Entonces hacer Accion1. Por ejemplo, en una aplicación educativa se busca que el sistema brinde acceso a bibliografía específica, dependiendo de la hora y el aula desde donde se accede. En la base de conocimientos habrá una regla que exprese: Si usuario está en “Aula Matemática” y el horario es “Matutino” Entonces brindar acceso a “manuales de matemática nivel secundario”. Podría haber otra regla que exprese, Si usuario está en “Aula Matemática” y el horario es “Nocturno” Entonces brindar acceso a “manuales de matemática nivel terciario”. Generalmente, la base de conocimientos es creada y mantenida por un experto (humano) en el dominio de la aplicación. Cuando la dimensión de la base de conocimientos es elevada, resulta inmanejable para un ser humano. El problema se agrava cuando se debe corregir o agregar reglas para que el sistema se comporte de modo distinto. Por ejemplo, cuando se decide abrir el aula de matemáticas en horario “Vespertino” se debe agregar la regla: Si usuario está en “Aula Matemática” y el horario es “Vespertino” Entonces brindar acceso a “manuales de matemática nivel secundario”. Las correcciones y agregados de reglas es un proceso delicado, ya que si se introdujera inconsistencias, el sistema se comportaría de una manera indeseada. Por ejemplo: si se introduce la siguiente regla en la base de conocimientos: Si usuario está en “Aula Matemática” y el horario es “Matutino” Entonces brindar acceso a “manuales de matemática nivel terciario”. Esta regla estaría en conflicto con la regla que indica que a dicho contexto le corresponde la acción de brindar acceso a “manuales de matemática nivel secundario”. Otros problemas que enfrenta el diseñador de una base de conocimientos son: el tratamiento de los contextos de carácter continuo (por ejemplo el tiempo) y el manejo de la incertidumbre en la información proveniente de sensores. Los estímulos continuos deben “discretizarse” por algún método para acotar el número de combinaciones posibles. La solución que se describe en esta tesis ataca el problema de la discretización y la incertidumbre en los estímulos mediante la introducción de lógica difusa en el modelo. La construcción y el mantenimiento de la base de conocimientos se realizan automáticamente, de esta manera se minimiza la necesidad de intervención humana. Por ejemplo, si la mayoría de las veces que los alumnos entran al aula de matemática en horario matutino buscan “manuales de matemática nivel secundario”, el sistema “aprenderá” esta regla y la volcará en la base de conocimientos. De esta manera el sistema inferirá la necesidad de mostrar una lista de “manuales de matemática nivel secundario” la próxima vez que un alumno ingrese al aula de matemática en horario matutino. Una característica importante que debe tener el algoritmo de aprendizaje es la “transparencia”. Esto significa que el modelo de reglas construido debe ser comprendido por el usuario. El mecanismo de software está diseñado con tecnología de objetos, de esta manera permite la evolución independiente de sus partes. Por ejemplo, si en el futuro se decide cambiar el algoritmo de aprendizaje de reglas, las demás partes deberían seguir funcionando sin modificaciones.Facultad de Informátic

    Técnicas de aprendizaje automático para la detección de dominios maliciosos generados algorítmicamente

    Get PDF
    Durante los últimos años, el desarrollo de software malicioso (malware) ha pasado de ser un sector donde la principal motivación era el reconocimiento de la comu- nidad a convertirse en un auténtico negocio multimillonario. Entre las diferentes técnicas que los desarrolladores de malware han empleado para dificultar su de- tección, está el uso de algoritmos de generación de dominios (en inglés, Domain Generation Algorithms o DGA). En el trabajo plasmado en esta tesis doctoral se ha analizado la problemática de esta técnica, se han revisado los diferentes tipos de algoritmos que se pueden encontrar y se ha estudiado el estado del arte en la detección de este tipo de algoritmos en cuanto a técnicas de aprendizaje automático. Además, esta tesis propone dos soluciones diferentes que aportan ciertas ventajas y también ciertos inconvenientes. Esto permite elegir la técnica más adecuada según la necesidad del entorno concreto en el que sea utilizado. En primer lugar, se propone el uso de nuevas características que, junto con otras ya descritas en la bibliografía, son usadas para la construcción de un clasificador basado en Random Forest. En segundo lugar, se utiliza una aproximación más directa mediante aprendi- zaje profundo para prescindir del proceso de ingeniería de características. Esta aproximación permite reentrenar el modelo de forma automática ante nuevas técnicas que pretendan evadir la detección. Para este propósito se emplea un modelo de red neuronal LSTM diseñada de forma minimalista para que sea ca- paz de aprender empleando el mismo conjunto de datos que ha sido empleado para el entrenamiento del modelo Random Forest. Ambos modelos han sido entrenados con el mismo conjunto de datos y probados con un conjunto de datos que no ha sido empleado ni en el entrenamiento ni para la selección de hiperparámetros, obteniendo una exactitud en la clasificación del 97-98 % en dicho conjunto de datos. El modelo Random Forest obtiene una exactitud levemente mayor, aunque es también el modelo menos flexible ante necesidades futuras de reentrenamiento. Por último, todo el código fuente de las herramientas y contenedores empleados en los experimentos se encuentran disponible de forma pública y abierta, por lo que cualquier investigador puede acceder a los mismos y reproducir los resultados

    Algunas aportaciones a la toma de decisiones en clasificación supervisada. Un enfoque bipolar

    Get PDF
    Las aplicaciones de la Ciencia de Datos y la Inteligencia Artificial adquieren cada vez mayor relevancia en el mundo actual. Como muchas de estas aplicaciones influyen en los procesos de toma de decisiones, en los que los decisores humanos asumen la responsabilidad de la decisión final y sus consecuencias, también existe una creciente necesidad de hacer de los seres humanos el centro del análisis de los datos. En este sentido, la interpretabilidad cobra especial importancia y, en el esfuerzo por adaptarse más a las características y la naturaleza de los humanos, los métodos de la ciencia de la información también deben tener en cuenta: i) que los humanos se comunican de manera eficiente por medio del lenguaje natural, en el que los conceptos generalmente poseen una naturaleza imprecisa e incierta; y ii) que el razonamiento humano y la toma de decisiones típicamente se basan en un balance de informaciones de carácter positivo y negativo, es decir, tienen una naturaleza dicotómica o bipolar..

    Desarrollo de las operaciones de sumar y restar : comprensión de los problemas verbales

    Get PDF
    Tesis de la Universidad Complutense de Madrid, Facultad de Psicología, Departamento de Psicología Básica I (Procesos Básicos), leída el 19-10-2001Esta investigación parte de la idea de que la enseñanza-aprendizaje de la edición y sustracción se facilita a través de los problemas verbales, teniendo en cuenta su grado de dificultad. Con este objetivo, cuatro grupos de niños de: Infantil, 1º,2º y 3º de Educación Primaria han pasado de forma individual un conjunto de problemas. Los resultados ponen de manifiesto la existencia de diferencias significativas en las realizaciones de los niños en función del curso de escolarización, del tipo de problema, de la ubicación de la incógnita y de si coincide o no estructura y procedimiento. También se han analizado los diferentes tipos de estrategias y errores cometidos por los niños, observando que cada curso tiende a usar unas estrategias determinadas y cometer unos errores característicos. Finalmente, hemos realizado una segmentación de los problemas para determinar qué tipos de problemas son los que señalan las diferencias entre los cuatro gruposDepto. de Psicología Experimental, Procesos Cognitivos y LogopediaFac. de PsicologíaTRUEpu

    Aplicaciones de la minería de texto en la Encuesta Nacional de Transparencia 2019: una nueva alternativa de análisis para las encuestas de percepción

    Get PDF
    Codificar y analizar preguntas abiertas provenientes de encuestas de opinión suele ser laborioso y, además, consume tiempo. Para realizar dicho trabajo, interesa poder consignar de forma automática las clases para las preguntas abiertas a partir de la información de las respuestas; asimismo, interesa poder analizar de mejor forma este tipo de información. La minería de texto ofrece una alternativa para ese tipo de problemática. En el presente trabajo, se utilizaron los datos de 12 preguntas abiertas provenientes de la Encuesta Nacional de Percepción sobre la Transparencia del 2019 (ENPT - 2019). Se aplica la minería de texto tanto desde un enfoque descriptivo (frecuencias, redes, clusters y sentimientos) como desde uno predictivo. Este último posee un interés predominante en la presente investigación dado que pretende realizar la codificación automática de respuestas o categorías a partir del aprendizaje automático supervisado. Se emplean algoritmos de máquinas de soporte vectorial, clasificador ingenuo de Bayes, bosques aleatorios, XGBoost y vecinos más cercanos. Los resultados más relevantes muestran que, a partir del análisis descriptivo, se aprecian de mejor forma las descripciones, visualizaciones y relaciones en el análisis de las preguntas abiertas de la ENPT – 2019. El análisis predictivo reseña que los algoritmos con mayor ocurrencia para las preguntas abiertas fueron el clasificador ingenuo de Bayes y los bosques aleatorios, los cuales mostraron precisiones de entre 48% y 76%. Esto permite establecer resultados similares en comparación con los que se obtienen con las categorías que fueron codificadas manualmente. La aplicación de la minería de texto muestra resultados satisfactorios en el análisis integral de las 12 preguntas de la encuesta.Coding and analyzing open-ended questions from opinion surveys is laborious and consume a considerable amount of time. The purpose of this research is to set automatically the classes for open-ended questions based on hand classified examples, in addition to analyze this type of information using sophisticated methods. The text mining applications offer an alternative that facilitates the analysis of the data extracted from the answers in the case of this type of questions in opinion surveys. Twelve open-ended questions from the 2019 National Transparency Perception Survey (ENPT - 2019) were used. Text mining was applied for an exploratory analysis through frequencies, networks, clusters and sentiments. Also, a predictive analysis was performed, having a predominant interest in this research since it intends to perform the automatic coding of responses or categories using supervised machine learning. The algorithms used were Support Vector Machines, the Naive Bayes Classifier, Random Forests, XGBoost and K Nearest Neighbor. The descriptive analysis showed that the representation of text in the analysis of open-ended questionsis quite good. The predictive analysis showed that the most selected algorithms with the highest accuracy were the Naive Bayes and Random Forests. The precision of the models selected lies between 48% and 76%. Furthermore, it was shown that the categories predicted by the models chosen for each question allow to establish similar results compared to those obtained with the pre-established categories. The application of text mining showed satisfactory results in the comprehensive analysis of the 12 questions in the analyzed survey.UCR::Vicerrectoría de Investigación::Sistema de Estudios de Posgrado::Ciencias Sociales::Maestría Profesional en Estadístic

    Desarrollo de una solución mediante Deep Learning para la predicción de secuencias nucleosomales de DNA

    Get PDF
    Trabajo de Fin de Grado. Grado en Ingeniería Informática. Curso académico 2020-2021.[ES]La inteligencia artificial ha ido dando respuesta a problemas que requerían de la inteligencia humana para su resolución. Los métodos de aprendizaje profundo (Deep Learning) ayudan a la clasificación, análisis y reconocimiento de patrones. Estos métodos y otros de Machine Learning se han comenzado a utilizar en el ámbito biológico, por ejemplo, en la identificación de patrones de DNA. La unidad fundamental de la cromatina es el nucleosoma, complejo proteico formado por DNA e histonas y conforma el primer nivel de compactación del DNA en el núcleo. Se han identificado los patrones de secuencias promedio que contribuyen al posicionamiento de los nucleosomas a lo largo del genoma, pero no se ha desarrollado un método que permita el análisis individual de cadenas de nucleótidos para predecir qué secuencias se asociarán a un nucleosoma o no. La posible solución propuesta tras la búsqueda de modelos tanto de machine learning y deep learning resultó en un clasificador de secuencias de nucleótidos que predice la probabilidad que sean nucleosomas o no. Este trabajo es un reto multidisciplinar que aplica la inteligencia artificial para dar solución a un problema real biológico.[EN]Artificial intelligence has been providing answers to problems that required human intelligence. Deep learning methods help in the classification, analysis, and recognition of patterns. These methods and other Machine Learning methods have begun to be used in the biological field, for example, in the identification of DNA patterns. The fundamental unit of chromatin is the nucleosome, a protein complex formed by DNA and histones that forms the first level of DNA compaction in the nucleus. The average sequence patterns that contribute to the positioning of nucleosomes along the genome have been identified, but no method has been developed that allows the analysis of individual nucleotide chains to predict which sequences will or will not be associated with a nucleosome. The possible solution proposed after searching both machine learning and deep learning models resulted in a classifier of nucleotide sequences that predicts the probability that they are nucleosomes or not. This work is a multidisciplinary challenge that applies artificial intelligence to solve a real biological problem

    Determinación mediante minería de datos del núcleo subtalámico utilizando registros MER de cirugías para la implantación de neuroestimuladores en pacientes con Parkinson

    Get PDF
    La enfermedad de Parkinson (EP) es una degeneración del sistema nervioso central (SNC) caracterizada por un deterioro progresivo de funciones motoras como lentitud de movimientos, temblor, rigidez e inestabilidad postura. Un estimulador cerebral profundo (DBS por sus siglas en inglés) es una tecnología novedosa para el tratamiento de los trastornos motores de la EP en los casos donde la medicación no es efectiva o cuando dichos fármacos generan efectos secundarios muy discapacitantes como las discenesias. Básicamente el DBS consiste en un neuroestimulador implantado o marcapasos del cerebro que mediante 2 microelectrodos estimula con pulsos de alta frecuencia al núcleo subtalámico (STN por sus siglas en inglés) de ambos hemisferios cerebrales para reducir la hiperactividad crónica de las neuronas involucradas. Para la implantación del DBS se emplean procedimientos estereotáctico con el objetivo de realizar una cirugía lo menos invasiva posible para el paciente. Utilizando un instrumento fijo al cráneo del paciente, es posible localizar tridimensionalmente una estructura cerebral de referencia. Para localizar la zona STN y dependiendo de la tecnología disponible en cada institución se utilizan: imágenes de resonancia previas a la cirugía, atlas genéricos que en algunos casos se superponen a las imágenes obtenidas, imágenes de tomografía realizadas durante la cirugía, reconstrucción 3D de la fusión de imágenes de resonancia y tomografía (corregistro), en el análisis de ritmo beta del STN y en el análisis visual y acústico de las señales obtenidas mediante microelectrodos de registro (MER por sus siglas en inglés). Los MER tienen menos de 100 micrómetros de diámetro y mediante el sistema estereotáctico mecanizado van ingresando al cerebro atravesando distintas estructuras funcionales del mismo como son el tálamo anterior (TH), la zona incerta (ZI), el núcleo subtalámico (STN) y la sustancia negra pars reticulata (SNr). Cada una de estas zonas presenta registros eléctricos específicos. El análisis de los registros MER para determinar si los electrodos están en la zona de implantación es uno de los procedimientos más utilizado en las instituciones de salud. La detección del área objetivo (STN) es una tarea compleja y la exactitud con que se cumpla depende del éxito del tratamiento con un DBS. Recientemente se han publicado los primeros trabajos que utilizando la minería de datos mediante algoritmos individuales de clasificación supervisados determinan si los registros obtenidos mediante los MER corresponden al STN. En la presente tesis se plantea como hipótesis que es posible obtener modelos de clasificación supervisados con un buen rendimiento, haciendo uso de la combinación de clasificadores y una adecuada selección de características, con el fin de que puedan ser utilizados como herramienta de soporte para detectar las señales MER correspondientes al STN durante una cirugía para implantar un DBS. Se adquirieron señales MER de 22 pacientes con Parkinson a los cuales se les realizó una cirugía bilateral para la implantación de un dispositivo DBS en STN. Las cirugías fueron desarrolladas en su totalidad en el Hospital Universitario y Politécnico La Fe de Valencia, España. Dos especialistas experimentados analizaron durante la intervención quirúrgica y para cada nivel de profundidad, si las señales MER visualizadas en el monitor se correspondían al STN u a otra zona del cerebro. Con la idea de minimizar posibles errores humanos en el proceso de etiquetación de los registros se analizaron posteriormente a cada cirugía las imágenes de coregistros realizadas durante la cirugía (al inicio y al final de la misma) que permiten determinar mediante imágenes la profundidad a la cual se ingresó al STN. Cada registro se dividió en ventanas de 1 s solapadas al 50% a las cuales se calcularon y estandarizaron off line 16 características temporales utilizando el software Matlab®. Las características utilizadas permiten describir las principales variables temporales de las señales obtenidas mediante los MER asociadas a la actividad de fondo sin considerar las espigas y otras que sólo caracterizan a las espigas. La eliminación automática de registros asociados a ruidos de movimiento, mecánicos o eléctricos fue el único pre procesamiento que se aplicó a los registros MER utilizados, asegurado que la base de datos represente situaciones semejantes de la vida real. Con la base de datos obtenida se procedió a entrenar los clasificadores con los datos de 21 pacientes (datos de entrenamiento) dejando los datos del paciente excluido para validación (datos de validación). Este proceso se repitió 22 veces dejando un paciente distinto por vez en cada conjunto de entrenamiento-validación realizando una generación de conjuntos mediante validación cruzada “leave one out” por paciente. Se configuraron y entrenaron algoritmos de clasificación individuales: K veninos más cercanos (KNN) y árboles de decisión tipo CART y CHAID. También se trabajó con las siguientes estrategias combinadas: bagging, boosting, random forest y stacking. Para todos los casos se seleccionaron los parámetros que permitieron configurar cada algoritmo para minimizar el error de clasificación mediante optimización Bayesiana. Cuando se utilizaron las 16 características temporales para entrenamiento y validación stacking obtuvo los mejores resultados utilizando 3 clasificadores diferentes como base (nivel 0): KNN, árboles de decisión tipo CART y bagging y como meta clasificador (nivel 1) a random forest. Este algoritmo combinado se denominó Stack2 y presentó una exactitud promedio porcentual (ACC) del 94,6%, una especificidad (ESP) del 95,6% y una sensibilidad (SEN) del 95,6%. Se ensayaron algoritmos de selección de características tipo filtro, de envoltura e integrados. Branch and bound resultó el mejor para los datos de la tesis y permitió seleccionar 6 características de las 16 totales (4 vinculadas a la actividad de fondo y 2 a las espigas) que mejoraron el rendimiento de Stack2 en lo que se denominó Stack2_BBound, pasando ACC al 95%, ESP al 96% y SEN al 94%. Este clasificador tuvo el mejor desempeño de todos los analizados en la presente tesis indicando que dicho clasificador presenta mayor poder de discriminación de clases mediante las características vinculadas a la actividad de fondo. Con el desarrollo de las investigaciones realizadas en la presente tesis doctoral se pudo obtener un modelo combinado de clasificación supervisada mediante la metodología stacking, cuyos indicadores de desempeño y tiempos de validación indican que puede ser utilizado, con excelente rendimiento, en un proceso de clasificación automática para detectar señales del STN a partir de procesar señales eléctricas cerebrales provenientes de micro electrodos de registros durante cirugías para implantar un estimulador cerebral profundo en paciente con Parkinson. Los indicadores de desempeño obtenidos son superiores a los reportados por otros trabajos de investigación para este mismo tipo de aplicación. Los resultados de la presente tesis contribuyen con un modelo novedoso (Stack2_BBound) que constituye el primer paso para un sistema de clasificación automático que trabaje en el quirófano como herramienta de soporte a los neurofisiólogos y neurocirujanos al momento de definir la localización óptima del electrodo de estimulación de un sistema DBS en pacientes con Parkinson. Un sistema de éstas características permitirá reducir los tiempos de una cirugía de esta naturaleza además de brindar un resultado de clasificación objetivo.A deep brain stimulator (DBS) is an implantable neuro stimulator for the treatment of motor disorders of Parkinson's disease (PD). Using minimally invasive stereotactic surgery techniques, two stimulation electrodes are usually implanted in the Subthalamic nuclei (STN) of both cerebral hemispheres. The detection of STN is a complex and crucial task for the success of the therapy with a DBS, which is carried out in most institutions through the analysis of the patterns of signals acquired using microelectrodes register (MER). The hypothesis of the present thesis is defined like it is possible to obtain supervised classification models with a good performance, making use of the ensemble classifiers and an adequate selection of characteristics, in order that they can be used as a support tool to detect the MER signals corresponding to the STN during surgery to implant a DBS. MER signals were acquired from 22 patients with PD who underwent bilateral surgery for the implantation of a DBS in STN. As the MER descended towards the STN, whose initial coordinates were established by magnetic resonance imaging, two specialists established whether the records observed at each depth level corresponded to 'STN' or 'non-STN'. After the surgery, each record was divided into windows of 1 s overlapped to 50%, which were calculated and standardized off line 16 temporal characteristics. With the database obtained, the classifiers were trained with the data of 21 patients (training data) leaving the patient's data excluded for validation (validation data). This process was repeated 22 times leaving a different patient at a time in each training-validation set. The trained stacking algorithm with the 16 temporal characteristics obtained the best results using 3 different classifiers as a base: K- nearest neighbors, CART and bagging decision trees and random forest as meta classifier. This stacking classifier obtained an average accuracy (ACC) of 94.6%, a specificity (ESP) of 95.6% and a sensitivity (SEN) of 95.6%. The branch and bound feature selection algorithm was the best for the thesis data and allowed to select 6 characteristics of the total 16 that improved the stacking performance, which one obtained an ACC of 95%, ESP of 96% and SEN of 94%. A combined model of supervised classification was obtained using the stacking and branch and bound methodology, whose performance and validation times indicate that it can be used, with excellent performance, in an automatic classification process to detect STN signals from the temporal characteristics of cerebral electrical signals of the MER
    corecore