148 research outputs found

    Adaptación de un sistema de búsqueda de palabras clave al castellano

    Full text link
    El objetivo de este proyecto es el desarrollo e implementación de un sistema de búsqueda de palabras clave en castellano, partiendo de un sistema ya existente que funciona en inglés y vietnamita. La base de datos utilizada para entrenar y evaluar el sistema es el corpus Fisher Spanish, perteneciente al Consorcio de Datos Lingüísticos, con sede en Estados Unidos. En primer lugar, se ofrece una breve explicación del sistema de producción del habla humano y el estado del arte en los campos de reconocimiento de voz y de palabras clave. El sistema completo está compuesto por dos subsistemas que se encargan del reconocimiento de voz y búsqueda de palabras clave, respectivamente. El primero es el encargado de generar los lattices, sobre los que el segundo desarrollará la tarea de búsqueda. La modalidad de búsqueda de términos que se utiliza es la llamada Spoken Term Detection (STD). Para evaluar el rendimiento del sistema, se han realizado pruebas de diferente naturaleza para los dos subsistemas. En esta memoria se recogen los resultados de esas pruebas y las conclusiones obtenidas.The objective of this project is to develop and implement a keyword spotting system in Spanish, based on an existing system that works in English and Vietnamese. The database used to train and evaluate the system is the Fisher Spanish corpus, belonging to the Linguistic Data Consortium, which is based in the United States. First of all, a brief description of the human speech production system is provided, followed by the state of the art in speech recognition and keyword spotting. The full system comprises two subsystems, responsible of speech recognition and keyword spotting, respectively. The former is in charge of generating lattices, which are used by the latter to search the keywords. The keyword spotting modality used is called Spoken Term Detection (STD). In order to evaluate the system, different tests have been performed for the two subsystems. The results are captured in this document, as well as the conclusions

    Estudio y análisis comparativo de las actuales técnicas biométricas

    Full text link
    El siguiente Trabajo Fin de Master se divide en tres partes, siempre, alrededor de la identificación biométrica. Esta ciencia aprovecha que existen ciertas características biológicas o conductuales singulares e inalterables, por lo que pueden ser analizados y medidos para crear una huella biométrica. Estas características son difíciles de perder, transferir u olvidar y son perdurables en el tiempo. En la primera de las partes se ofrecerá una visión sobre la importancia histórica de esta ciencia, desde los primeros vestigios humanos, en la zona de Mesopotamia, pasando por los grandes innovadores y precursores de la identificación biométrica, como Bertillon, Galton, Vucetich, etc. auspiciados por una finalidad mayoritariamente criminalística o policiaca, hasta la gran revolución a finales del siglo pasado, en las que técnicas que parecían ciencia ficción se hicieron realidad. En el siguiente apartado se analizaran las 6 principales técnicas que se usan actualmente, realizando una mirada más profunda en los principios naturales, fisiológicos y físicos sobre los que se basan se expondrán las tendencias futuras sobre las que trabajara la industria para el desarrollo de técnicas más seguras, menos invasivas y más transparentes para los usuarios finales. Estas como ha pasado a lo largo de la historia sonaran increíbles, pero una vez más la raza humana conseguirá materializarlas e introducirlas en su día a día. Para finalizar y después de este estudio en detalle, se intentará realizar una comparación y análisis basados en las más importantes características para las técnicas biométricas, fiabilidad, facilidad, usurpación, aceptación y estabilidad, etc. ABSTRACT The following Master's Thesis is divided into three parts, always, about biometric identification. This science fail that certain biological or behavioural characteristics unique and unchangeable, so it can be analysed and measured to create a biometric fingerprint. These features are hard to miss, or forget to transfer and are enduring in time. In the first part a vision of the historical importance of this science are offered, from the earliest human remains in the area of Mesopotamia, to the great innovators and pioneers of biometric identification, such as Bertillon, Galton, Vucetich, etc. . sponsored a largely forensic or detective purpose, until the great revolution in the late nineteenth century, in which techniques that seemed science fiction became reality. The following section will analyse the 6 main techniques currently in use, making a deeper look at the natural, physiological and physical principles on which future trends are based on the industry to work for the development of techniques will be discussed more safer, less invasive and more transparent to end users. Such as has happened throughout history sounded amazing, but once again the human race get materialize and introduce them in their day to day. Finally and after the study in detail, and try to make a comparison based on the most important features for biometric technologies, reliability, ease, alienation, acceptance and stability analysis etc.

    Desarrollo de un sistema de reconocimiento automático del habla

    Full text link
    Calvo Lance, M. (2010). Desarrollo de un sistema de reconocimiento automático del habla. http://hdl.handle.net/10251/10172.Archivo delegad

    Diseño y simulación de un robot asistente para personas invidentes

    Get PDF
    El objetivo principal que se pretende alcanzar es la resolución del ya conocido problema de generar un camino dentro de un entorno conocido, en este caso un hotel. El robot deberá moverse dentro del mismo y guiar a una persona invidente por las instalaciones. Para ello será necesario dominar el lenguaje de programación que se vaya a utilizar, el entorno de desarrollo, que en este caso será Microsoft Robotics Developer Studio, herramientas de diseño en 3D para generar el entorno y aplicar un algoritmo de caminos mínimos para recorrer el hotel por una ruta establecida. Estos objetivos se explican con más detalle en los puntos siguientes: - Análisis de la plataforma de desarrollo MRDS. - Análisis de posibles herramientas de desarrollo. - Creación de un entorno virtual para simulación. - Manejo de SolidWorks para la creación de entidades 3D simuladas. - Creación de una aplicación orientada a servicios. - Diseño de un sistema de control para el robot. La finalidad de este proyecto es “engranar” diferentes herramientas y servicios para proporcionar un entorno simulado donde un robot Pioneer3DX sirva como guía a una persona invidente. El motor de trabajo, Microsoft Robotics Developers Studio, es una herramienta muy potente que ha permitido la creación de esta aplicación y módulos en tiempo de ejecución orientado a servicios a través de una aplicación Windows, en este caso la ventana para manejar al robot por los diferentes puntos del hotel. Se ha conseguido que múltiples tareas interactivas simultáneas se realicen en tiempos distintos mediante programación asíncrona concurrente. Por ejemplo, el robot está constantemente actualizando su estado mientras que a su vez puede moverse, utilizar la cámara y obtener la posición dentro del entorno. Para que todo esto funcione, es necesario implementar los servicios y módulos con una herramienta de desarrollo. Antes de elegir la herramienta para desarrollar la aplicación, se han analizado tanto Visual Programming Languaje (VPL), proporcionada por MRDS, como Visual C#.Ingeniería Técnica en Sistemas de Telecomunicació

    Modelo computacional de lectura cognitiva para la representación automática de textos

    Get PDF
    El modelado del lenguaje natural en los ordenadores conlleva ciertas restricciones debido a la estructura lógica y a las limitaciones de tiempo y espacio de las máquinas, además de la complejidad intrínseca del lenguaje. Uno de los mayores problemas de dicho modelado es la representación de la semántica. Los primeros modelos conexionistas del lenguaje se situaban próximos a la cognición humana pero no eran lo suficientemente generales y eficientes para aplicaciones reales. Estos primeros sistemas de procesamiento de lenguaje natural hacían uso de redes de asociación como formalismo de representación. Debido a las limitaciones de almacenamiento y procesamiento de los ordenadores de aquella época, y al crecimiento de la información textual almacenada electrónicamente, los sistemas de procesamiento del lenguaje adoptaron formalismos matemáticos y estadísticos. Hoy en día, a causa de esa cantidad creciente de información textual los sistemas que son capaces de procesar textos son de extrema utilidad. Hasta hace r lativamente poco tiempo, la mayoría de estos sistemas utilizaban la clásica representación de los textos como “bolsa de palabras”, un formalismo de tipo vectorial que sólo tiene en cuenta las apariciones de las palabras de manera independiente. A mediados de los noventa, surgen los hiperespacios de palabras como un formalismo de representación alternativo al de “bolsa de palabras” tradicional. LSA (Análisis de Semántica Latente) fue el precursor de todos ellos, seguido por HAL (Hiperespacio Análogo al Lenguaje), PMI-IR, Indexado Aleatorio, WAS (Espacio de Asociación de Palabras) o ICAN (Construcción Incremental de una Red Asociativa), entre otros. Este tipo de sistemas construyen una representación en forma de matriz del conocimiento semántico lingüístico almacenado en una colección de textos dada. Este hiperespacio tiene en cuenta las relaciones entre las palabras y el contexto sintáctico y semántico en el que aparecen. Sin embargo, estos sistemas también representan los textos como vectores, llevando a cabo peraciones con las filas y las columnas de la matriz correspondientes a las palabras de los documentos. Aunque la representación mediante hiperespacios contiene mucha más información que la representación tradicional, puesto que los valores de los vectores son el resultado de la interacción entre las palabras y el contexto, los textos siguen siendo presentados como un conjunto de números sin estructura. A pesar de ello, los sistemas basados en hiperespacios han aportado una mejora significativa con respecto a los sistemas basados en la representación clásica. De los sistemas anteriormente mencionados, sólo ICAN introduce una representación estructural, almacenando el conocimiento en forma de red contextual asociativa de palabras y no como una matriz. Este modelo, a diferencia del resto de sistemas mencionados, hace posible la actualización del conocimiento sin necesidad de la reconstrucción total del mismo. A pesar del progreso realizado utilizando los hiperespacios de palabras, los seres humanos continúan r alizando tareas de procesamiento de lenguaje natural, como la clasificación de textos o la recuperación de información, de manera mucho más precisa que los ordenadores aunque, por supuesto, más despacio. Es difícil concebir el conocimiento lingüístico representado como una matriz en el cerebro humano, así como que la lectura suponga realizar operaciones matemáticas sobre dicha matriz. La lectura es un proceso secuencial de percepción en el tiempo, durante el cual los mecanismos mentales construyen imágenes e inferencias que se van reforzando, actualizando o descartando hasta la conclusión de la lectura del texto, momento en el que la imagen mental generada permite a los seres humanos resumir o clasificar el texto, recuperar documentos similares o simplemente expresar opiniones sobre el mismo. Esta es la filosofía que subyace en el sistema presentado en esta tesis. Este sistema, denominado SILC (Sistema de Indexación por Lectura Cognitiva), está ligeramente inspirado en el formalismo que sugiere el sistema ICA . Lo que se propone en este trabajo de tesis doctoral es un modelo computacional de lectura que construye una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que posibilita la descripción de las relaciones entre los conceptos leídos y su nivel de significación en cada momento del proceso de lectura. Existen otros modelos computacionales de lectura cuyo objetivo es más teórico que aplicado. La mayoría de ellos parten del modelo conexionista de Construcción-Integración y se centran en diferentes fases u objetivos de la lectura. Todos estos sistemas ponen de manifiesto la gran variedad y complejidad de los procesos cognitivos implicados en la lectura. El modelo propuesto en esta tesis, SILC, es un método sencillo que incluye sólo algunos de dichos procesos cognitivos y, aunque trata de ser útil en aplicaciones prácticas, está inspirado en los seres humanos tratando de asemejarse más a su proceder que el resto de sistemas del mismo ca po de aplicación. El modelo que implementa SILC intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. Primero, el sistema construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación, el modelo genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, el modelo utiliza el conocimiento semántico lingüístico previamente construido realizando inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos en orden secuencial. La representación generada se usa posteriormente para indexar documentos con el fin de clasificarlos automáticamente. Los métodos de indexación tradicionales representan los textos como resultado de procesos matemáticos. Puesto que los seres humanos superan ampliamente a los ordenadores e tareas de procesamiento de lenguaje natural, el modelo de SILC se inspira en la cognición humana para mejorar su eficacia en dichas tareas. Se han realizado experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y sustentan la hipótesis de partida de SILC: cuanto más se asemeje el sistema a los seres humanos, mejor realizará las tareas prácticas del lenguaje. Los resultados también demuestran que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. Otros experimentos de aplicación práctica han mostrado que, una vez que los parámetros del modelo han sido optimizados, la representación generada obtiene mejores resultados en clasificación de textos que otr representaciones generadas por los sistemas existentes. Se han definido tres medidas de similitud semántica entre textos a partir de las representaciones generadas por SILC. Los resultados experimentales muestran que la mejor de ellas es más eficaz y eficiente que otras medidas de similitud existentes. Además, la sinergia de dicha medida con el modelo de lectura implementado hace a SILC apropiado para su aplicación a tareas reales de procesamiento de lenguaje natural

    Síntesis Audiovisual Realista Personalizable

    Get PDF
    Es presenta un esquema únic per a la síntesi i anàlisi audiovisual personalitzable realista de seqüències audiovisuals de cares parlants i seqüències visuals de llengua de signes en àmbit domèstic. En el primer cas, amb animació totalment sincronitzada a través d'una font de text o veu; en el segon, utilitzant la tècnica de lletrejar paraules mitjançant la ma. Les seves possibilitats de personalització faciliten la creació de seqüències audiovisuals per part d'usuaris no experts. Les aplicacions possibles d'aquest esquema de síntesis comprenen des de la creació de personatges virtuals realistes per interacció natural o vídeo jocs fins vídeo conferència des de molt baix ample de banda i telefonia visual per a les persones amb problemes d'oïda, passant per oferir ajuda a la pronunciació i la comunicació a aquest mateix col·lectiu. El sistema permet processar seqüències llargues amb un consum de recursos molt reduït, sobre tot, en el referent a l'emmagatzematge, gràcies al desenvolupament d'un nou procediment de càlcul incremental per a la descomposició en valors singulars amb actualització de la informació mitja. Aquest procediment es complementa amb altres tres: el decremental, el de partició i el de composició.Se presenta un esquema único para la síntesis y análisis audiovisual personalizable realista de secuencias audiovisuales de caras parlantes y secuencias visuales de lengua de signos en entorno doméstico. En el primer caso, con animación totalmente sincronizada a través de una fuente de texto o voz; en el segundo, utilizando la técnica de deletreo de palabras mediante la mano. Sus posibilidades de personalización facilitan la creación de secuencias audiovisuales por parte de usuarios no expertos. Las aplicaciones posibles de este esquema de síntesis comprenden desde la creación de personajes virtuales realistas para interacción natural o vídeo juegos hasta vídeo conferencia de muy bajo ancho de banda y telefonía visual para las personas con problemas de oído, pasando por ofrecer ayuda en la pronunciación y la comunicación a este mismo colectivo. El sistema permite procesar secuencias largas con un consumo de recursos muy reducido gracias al desarrollo de un nuevo procedimiento de cálculo incremental para la descomposición en valores singulares con actualización de la información media.A shared framework for realistic and personalizable audiovisual synthesis and analysis of audiovisual sequences of talking heads and visual sequences of sign language is presented in a domestic environment. The former has full synchronized animation using a text or auditory source of information; the latter consists in finger spelling. Their personalization capabilities ease the creation of audiovisual sequences by non expert users. The applications range from realistic virtual avatars for natural interaction or videogames to low bandwidth videoconference and visual telephony for the hard of hearing, including help to speech therapists. Long sequences can be processed with reduced resources, specially storing ones. This is allowed thanks to the proposed scheme for the incremental singular value decomposition with mean preservation. This scheme is complemented with another three: the decremental, the split and the composed ones

    Desarrollo de un robot de servicio para la asistencia a personas de la tercera edad

    Full text link
    El presente proyecto consistirá en el diseño e implementación de un robot de servicio que pueda proporcionar asistencia a personas de la tercera edad o discapacitadas. Este robot se basará en una plataforma móvil para interiores, y proporcionará funciones de monitorización del usuario, siendo capaz de detectar una caída y de avisar al servicio de urgencias. El robot también ofrecerá funciones de teleoperación mediante comandos de voz. Para la construcción de la plataforma móvil se ha utilizado un diseño similar al del robot TurtleBot, aunque con algunas ligeras modificaciones. Este robot se moverá usando la base móvil iRobot Create, y las funciones de reconocimiento visual del entorno y de reconocimiento del habla del usuario se realizarán con el sensor Microsoft Kinect. Estos dos elementos estarán unidos mediante conectores USB a un Netbook, ubicado en la plataforma móvil, donde se realizarán todos los procesos de software. El software se ha desarrollado utilizando la plataforma robótica ROS, que ofrece la flexibilidad necesaria para poder interconectar todos los elementos del robot. Para el reconocimiento visual se ha hecho un uso extensivo de la librería OpenNI (Open Natural Interaction), que ofrece varias funcionalidades de reconocimiento de usuarios. Y para el reconocimiento y procesamiento de los comandos de voz del usuario se ha utilizado la librería Sphinx, desarrollada por la Carnegie Mellon University.Ariño Sustaeta, J. (2014). Desarrollo de un robot de servicio para la asistencia a personas de la tercera edad. http://hdl.handle.net/10251/39655.Archivo delegad

    Acompañamiento al proceso de revitalización de la lengua nonuya: un caso de lucha por la supervivencia lingüística

    Get PDF
    El nonuya, o nononotá, es una de las más de sesenta lenguas nativas colombianas. Es endémica y una de las que se encuentra en mayor riesgo de extinción en el país. Desde los años setenta, diferentes investigadores e instituciones han apoyado intentos de revitalización que, infortunadamente, no han logrado tener continuidad. Estos han incluido documentación (de léxico, frases, cantos) con los últimos hablantes nativos; diseño de materiales para la enseñanza de la lengua, reformulación del proyecto educativo comunitario (PEC), entre otros. Dado que la lucha por la supervivencia se mantiene, el presente trabajo de investigación evidencia el acompañamiento a los procesos actuales de revitalización, mediante tres clases de acciones: al interior de la comunidad (promoviendo el uso de la lengua con propósitos comunicativos); acciones para buscar apoyo externo que conlleve la continuidad de los procesos (formulación de proyectos, visibilización del grupo en la sociedad mayoritaria) y acciones de sistematización y análisis de la estructura de la lengua (aproximación al sistema fonológico). Propiciando finalmente, la discusión frente a la labor del lingüista y de la academia en contextos de diversidad y extinción lingüística como el colombiano.Abstract: The Nonuya language or nononotá is one of the more than sixty Colombian native languages. It is endemic from the Colombian Amazon, and it is considered in grave threat of endangerment. Since the seventies, several researchers and institutions have supported their revival attempts, which, unfortunately, have not had continuity. These attempts have included: documentation (of lexical items, expressions and songs) with the last native speakers, design of teaching materials, reformulation of the Communitarian Education Project (PEC, from its Spanish name), among others. The community has kept alive up to date their struggle for linguistic revival. This research presents three types of actions that have been carried out to support this revival processes: promoting communicative usage of the language from within the community; helping with the search of external support to continue the already begun endogenous processes (designing of projects, and bringing awareness about this particular group in the major society), and actions related to systematizing and analyzing the language structure (approach to its phonological system). Finally, it proposes a discussion around linguists and academic labor about language diversity in contexts of language extinction, as is the Colombian context.Maestrí

    Exploration of source/sink phase connectivity patterns for the study of language processing through inter-channel causality of EEG signals

    Get PDF
    [SPA] Esta investigación titulada "Exploración de Patrones de Conectividad de Fase Fuente/Sumidero para el Estudio del Procesamiento del Lenguaje a través de la Causalidad Inter-canal de señales de EEG" se adentra en el estudio de las relaciones de causa-efecto en la red de conectividad cerebral de individuos con TL y sujetos de control. Utiliza señales de EEG y estímulos de ruido blanco como instrumentos para analizar estas relaciones. Una metodología innovadora basada en matrices de CG de los diversos canales de EEG se propone para construir modelos de conectividad causal, empleando un enfoque de fuentes/sumideros. El propósito primordial de esta investigación es identificar las regiones del cerebro que ejercen mayor influencia sobre otras (fuentes), las áreas que son más afectadas por otras (sumideros), y la actividad total para incrementar nuestra comprensión de los mecanismos subyacentes al TL. A pesar de los avances en los estudios previos, los mecanismos neuronales que subyacen al TL aún no se comprenden completamente. La necesidad de investigar más para identificar las regiones cerebrales específicas y los patrones de conectividad involucrados en este trastorno es evidente. Identificar patrones coherentes en las lecturas de EEG puede ser un gran desafío, debido a la diversidad y complejidad de las señales cerebrales que estos capturan. Además, cuando se trata de desvelar las dinámicas de conectividad en el cerebro, la tarea se vuelve aún más intrincada. En este sentido, la búsqueda de patrones en la conectividad cerebral se convierte en una tarea esencial para entender los TL. La causalidad, que se refiere a la relación entre causa y efecto, puede proporcionar un marco útil para explorar estas conexiones cerebrales. El concepto de causalidad puede ser aplicado en la neurociencia para estudiar cómo las diferentes regiones del cerebro interactúan entre sí, y cómo estas interacciones pueden influir en ciertos comportamientos o condiciones. Para ello, el principio de la CG, desarrollado por el economista Clive Granger, es una herramienta importante. Se utiliza para inferir relaciones causales entre series temporales de datos, con la idea de que si una serie puede predecir con precisión otra serie, entonces la primera "causa" a la segunda en algún sentido. En el contexto de la EEG, la causalidad de Granger puede ser utilizada para inferir patrones de conectividad entre diferentes regionales cerebrales a partir de las lecturas de EEG. Siguiendo este camino de investigación, se desarrolló un análisis basado en la causalidad intercanal de EEG para desvelar las relaciones causales entre diferentes regiones cerebrales y para identificar patrones de conectividad de fase fuente/sumidero asociados con la DD y con los TL en general. Para la realización de este estudio, se seleccionaron 48 participantes, de los cuales 16 padecían DD y 32 eran sujetos sin dificultades en el lenguaje. Todos eran hispanohablantes nativos, diestros, con visión normal o corregida a normal y sin deficiencias auditivas. Todos los integrantes del grupo con trastorno del lenguaje habían sido diagnosticados formalmente con DD en la escuela. Por otro lado, todos los participantes del grupo de control estaban libres de dificultades de lenguaje y no habían sido diagnosticados formalmente con DD. Los tutores legales de todos los participantes fueron informados, dieron su consentimiento por escrito y estuvieron presentes durante la totalidad del experimento. La experimentación se desarrolló en sesiones de 15 minutos en las que los participantes estuvieron expuestos a estímulos auditivos. El estímulo fue modulado a 4.8 Hz (frecuencia prosódica-silábica) y se realizó en segmentos de 2.5 minutos, percibiéndose como ruido blanco. Este tipo de estímulo se seleccionó con el objetivo de identificar qué patrones de sincronicidad provocaría el procesamiento auditivo de bajo nivel. La selección se basó en el conocimiento experto de los psicólogos lingüistas sobre los componentes de frecuencia principales que representan las palabras. Los resultados del estudio desvelaron diferencias significativas en los patrones de conectividad causal entre los sujetos con DD y los controles. En el escenario de áreas que más influyen en otras (fuentes), se descubrió que ciertas regiones cerebrales ejercían influencias causales más fuertes en el grupo con TL (particularmente, DD) en comparación con el grupo de control. Estos hallazgos insinúan que los sujetos con TL pueden tener patrones alterados de flujo de información y conectividad en el cerebro. La metodología propuesta también se utilizó con el objetivo de clasificar, para diferenciar entre sujetos con TL y controles en base a sus patrones de conectividad EEG. Los algoritmos de clasificación brindaron resultados prometedores, demostrando el potencial del análisis de causalidad intercanal de EEG como una herramienta diagnóstica para los TL. En resumen, este estudio contribuye a la comprensión de los mecanismos neuronales subyacentes al TL mediante la exploración de las relaciones de causa-efecto en la red de conectividad cerebral. Este trabajo enriquece nuestro conocimiento sobre la base neuronal del TL y abre caminos para más exploraciones e intervenciones estratégicas en este el campo de la investigación. [ENG] This research entitled "Exploration of Source/Sink Phase Connectivity Patterns for the Study of Language Processing through Inter-channel Causality of EEG signals" delves into the study of cause-effect relationships in the brain connectivity network of individuals with LD and control subjects. It uses EEG signals and white noise stimuli as instruments to analyze these relationships. An innovative methodology based on CG matrices of the various EEG channels is proposed to build causal connectivity models, employing a source/sink approach. The primary purpose of this research is to identify the regions of the brain that exert the greatest influence on others (sources), the areas that are most affected by others (sinks), and total activity to increase our understanding of the mechanisms underlying LD. Despite advances in previous studies, the neural mechanisms underlying LD are still not fully understood. The need for further research to identify the specific brain regions and connectivity patterns involved in this disorder is evident. Identifying coherent patterns in EEG readings can be a great challenge, due to the diversity and complexity of the brain signals they capture. Moreover, when it comes to unraveling the dynamics of connectivity in the brain, the task becomes even more intricate. In this sense, the search for patterns in brain connectivity becomes an essential task in understanding LDs. Causality, which refers to the relationship between cause and effect, can provide a useful framework for exploring these brain connections. The concept of causality can be applied in neuroscience to study how different brain regions interact with each other, and how these interactions may influence certain behaviors or conditions. For this purpose, the CG principle, developed by the economist Clive Granger, is an important tool. It is used to infer causal relationships between time series of data, with the idea that if one series can accurately predict another series, then the former "causes" the latter in some sense. In the context of EEG, Granger causality can be used to infer patterns of connectivity between different brain regions from EEG readings. Following this research path, an analysis based on EEG interchannel causality was developed to unveil causal relationships between different brain regions and to identify source/sink phase connectivity patterns associated with DD and with LDs in general. For the realization of this study, 48 participants were selected, of which 16 suffered from DD and 32 were subjects without LD. All were native Spanish speakers, right-handed, with normal or corrected to normal vision and without hearing impairments. All members of the group with language disorder had been formally diagnosed with DD at school. On the other hand, all participants in the control group were free of language difficulties and had not been formally diagnosed with DD. The legal guardians of all participants were informed, gave written consent and were present for the entirety of the experiment. The experimentation took place in 15-minute sessions in which the participants were exposed to auditory stimuli. The stimulus was modulated at 4.8 Hz (prosodic-syllabic frequency) and performed in segments of 2.5 minutes, perceived as white noise. This type of stimulus was selected with the aim of identifying which synchronicity patterns would cause low-level auditory processing. The selection was based on the linguistic psychologists' expert knowledge of the main frequency components that words represent. The results of the study revealed significant differences in the patterns of causal connectivity between subjects with DD and controls. In the scenario of areas that most influence others (sources), certain brain regions were found to exert stronger causal influences in the LD group (particularly, DD) compared to the control group. These findings hint that subjects with LD may have altered patterns of information flow and connectivity in the brain. The proposed methodology was also used with the aim of classifying, to differentiate between subjects with LD and controls based on their EEG connectivity patterns. The classification algorithms provided promising results, demonstrating the potential of EEG interchannel causality analysis as a diagnostic tool for LDs. In summary, this study contributes to the understanding of the neural mechanisms underlying LD by exploring cause-effect relationships in the brain connectivity network. This work enriches our knowledge about the neural basis of LD and opens paths for further explorations and strategic interventions in this field of research.Escuela Internacional de Doctorado de la Universidad Politécnica de CartagenaUniversidad Politécnica de CartagenaPrograma Doctorado en Tecnologías de la Información y las Comunicacione
    corecore