6,425 research outputs found

    Designing tailored spaces for Alzheimer’s patients, an architectural perspective

    Get PDF
    Cuando el alzhéimer entra en un hogar, una serie de cambios se desencadenan en la vida diaria de sus moradores, su forma de habitar cambia inevitablemente. Ante algunos comportamientos de usuarios con problemas de memoria cabe preguntarse si están condicionados por su estado o por su entorno; si es esto último, ¿cómo proyectar para la ausencia de memoria? La forma de abordar este problema desde la arquitectura requiere una nueva perspectiva. Supone ver a la persona no como un enfermo con un conjunto de síntomas sino como un habitante que vive en un entorno físico que puede ser proyectado o modificado para adecuarlo a sus peculiares y cambiantes necesidades. El propósito del artículo es exponer cómo la arquitectura, como arte y como técnica, aborda este problema, aportando una metodología de investigación que busca conocer las demandas concretas de estos habitantes en su experiencia diaria del espacio doméstico, desde la seguridad, la accesibilidad y la personalización como estimulación sensorial y estabilizadora emocional; generando además un conocimiento que permita desarrollar mecanismos y elementos de composición necesarios para proyectar, construir y humanizar un entorno que complete carencias del enfermo, se adapte a la evolución de la dolencia y mejore su calidad de vida.When Alzheimers afflicts a person it also has a major impact on the home. This inevitably means that significant changes must be made. As architects, we have pondered how we can better design living spaces for those affected by various degrees of memory impairment. How to design for the absence of memory? The approach to this challenge, from an architectural standpoint, needs a new perspective that requires focusing on the specific necessities of an inhabitant, as opposed to the effects of the disease itself. We are looking more at the specific implications on the living environments and how they could be designed or modified to adapt to the subjects constantly changing conditions. The purpose of this article is to show how architecture, from its duality as an art/technical discipline, is tackling this problem developing research methodology which involves looking at the concrete needs of the users in their daily domestic space, analyzing its security, accessibility and the customization of space as a sensory stimulus and emotional stabilizer. Additionally, we seek to generate a body of knowledge in order to develop composition elements and mechanisms to design, build and humanize the environment to fulfill their necessities, adapting it to the evolution of the disease and improving quality of life

    Lectura de labios en imágenes de vídeo

    Full text link
    [ES] Durante una conversación nuestro cerebro se encarga de combinar la información procedente de múltiples sentidos con el objetivo de mejorar nuestra capacidad a la hora de interpretar el mensaje percibido. Además, diferentes estudios han demostrado la relación existente entre las expresiones faciales y su sonido correspondiente. Este efecto nos ha impulsado hacia la construcción de un sistema capaz de leer los labios considerando únicamente la información procedente del canal visual, es decir, capaz de mimetizar la habilidad humana de interpretar el habla leyendo los labios del interlocutor. Para ello, en primer lugar, se ha construido un dataset compuesto por planos frontales de cuatro presentadores de telediario, así como las transcripciones asociadas a cada uno de los discursos. Para cada uno de estos discursos, se localiza la región bucal gracias a bibliotecas enfocadas al machine learning, como es el caso de scikit-learn Tras la compilación de este conjunto de datos, se han procesado los distintos planos de modo que puedan ser interpretados por el sistema. Además, después de este procesado, se han aplicado técnicas de selección de características para prescindir de aquellos datos que no aporten información relevante de cara al reconocimiento del habla. Por otra parte, nuestro sistema se compone de distintos módulos, entre los que destacamos los Modelos Ocultos de Markov Continuos por su gran aporte al ámbito del reconocimiento de voz, o texto manuscrito, entre otros. Estos modelos son entrenados con un subconjunto del dataset construido, mientras que sus prestaciones serán comprobadas con los datos restantes. Sin embargo, los resultados obtenidos tras el protocolo experimental no han sido mínimamente aceptables. Esto demuestra la dificultad que presenta la interpretación del habla continua y, más aún, si tenemos en cuenta los desafíos que supone la carencia de un sentido tan crucial como es el oído. Por tanto, nuestro sistema se proyecta sobre trabajos futuros en los cuales volcar el resto de nuestros esfuerzos[EN] During a conversation our brain is responsible for combining information from multiple senses in order to improve our ability to interpret the perceived message. In addition, different studies have shown the relationship between facial expressions and their corresponding sound. This effect has driven us towards the construction of a system capable of reading the lips considering only the information coming from the visual channel, that is, capable of mimicking the human ability to interpret speech by reading the interlocutor's lips. For this, first, a dataset composed of frontal views of four television news anchors has been constructed, as well as the transcriptions associated to each one of the speeches. For each of these speeches, the mouth region is located thanks to libraries focused on machine learning, as it is the case of scikit-learn. After the compilation of this dataset, the different views have been processed so that they can be interpreted by the system. In addition, after this processing, feature selection techniques have been applied to disregard data that does not provide relevant information for speech recognition. On the other hand, our system is composed of different modules, among which we highlight the Continuous Hidden Markov Models for their great contribution to the field of voice recognition, or handwritten text, among others. These models are trained with a subset of the constructed dataset, while their accuracy will be checked with the remaining data. However, the results obtained after the experimental protocol have not been minimally acceptable. This demonstrates the difficulty presented by the interpretation of continuous speech and, even more so, if we consider the challenges posed by the lack of such a crucial sense as hearing. Therefore, our system is projected on future works in which to focus the rest of our efforts.[CA] Durant una conversació el nostre cervell s'encarrega de combinar la informació procedent de múltiples sentits amb l'objectiu de millorar la nostra capacitat a l'hora d'interpretar el missatge percebut. A més, diferents estudis han demostrat la relació existent entre les expressions facials i el seu so corresponent. Este efecte ens ha impulsat cap a la construcció d'un sistema capaç de llegir els llavis considerant únicament la informació procedent del canal visual, és a dir, capaç de mimetitzar l'habilitat humana d'interpretar la parla llegint els llavis de l'interlocutor. Per a això, en primer lloc, s'ha construït un dataset compost per plans frontals de quatre presentadors de telenotícies, així com les transcripcions associades a cada un dels discursos. Per a cada un d'estos discursos, es localitza la regió bucal gràcies a biblioteques enfocades al machine learning, com és el cas de scikit-learn Després de la compilació d'este conjunt de dades, s'han processat els distints plans de manera que puguen ser interpretats pel sistema. A més, després d'este processat, s'han aplicat tècniques de selecció de característiques per a prescindir d'aquelles dades que no aporten informació rellevant de cara al reconeixement de la parla. D'altra banda, el nostre sistema es compon de distints mòduls, entre els que destaquem els Models Ocults de Markov Continus per la seua gran aportació a l'àmbit del reconeixement de veu, o text manuscrit, entre altres. Estos models són entrenats amb un subconjunt del dataset construït, mentres que les seues prestacions seran comprovades amb les dades restants. No obstant això, els resultats obtinguts després del protocol experimental no han sigut mínimament acceptables. Açò demostra la dificultat que presenta la interpretació de la parla contínua i, més encara, si tenim en compte els desafiaments que suposa la carència d'un sentit tan crucial com és l'oïda. Per tant, el nostre sistema es projecta sobre treballs futurs en els quals bolcar la resta dels nostres esforçosGimeno Gómez, D. (2019). Lectura de labios en imágenes de vídeo. http://hdl.handle.net/10251/125008TFG

    Desarrollo de un sistema de búsquedas en voz basadas en ejemplos

    Full text link
    En la actualidad existen diversas técnicas para implementar un sistema de búsqueda en voz. En este TFG se describe el desarrollo de un sistema de búsqueda en voz basadas en ejemplos usando el método QbE - STD (Query-by-Example – Spoken Detection Term). El sistema se ajusta a las condiciones de la evaluación ALBAYZIN 2016, es decir, se usan los mismos recursos (archivos) que son proporcionados para los participantes y se despliega uno de los sistemas propuestos. El sistema QbE – STD tiene como objetivo encontrar un término (consulta) en un repositorio (documento). Sin embargo, en lugar de usar palabras o fonemas en formato de texto como términos de búsqueda, el sistema emplea fragmentos de audio como términos de búsqueda. Estos fragmentos, son las consultas y han de ser pre-procesadas. La fase de pre-procesamiento se basa esencialmente en la extracción de características. Conjuntamente los documentos han de pasar por este mismo proceso. La técnica adoptada para la extracción de características debido a sus buenos resultados es la de probabilidades a posteriori de fonemas. Estas son obtenidas a través de un reconocedor fonético. Por otro lado, otra fase fundamental en el desarrollo del sistema es la implementación de un algoritmo de comparación. Se ha implementado el algoritmo S-DTW (DTW de Subsecuencias) el cual es una variante del algoritmo original de alineamiento temporal dinámico (DTW). El algoritmo decide si la consulta se encuentra en el documento o no. En caso afirmativo, nos proporciona los instantes de tiempo en los cuales comienza y termina una posible detección de la consulta dentro de la base de datos. En añadidura se devuelve la puntuación de la detección. Finalmente; se realizan una serie de pruebas y resultados para evaluar la eficacia del sistema.Nowadays, there are available several techniques for the development of a voice search system. In this Bachelor Thesis, we describe a voice search system based on examples employing the QbE – STD (Query-by-Example – Spoken Detection Term) approach. This system satisfies the ALBAYZIN 2016 evaluation conditions, in other words, the system makes use of the same resources (audio files) that were provided for the participants. Furthermore, one of the proposed systems is deployed. The aim of the QbE - STD system is to detect a term (query) in an audio database. Nevertheless, instead of using words or some phonemes in a text format as search terms, the system uses audio fragments as search terms. This audio fragments are the queries, and they must be pre-processed. The pre-processing step is essentially based on the feature extraction. Jointly, the audio database must go through this same process. The phoneme posteriorgrams is the feature extraction approach, this choice is due to its excellent results on the evaluation. These are obtained using phoneme decoders. On the other hand, it is indispensable the implementation of a searching algorithm. The chosen algorithm is the subsequence DTW, a variant of the classic DTW approach. The algorithm decides whether the query is in the audio database or not. If the query is found, it returns the boundaries (the beginning and the end) of the query in the audio database. In addition, the detection score is returned. Finally, several tests and results are performed to evaluate the system’s performance

    Control de presión usando visión artificial a través de un Procesador digital de señales DSP

    Get PDF
    El siguiente proyecto ilustra el diseño de un sistema de control de presión por medio de visión artificial, centrando el proyecto en el desarrollo de un algoritmo capaz de realizar este proceso en tiempo real y con una alta confiabilidad, para esto se inició con la implementación del software MATLAB el cual cuenta con toolbox especializados en el procesamiento de imágenes lo cual facilita el análisis y la implementación del sistema. Luego de la implementación en MATLAB se realizó el análisis para llevar el sistema al procesador digital de señales (DSP) ADSP-BF533 del cual se muestra un resumen de su estructura (hardware y software), en este se pueden apreciar las altas prestaciones de la DSP y la viabilidad para el desarrollo de este diseñ

    Diseño de una metodología para el procesamiento de imágenes mamográficas basada en técnicas de Aprendizaje Profundo

    Get PDF
    El Aprendizaje Profundo es un subcampo dentro del Aprendizaje de Máquina que utiliza diferentes algoritmos de aprendizaje automático para modelar abstracciones de alto nivel en datos usando arquitecturas jerárquicas, conocidas como redes neuronales profundas (DNNs). Entre los múltiples algoritmos que se pueden encontrar, existen algunos como las redes neuronales convolucionales (CNNs), los autocodificadores y las redes recurrentes (RNNs), que pueden ser de gran ayuda a la hora de analizar imágenes médicas. El gran potencial que tienen estas técnicas para el análisis de imagen médica reside en su velocidad y eficacia una vez que se tienen una gran cantidad de datos. Su uso se puede aplicar a tareas tan diversas como la detección y segmentación de tumores, así como su seguimiento y control; la visualización y cuantificación del flujo sanguíneo, o a la creación de sistemas de ayuda para interpretación de resultados médicos. Por lo tanto, es lógico pensar que en un futuro serán técnicas cada vez más utilizadas, convirtiéndose muchas de estas tareas algo propio de un ordenador. Los objetivos de este Trabajo de Fin de Grado son los siguientes: - La introducción al Aprendizaje Profundo y a los distintos algoritmos que se emplean actualmente, destacando sus ventajas y desventajas. - Revisar el estado del arte de las técnicas de Aprendizaje Profundo usadas para el análisis de imágenes médicas, así como la identificación de los campos médicos en los que estos algoritmos pueden ser de utilidad. - La identificación de los algoritmos de Aprendizaje Profundo que pueden emplearse en el análisis de imágenes mamográficas. - El diseño de una metodología específica para el procesamiento de imágenes mamográficas utilizando las técnicas mencionadas. Para ello se llevará a cabo un amplio estudio del estado del arte de los diversos algoritmos de Aprendizaje Profundo y de sus usos en el análisis de imagen médica. También se trabajará en la familiarización con algunos de los algoritmos más directamente relacionados con la segmentación de imagen, por su aplicabilidad a la detección de masas y microcalcificaciones en mamografía digital, que serán de vital importancia en la metodología diseñada. Para ello se emplearán distintas fuentes bibliográficas de referencia. Para finalizar, con este Proyecto se quieren señalar las múltiples aplicaciones que tienen los algoritmos de Aprendizaje Profundo en medicina, y resaltar como su uso ayudará a los médicos a tomar mejores decisiones, así como a mejorar los resultados médicos tanto en términos de tiempo como de eficacia

    Deep Learning para la Detección de Peatones y Vehículos

    Get PDF
    Dado el reciente desarrollo y el impacto que ha tenido el paradigma de Deep Learning en el campo de la Inteligencia Artificial, el presente trabajo tiene como base el interés en este paradigma de aprendizaje, en específico empleando redes neuronales convolucionales (CNNs), para la detección o clasificación de objetos en imágenes; además se analiza las ventajas de implementar estos algoritmos en hardware. El objeto de estudio del aprendizaje automático es tratar de emular la inteligencia humana de forma artificial. Se ha trabajado en este campo por años, con diferentes enfoques y algoritmos. En la última década, el paradigma del Deep Learning ha revolucionado el estado del arte en tareas como reconocimiento de voz, visión artificial y el procesamiento del lenguaje natural; que resultaban difíciles de llevar a cabo por una máquina. Las técnicas que predominan en este paradigma son las CNNs, se utilizan como principal algoritmo en tareas que involucran visión artificial, tales como la detección de objetos. Se ha logrado un despunte importante en el reconocimiento de patrones en imágenes y video empleando estas técnicas, al grado de superar la capacidad humana. Un factor importante para ese desarrollo es la capacidad de procesar altos volúmenes de información en aplicaciones exitosas, lo que ha derivado en que los dispositivos empleados para dicho propósito, como GPUs y CPUs multinúcleo requieran de gran cantidad de energía para su funcionamiento. Recientemente, han surgido investigaciones enfocadas en buscar alternativas de hardware, sobre el cual implementar las CNNs de forma eficiente, sobre todo para aplicaciones embebidas. Una de estas alternativas son los Arreglos de Compuertas Programables en Campo (FPGAs), que ofrecen la capacidad de procesamiento en paralelo espacial y temporal, un menor tiempo de latencia y bajo consumo de potencia; lo que resulta ideal para ese tipo de aplicaciones. El presente trabajo se divide en dos partes, por un lado se hace la implementación del paradigma Deep Learning con una CNN para clasificar imágenes de señales de tránsito vehicular (como primer caso de estudio), con el propósito de medir el tiempo de entrenamiento y su desempeño en la clasificación. Por otro lado, se investiga la tecnología relacionada con FPGAs, para determinar la forma en que se puede acelerar el cómputo implicado en ese tipo de redes con estos dispositivos, validándolos como una alternativa de implementación para sistemas embebidos. Los resultados obtenidos en la presente investigación son: 1) La programación, entrenamiento y prueba de una CNN. Se realizaron una serie de experimentos, encontrando un error en la clasificación de 3.25% y un tiempo de entrenamiento de 0.33 horas, para los mejores casos de los ensayos realizados. 2) Se analizan las ventajas de implementar este tipo de algoritmos en FPGAs, sus restricciones, requisitos y tres alternativas de desarrollo.CONACY

    Interpretación de redes neuronales profundas como herramienta para diferenciar subtipos de TDAH a partir de patrones de actividad

    Get PDF
    El Trastorno por Déficit de Atención e Hiperactividad (TDAH) es un trastorno neuropsiquiátrico que afecta a niños y a adultos. El TDAH se divide en tres subtipos: predominantemente inatento, predominantemente hiperactivo y combinado. Tradicionalmente, el diagnóstico tanto del TDAH como de su subtipo se han basado en evaluaciones médicas con un importante componente subjetivo. El correcto diagnóstico del subtipo de TDAH es fundamental para el desarrollo de un tratamiento adecuado y adaptado al paciente. Estudios recientes han revelado que el uso de métodos basados actimetría junto aprendizaje profundo son buenas opciones a la hora de identificar el TDAH, así como diferenciar sus subtipos. Sin embargo, en el caso del TDAH predominantemente hiperactivo, no se ha llevado a cabo ningún estudio de esta índole al tratarse del tipo menos diagnosticado y del que menos información se tiene. Por ello, en el presente trabajo se propone la elaboración de un sistema capaz de caracterizar el TDAH de tipo hiperactivo mediante el análisis de patrones de actividad y técnicas de interpretabilidad. Para ello, a partir de las señales actigráficas de los pacientes, se han creado espectrogramas divididos por el subtipo y se han entrenado redes neuronales convolucionales. Tras ello, se analizan las salidas de dichas redes mediante técnicas como los mapas de oclusión y modelos de mezcla gaussiana.Attention Deficit Hyperactivity Disorder (ADHD) is a neuropsychiatric disorder that affects children and adults. ADHD is divided into three subtypes: predominantly inattentive, predominantly hyperactive, and combined. Traditionally, the diagnosis of both ADHD and its subtype have been based on medical evaluations with an important subjective component. The correct diagnosis of the ADHD subtype is essential for the development of an suitable treatment adapted to the patient. Recent studies have revealed that the use of actimetry-based methods together with deep learning are good options when it comes to identifying ADHD, as well as differentiating its subtypes. However, in the case of predominantly hyperactive ADHD, no study of this nature has been carried out as it is the least diagnosed type and about which the least information is available. Therefore, in this work we propose the development of a system capable of characterizing hyperactive ADHD through the analysis of activity patterns and interpretability techniques. For this purpose, based on the actigraphic signals of the patients, spectrograms divided by subtype have been created and convolutional neural networks have been trained. After that, the outputs of these networks are analyzed using techniques such as occlusion maps and gaussian mixture models.Departamento de Teoría de la Señal y Comunicaciones e Ingeniería TelemáticaGrado en Ingeniería de Tecnologías de Telecomunicació

    Identificación y localización de células gliales en imágenes de tejido cerebral

    Get PDF
    Se propone un sistema de procesamiento digital de imágenes para la identificación automática de células gliales de tejido cerebral. El propósito es apoyar al especialista, que al seleccionar una región de interés (ROI) en una imagen de tejido cerebral, se procede a buscar esa ROI en toda la imagen en cuestión. La metodología propuesta trabaja a nivel textura por lo que primero aplica un preprocesamiento a toda la imagen: se extraen atributos CBIR (Content-based Image Retrieval) probados en la literatura, dando como resultado la posibilidad de analizar de forma local a una imagen específica para localizar regiones similares en la misma imagen. Nuestra propuesta hace uso de una discriminación de los patrones conformados usando métrica euclidiana, tras implementar el método K-Means para una auto-organización de los patrones de textura conformados. Se han realizado pruebas con un total de 312 imágenes experimentales de laboratorio obtenidas de un microscopio Zeiss Axyo Manager en formato TIFF, y se han obtenido resultados satisfactorios bajo la supervisión del especialista en biología celular. Adicionalmente, con el fin de acelerar el tiempo de análisis de un conjunto grande de imágenes, el sistema propuesto integra técnicas de paralelismo para aprovechar la capacidad de cómputo de un sistema multiprocesador.A digital image processing system is proposed for the automatic identification of glial cells of brain tissue. The purpose of this approach is to support the specialist, so thatwhen selecting a region of interest (ROI) on a brain tissue image, proceed to search forthat ROI in the entire image in question The proposed methodology works at the texture level, so it first applies a preprocessing to the entire image: CBIR (Content-based Image Retrieval) attributes found in the literature, resulting in the possibility of analyzing locally the texture of a specific image to locate similar regions in the same image. Our proposal applies a discrimination of the conformed patterns using Euclidean metrics, after implementing the K-Means method for a self-organization of the conformed texture patterns. Tests have been carried out with a total of 312 laboratory images, purely experimental obtained from microscope Zeiss Axyo Manager in TIFF file format, and promising results have been obtained under the supervision of the specialist in cell biology. Additionally, in order to speed up the analysis time of a large set of images, the proposed system integrates parallelism techniques to take advantage of the computational capacity of a multiprocessor system

    Sistema de apoyo a la terapia vocal para un robot social

    Get PDF
    Hoy en día, no es común encontrar terapias robotizadas enfocadas en la apraxia del habla para pacientes con discapacidades motoras relacionadas con la demencia, Alzheimer, o que hayan sufrido un ictus. El objetivo de este proyecto es el desarrollo de un software que pueda integrarse en un robot social para la realización de dichas terapias. Con esto, se pretende conseguir crear una terapia novedosa para el paciente y que requiera un menor grado de atención para el terapeuta, ya que el paciente estará “jugando” con el robot. En este documento se muestra el Trabajo Fin de Grado titulado “Sistema de apoyo a la terapia vocal para un robot social”, realizado en el grupo de investigación RoboticsLab de la Universidad Carlos III de Madrid, en la Escuela Politécnica Superior de Leganés. En este proyecto haremos uso de un clasificador para determinar qué pose está vocalizando el usuario. Tomamos los datos (imágenes y puntos en 3D) desde un sensor Kinect, que está integrado dentro de la arquitectura del robot Mini. El manejo de los datos provenientes del sensor es realizado por un que nos da 18 puntos con los que se caracteriza la boca del usuario. Dichos puntos se utilizan en la fase de entrenamiento del sistema o para realizar el ejercicio de la terapia. La terapia se realizará utilizando el robot Mini. El robot será capaz de proponer al usuario una pose y corregirle en el caso de que realice mal la pronunciación. Además, aprovechando la capacidad de síntesis de voz del robot Mini, se guiará al usuario durante los ejercicios, o se le felicitará si vocaliza correctamente.Nowadays, there are not many robotic therapies focused on speech apraxia in patients with motor disabilities related dementia, Alzheimer or who have suffered a stroke. The aim of this project is the realization of a software that can be implemented in a social robot in order to perform such therapies. This is intended to create a more pleasant therapy for the patient, which requires a lesser degree of attention to the therapist, as the patient will be " playing" with the robot. This document describes the Bachelor Thesis entitled “Sistema de apoyo a la terapia vocal para un robot social”, made in the research group called RoboticsLab of the Carlos III University of Madrid, in the Polytechnic School in Leganes. In this project we will use a classifier to determine which vowel is the user pronouncing. We take data (images and 3D points) with a Kinect sensor, which is integrated into the architecture of the Mini robot. Management data from the sensor is performed by a node that provides 18 reference points of how the user's mouth is characterized. These points can be used to train the classifier or to exercise therapy. The therapy is carried out with the support of the Mini robot. The robot will be able to offer the user a vowel and correct him. In addition, the robot may indicate the patient to open the mouth more or less, or congratulate if the vocalization is correct.Ingeniería Electrónica Industrial y Automátic

    Hacia una representación del conocimiento basada en la percepción

    Get PDF
    Mención Internacional en el título de doctorEsta Tesis define un marco de referencia para crear un modelo de representación del conocimiento inspirándose en la componente biológica cognitiva. Con ello se pretende conseguir un meta-modelo que se comporte de manera análoga a cómo funciona el sistema de adquisición, representación y almacenamiento de la información en los seres humanos, considerando los principales componentes cognitivos asociados: la percepción, el conocimiento y la memoria. Se espera de dicho meta-modelo el poder extender las capacidades del ser humano (limitación perceptual, tanto en capacidad como en variedad), reduciendo sus inconvenientes, de manera que sea posible integrar más información semántica en cada una de las entidades almacenadas en la Base de Conocimiento Global. Dicho conocimiento global podrá ser usado posteriormente en una gran variedad de Sistemas de Información, tales como motores de inferencia avanzados, planificadores y sistemas de recomendación, entre otros. El marco de referencia está compuesto por tres partes bien diferenciadas: - Una serie de Principios Fundamentales identificados y obtenidos mediante un análisis exhaustivo de la literatura, en el área de la Psicología y la Neurociencia Cognitiva. - Una serie de Características Tecnológicas inferidas por dichos principios y soportadas por un estudio del estado actual en el área de las Ciencias de la Computación. - Una implementación modular, distribuida, escalable, eficiente y segura del modelo de representación basada en las características tecnológicas y en los principios fundamentales expuestos. El marco de referencia ha sido validado en sus componentes teóricas mediante expertos en la materia para ambos campos, y en su componente práctica mediante una implementación física y su correspondiente experimentación.This Thesis defines a framework to create a knowledge representation model inspired by the biological cognitive component. With this, it is sought to achieve a meta-model that behaves in an analogous way as the acquisition, representation and storage systems in humans, considering the main associated cognitive components: perception, knowledge and memory. This meta-model is expected to extend the capabilities of the mankind (perceptual limitation, both in capacity and variety), reducing its drawbacks, so that it is possible to integrate more semantic information in each one of the entities stored in the Global Knowledge Base. Such global knowledge can later be used in a wide variety of Information Systems, such as advanced inference engines, planners and recommendation systems, among others. The framework is composed by three distinct parts: - A set of Fundamental Principles identified and obtained through an exhaustive analysis of the literature, in the area of Psychology and Cognitive Neuroscience. - A series of Technical Characteristics inferred by such Fundamental Principles and supported by a study of the current state in the area of Computer Science. - A modular, distributed, scalable, efficient and secure implementation of the representation model based on the technological characteristics and fundamental principles exposed. The framework has been validated in its theoretical components by experts in both fields, and in its practical component through a physical implementation and its corresponding experimentation.Programa Oficial de Doctorado en Ciencia y Tecnología InformáticaPresidente: María Isabel Sánchez Segura.- Secretario: Agustín Gonzalo Cuevas.- Vocal: Alan Edwin Serrano-Ric
    corecore