567 research outputs found

    Inteligencia computacional inspirada en la vida

    Get PDF
    El desarrollo actual de la mayoría de las disciplinas del conocimiento humano no se hubiera alcanzado si no hubiera sido por el gran avance de la informática en los últimos años. En esta lección inaugural del curso 2010-2011 de la universidad de Málaga se realiza un breve recorrido sobre los paradigmas de la Inteligencia Computacional como una parte importante de la informática. Se comienza con las redes neuronales artificiales que son modelos matemáticos inspirados en el conocimiento actual que tenemos sobre el funcionamiento del cerebro. Los principios de organización de las neuronas biológicas, los flujos de información y los mecanismos de aprendizaje y memorización son utilizados en el diseño de dichos modelos. Por otra parte, la evolución biológica se puede contemplar como un proceso de optimización cuyo objetivo es mejorar la capacidad de un organismo para sobrevivir en ambientes competitivos que cambian dinámicamente. Así surge la computación evolutiva que está inspirada en los procesos de la evolución natural y que presenta múltiples ventajas. Asimismo, observando el comportamiento de las hormigas se ha comprobado que encuentran el camino más corto entre el hormiguero y la fuente de comida gracias a una sustancia llamada feromona creando un camino de olor. Es un mecanismo de coordinación indirecta entre agentes y acciones que ha inspirado el desarrollo de la computación de colonias de hormigas. Por otro lado, también se ha observado la formación de grupos sociales en muchas especies de animales e insectos que les permite reunirse y moverse juntos a partir de interacciones locales entre ellos, como ocurre en las bandadas de pájaros o en los enjambres de abejas. A partir de dichas interacciones emergen comportamientos colectivos más complejos. La inteligencia de enjambres está inspirada en dichos procesos. Finalmente, se presentan en esta lección algunas áreas de aplicación de la inteligencia computacional y se indican las tendencias actuales de la misma

    Integración de simuladores de tecnologías de memoria avanzadas con GPGPU-Sim

    Full text link
    [ES] Los sistemas de computación heterogénea basados en un paradigma híbrido de computación escalar y vectorial son la apuesta actual como medio de alcanzar la computación a exaescala. El hardware encargado de los cálculos vectoriales es normalmente una GPU o unidad de procesamiento gráfico, y es objeto de una especial atención en el campo de la ingeniería de computadores. Entre las múltiples complejidades en el diseño de las GPU, el subsistema de memoria es un punto crítico y que concentra una gran parte de atención. Tanto para la propuesta de mejoras en este subsistema, o como para el diseño de nuevos subsistemas, las herramientas de simulación detallada aportan mayor velocidad y menores costes con respecto al diseño de prototipos funcionales. En este TFG se propone la integración de un simulador detallado de GPU, GPGPU-Sim, ampliamente utilizado para el modelado de GPU con tres simuladores de memoria principal diferentes. Se describen los aspectos de diseño e implementación para esta integración y se realizan varios experimentos demostrando las capacidades de la propuesta: i) permite la comparación de modelos de tecnologías de memoria entre diferentes simuladores, ii) permite modelar una amplia variedad de tecnologías de memoria, y iii) abre la posibilidad de realizar análisis que no es posible efectuar únicamente con GPGPU-Sim.[EN] Heterogeneous computing systems based on a hybrid paradigm of scalar and vector computing are the current bet as a means of achieving exascale computing. The hardware in charge of vector calculations is usually a GPU (Graphics Processing Unit), and it is subject of special attention in computer engineering. Among the many complexities in the design of GPUs, the memory subsystem is a critical key and one that receives a large part of the attention. Both for the proposal of improvements in this subsystem, or for the design of new subsystems, detailed simulation tools provide greater speed and lower costs with respect to the design of functional prototypes. In this TFG, we propose the integration of a detailed and widely used GPU simulator, GPGPU-Sim, with three different main memory simulators. The design and implementation aspects for this integration are described, and several experiments are carried out demonstrating the capabilities of the proposal: i) it allows comparison of memory technology models between different simulators, ii) it allows a wide variety of memory technologies to be modelled, and iii) it opens up the ability to perform experimental analyses that are not possible with GPGPU-Sim alone[CA] Els sistemes de computació heterogènia basats en un paradigma híbrid de computació escalar i vectorial són l’aposta actual com a mitjà d’aconseguir la computació a exaescala. El maquinari encarregat dels càlculs vectorials és normalment una GPU o unitat de processament gràfic, i és objecte d’una especial atenció en el camp de l’enginyeria de computadors. Entre les múltiples complexitats en el disseny de les GPU, el subsistema de memòria és un punt crític i que concentra una gran part d’atenció. Tant per a la proposta de millores en aquest subsistema, o com per al disseny de nous subsistemes, les eines de simulació detallada aporten major velocitat i menors costos respecte al disseny de prototips funcionals. En aquest TFG es proposa la integració d’un simulador detallat de GPU, GPGPUSim, àmpliament utilitzat per al modelatge de GPU amb tres simuladors de memòria principal diferents. Es descriuen els aspectes de disseny i implementació per a aquesta integració i es realitzen diversos experiments demostrant les capacitats de la proposta: i) permet la comparació de models de tecnologies de memòria entre diferents simuladors, ii) permet modelar una àmplia varietat de tecnologies de memòria, i iii) obri la possibilitat de realitzar anàlisi que no és possible efectuar únicament amb GPGPU-Sim.Baiget Orts, CJ. (2022). Integración de simuladores de tecnologías de memoria avanzadas con GPGPU-Sim. Universitat Politècnica de València. http://hdl.handle.net/10251/182337TFG

    Computación de alto desempeño en GPU

    Get PDF
    Este libro es el resultado del trabajo de investigación sobre las características de la GPU y su adopción como arquitectura masivamente paralela para aplicaciones de propósito general. Su propósito es transformarse en una herramienta útil para guiar los primeros pasos de aquellos que se inician en la computación de alto desempeños en GPU. Pretende resumir el estado del arte considerando la bibliografía propuesta. El objetivo no es solamente describir la arquitectura many-core de la GPU y la herramienta de programación CUDA, sino también conducir al lector hacia el desarrollo de programas con buen desempeño. El libro se estructura de la siguiente manera: Capítulo 1: se detallan los conceptos básicos y generales de la computación de alto rendimiento, presentes en el resto del texto. Capítulo 2: describe las características de la arquitectura de la GPU y su evolución histórica. En ambos casos realizando una comparación con la CPU. Finalmente detalla la evolución de la GPU como co-procesador para el desarrollo de aplicaciones de propósito general. Capítulo 3: este capítulo contiene los lineamientos básicos del modelo de programación asociado a CUDA. CUDA provee una interfaz para la comunicación CPU-GPU y la administración de los threads. También se describe las características del modelo de ejecución SIMT asociado. Capítulo 4: analiza las propiedades generales y básicas de la jerarquía de memoria de la GPU, describiendo las propiedades de cada una, la forma de uso y sus ventajas y desventajas. Capítulo 5: comprende un análisis de los diferentes aspectos a tener en cuenta para resolver aplicaciones con buena performance. La programación de GPU con CUDA no es una mera transcripción de un código secuencial a un código paralelo, es necesario tener en cuenta diferentes aspectos para usar de manera eficiente la arquitectura y llevar a cabo una buena programación. Finalmente se incluyen tres apéndices. En el primero se describen los calificadores, tipos y funciones básicos de CUDA, el segundo detalla algunas herramientas simples de la biblioteca cutil.h para el control de la programación en CUDA. El último apéndice describe las capacidades de cómputo de CUDA para las distintas GPU existentes, listando los modelos reales que las poseen.XV Escuela Internacional de Informática, realizada durante el XVII Congreso Argentino de Ciencia de la Computación (CACIC 2011).Red de Universidades con Carreras en Informática (RedUNCI

    Implementación de algoritmos de aprendizaje automático para Big Data

    Get PDF
    El objetivo principal de este proyecto es la implementación sobre Spark de una herramienta para análisis multivarible, que permita la optimización de los métodos de Análisis de Componentes Principales (Principal Component Analysis, PCA), Mínimos Cuadrados Parciales Ortonormalizados (Orthonormalized Partial Least Squares, OPLS) y Análisis de Correlaciones Canónicas (Canonical Correlation Analysis, CCA). Además de las versiones básicas de estos métodos, la herramienta está basada en un trabajo de publicación reciente que propone incorporar restricciones adicionales sobre la función de coste a fin de obtener soluciones más dispersas e interpretables. Por lo tanto, el trabajo se enmarca en el contexto del Big Data, del Aprendizaje Automático y, más concretamente, en el análisis multivariable. Muchos de los conjuntos de datos que requieren ser procesados provienen de plataformas en las que se tienen en cuenta un gran número de variables diferentes con el fin de medir todo aquello que pueda influir a nuestros datos en cuestión. La mayoría de las veces hay un gran número de variables que no aportan nada o casi nada de información para una tarea concreta. Además muchas de ellas pueden estar correlacionadas entre sí, por lo que resultaría muy interesante eliminar estas correlaciones y las variables innecesarias, creando un conjunto nuevo de datos. Así se reduce la dimensión de los datos, lo que se traduce en una mayor rapidez del procesado y en visualizaciones más claras, además de potenciales ventajas en términos de precisión y requisitos computacionales durante la aplicación posterior de alguna herramienta de aprendizaje automático. En resumen, el objetivo de este proyecto es la creación de una toolbox, compuesta por sus funciones e interfaz, que aborde la implementación de versiones regularizadas de PCA, CCA y OPLS. Esta toolbox funcionará de modo distribuido por lo que se realizará sobre Spark y el lenguaje de programación Python.Ingeniería en Tecnologías de Telecomunicació

    Análisis de expedientes clínicos que apoyan al diagnóstico de cáncer a partir de memorias asociativas evolutivas

    Get PDF
    La enfermedad del cáncer en todos sus tipos se sigue estudiando para poder entenderla mejor, dado que su padecimiento es de diversas formas y son muchos los factores que pueden relacionarse con un diagnóstico final de si una persona tiene o no un determinado tipo de cáncer. En este trabajo presentamos una primera propuesta de análisis del cáncer de mama, a partir de una base de datos de expedientes clínicos bien reconocida en el medio de la comunidad de estudio del reconocimiento de patrones. Se propone el uso de memorias asociativas evolutivas como herramienta de análisis desde el aprendizaje automático, que de acuerdo a la investigación realizada en el estado del arte de nuestro problema no ha sido usada hasta el momento, y estas han demostrado resultados prometedores. Nuestro objetivo es brindar un nuevo punto de vista de los factores de la enfermedad como componentes de los patrones; y analizar el comportamiento de la clasificación desde una base de datos conocida. Cabe señalar que no se busca una reducción de dimensiones del patrón, sino de arrojar luces de los factores posiblemente relacionados con la enfermedad.Cancer disease in all its types is still being studied in order to better understand it, given that its condition is of various forms and there are many factors that can be related to a final diagnosis of whether a person has a certain type of cancer. In this work, we present a first approach for the analysis of breast cancer, based on a well-recognized database of clinical records in the pattern recognition study community. The use of evolutionary associative memories is proposed as an analysis tool from machine learning, which according to the research carried out in the state of the art has not been used so far, and these have shown promising results. Our goal is to provide a new point of view of cancer factors as components of patterns; and analyzing the classification behavior from a known database. It should be noted that it is not intended to reduce the size of the pattern, but rather to shed light on the factors possibly related to the disease

    Clasificación Tisular en GPU: aceleración y optimizaciones

    Get PDF
    Desde hace una década, los procesadores gráficos o GPUs vienen ganando protagonismo en la computación de altas prestaciones, contribuyendo a la aceleración de miles de aplicaciones en multitud de áreas de la ciencia. Pero más que esta conquista, lo que ha hecho singular al movimiento GPGPU ha sido la vía para su consecución, ofreciendo tecnología popular, barata y notablemente arropada. Como resultado, la supercomputación está hoy al alcance de cualquier usuario y empresa, democratizando un sector hasta entonces circunscrito a unos pocos centros elitistas. El auge de las GPUs en los entornos de altas prestaciones ha generado un reto a la comunidad de desarrolladores software. Los programadores están habituados a pensar y programar de manera secuencial, y sólo una minoría se atrevía hace 10 años a adentrarse en este mundo. La programación paralela es una tarea compleja que exige otras habilidades y modelo de razonamiento, además de conocer nuevos conceptos hardware, algoritmos y herramientas de programación. Poco a poco, esta percepción ha ido cambiando gracias a la aportación de aquellos que, conscientes de la dificultad, quisieron aportar su granito de arena para facilitar esta transición. El trabajo de esta tesis recoge este espíritu. Planteamos nuevos diseños e implementaciones de algoritmos en el ámbito de la biocomputación para evaluar el rendimiento de las GPUs más destacadas durante la última década, desde equipos con una única GPU hasta supercomputadores de 32 GPUs. En cada uno de los problemas de biocomputación se han analizado todas las características relevantes de la GPU que permiten exprimir su gran potencial, para así presentar de una manera didáctica y rigurosa un estudio pormenorizado de los detalles y técnicas de programación más acordes a cada tipo de algoritmo. Cronológicamente, la aparición de la arquitectura de cálculo paralelo CUDA para GPUs es un hito de especial importancia en la programación de algoritmos de propósito general en GPUs. Nuestro trabajo comenzó en la era pre-CUDA con una aplicación de detección de círculos basada en la transformada de Hough y un algoritmo de detección del tumor neuroblastoma. Sus implementaciones explotan la GPU desde una perspectiva más artesanal, empleando un gran abanico de unidades funcionales de la GPU. Para ello fueron necesarios buenos conocimientos del cauce de segmentación gráfico y ciertas dosis de creatividad. Lo habitual en aquella época era aprovechar casi de forma exclusiva los procesadores de píxeles, al ser los más numerosos y mostrar ya claros indicios de escalabilidad. Entre tanto, nuestro estudio se dedicó a mostrar el potencial de otros recursos menos populares, como los procesadores de vértices, el rasterizador (conversión de polígonos en píxeles) y las unidades de blending (mezclado de contenidos en pantalla). Con la irrupción de CUDA, nuestra atención se dirigió a aplicaciones más exigentes, como el registro de imágenes o el cálculo de los momentos de Zernike para caracterizar regiones tisulares. Completamos también nuestro estudio del neuroblastoma, para poder así contrastar las facilidades aportadas por CUDA y sus posibilidades de optimización. Respecto a las arquitecturas gráficas objeto de nuestro análisis, comenzamos nuestra andadura con modestas GeForce, prosiguiendo con Quadro de gama alta, y concluyendo con Tesla de propósito general, justo donde muchos se iniciaron en el mundo GPGPU para tomar el relevo. La longevidad del algoritmo de detección de tumores nos ha permitido comparar evolutivamente todas estas arquitecturas, el registro de imágenes, ilustrar el beneficio de apoyarse en una popular librería como cuFFT, y los momentos de Zernike, desvelar las exigencias para optimizar el código en generaciones venideras (en nuestro caso, Fermi y Kepler). La exploración de este amplio abanico de posibilidades, tanto en la vertiente software como en la diversidad de modelos hardware que nos han acompañado, desemboca en un sinfín de aportaciones que, además de contribuir a una aceleración de hasta dos órdenes de magnitud en comparación con CPUs de su misma gama, han permitido que el trabajo de esta tesis siente las bases de otras muchas líneas de investigación que han dado crédito y continuidad a nuestro esfuerzo

    Aportación al análisis de espectros de radiación: estructuras y algoritmos

    Get PDF
    A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work

    Diseño e implementación de lenguajes orientados al modelo PRAM

    Get PDF
    Un lenguaje orientado al modelo Pram requiere la posibilidad de distinguir entre variables compartidas y privadas. También requiere un modelo de sincronización por barreras implícitas. Otro elemento indispensable es el paralelismo anidado, ofreciendo la posibilidad de combinar paralelismo y recursividad. Se introduce el modelo pram y sus variantes y se discuten los dos lenguajes orientados al modelo Pram que reúnen las condiciones mencionadas: Fork y 11. Se estudia el lenguaje Fork y su sucesor Fork95, desarrollados en Alemania, su sintaxis, semántica y diferentes realizaciones. También se establecen comparaciones entre ambas aproximaciones (11 y Fork). Nuevas propuestas, tanto en la sintaxis del lenguaje 11 como en el entorno en tiempo de ejecución, van destinadas a hacer más eficiente la ejecución del código traducido

    Modelo de educación de la inteligencia colectiva

    Get PDF
    The research carried out is part of the field of study of Collective Intelligence (CI) with the use of Information and Communication Technologies (ICT) in Higher Education. The heart of this research was focused on the study, design and construction of electronic tools according to the paradigms of CI, to be applied in Higher Education. As an instrument for the implementation of these tools, an educational model with a collective work approach was designed. The research strategy used was Design-Based Research (DBR), because it investigates a phenomenon in its real context, iterative and incremental, and it is especially recommended for the field of education. DBR in each experimental cycle updates literature, model and tools. Empirical studies were conducted in four universities and fields of study in Latin America and Europe. The refinements demanded by the research strategy provided the scientific and empirical evidence to design ICT tools that meet the requirements of CI. In addition, the results indicate that the educational model and the tools have generated a positive perception in teachers and students about the effects on the teaching-learning process. Based on this fact, the experimental cycles present significant contributions to the research carried out around the CI with ICT tools in Higher Education.La investigación realizada se enmarca en el campo de estudio de la Inteligencia Colectiva (IC) con el uso de las Tecnologías de la Información y la Comunicaciones (TIC) en la Educación Superior. El corazón de ésta investigación estuvo enfocada en el estudio, diseño y construcción de herramientas electrónicas acorde a los paradigmas de IC, para ser aplicadas en la Educación Superior. Como vía de instrumentación de dichas herramientas, se diseñó un modelo educativo con enfoque de trabajo colectivo. La estrategia de investigación que se utilizó fue la Investigación Basada en el Diseño (DBR), porque investiga un fenómeno en su contexto real, es iterativa e incremental, y está especialmente recomendada para el ámbito de la educación.DBR en cada ciclo experimental actualiza literatura, modelo y herramientas. Los estudios empíricos se realizaron en cuatro universidades y campos de estudio en Hispanoamérica y Europa. Los múltiples refinamientos exigidos por la estrategia de investigación, proporcionaron la evidencia científica y empírica para diseñar herramientas TIC que cumplan con los requisitos de IC. Además, los resultados indican que el modelo educativo y las herramientas han generado una percepción positiva en docentes y estudiantes sobre los efectos en el proceso de enseñanza-aprendizaje. Basados en este hecho, los ciclos experimentales presentan aportes significativos a las investigaciones que se realizan en torno a la IC con herramientas TIC en la Educación Superior
    corecore