594 research outputs found

    Implementación de un cluster homogéneo para la resolución de problemas de alta complejidad computacional

    Get PDF
    A lo largo de la historia de la computación se han presentado diversos problemas de tipo complejo que en el pasado no podían ser resueltos ó que simplemente el costo de su solución era sólo alcanzable para algunos. Sin embargo, con la tecnología actual, estos problemas son blanco fácil para los investigadores y con pocos recursos se puede llegar a la solución esperada. Este artículo tiene como objetivo mostrar la importancia que tiene hoy en día el procesamiento paralelo y distribuido para la solución de diversos problemas que se presentan en la vida diaria tomando como enfoque principal el manejo de un cluster

    Algoritmos paralelos y distribuidos para cómputo de altas prestaciones : Fundamentos, aplicaciones y evaluación de rendimiento

    Get PDF
    El eje central de la línea de investigación lo constituye el estudio de los temas de procesamiento paralelo y distribuido para cómputo de altas prestaciones, en lo referente a los fundamentos y a las aplicaciones. Incluye problemas de software asociados con la construcción, evaluación y optimización de algoritmos concurrentes, paralelos y distribuidos sobre arquitecturas multiprocesador. Los temas de interés abarcan aspectos de fundamentos como diseño y desarrollo de algoritmos paralelos en diferentes arquitecturas multiprocesador y plataformas de software, paradigmas paralelos, modelos de representación de aplicaciones, mapeo o asignación de procesos a procesadores, métricas, escalabilidad, balance de carga, evaluación de performance. Las arquitecturas pueden ser homogéneas o heterogéneas. Las áreas de experimentación se enfocan principalmente a la concepción de aplicaciones paralelas numéricas y no numéricas sobre grandes volúmenes de datos y/o de cómputo intensivo, con el fin de obtener soluciones de alto rendimiento. Se han incorporado temáticas como el uso de GPU en el desarrollo de soluciones, y el análisis del consumo y la eficiencia energética en algoritmos paralelos. Este proyecto se coordina con otros dos en curso en el III-LIDI, relacionados con Arquitecturas Distribuidas y Paralelas y Sistemas de Software Distribuido. Existe colaboración con el grupo CAOS del Departamento de Arquitectura de Computadores y Sistemas Operativos de la Univ. Autónoma de Barcelona en la dirección de tesis de postgrado.Eje: Procesamiento Distribuido y ParaleloRed de Universidades con Carreras en Informática (RedUNCI

    Uso de arquitecturas MIC para la aceleración de soluciones numéricas en electromagnetismo

    Get PDF
    La mejora en la eficiencia de recursos computacionales para la resolución de problemas electromagnéticos es un tema complejo y de gran interés. La aparición en la última década de GPUs y tarjetas coprocesadoras Xeon Phi en las listas de los supercomputadores con mayor rendimiento, ha llevado a los investigadores a tratar de sacar el máximo provecho de estas nuevas tecnologías. El objetivo principal de esta Tesis es mejorar la eficiencia del método MoM (Method of Moments) mediante la paralelización de algunos de sus algoritmos en procesadores con arquitectura Intel MIC (Many Integrated Core). Para ello, se realiza el modelado de un problema electromagnético mediante la metodología SIE-MoM (Surface Integral Equation-Method of Moments), y se desarrollan nuevos algoritmos para su ejecución en tarjetas coprocesadoras Intel Xeon Phi. Los resultados obtenidos tras evaluar los tiempos de computación comparativamente entre las tarjetas Intel Xeon Phi y las CPUs Intel Xeon, indican que la arquitectura Intel MIC podría resultar adecuada en simulaciones electromagnéticas como complemento a CPUs.Improving the efficiency of computational resources for solving electromagnetic problems is a complex subject of great interest. The growth of GPUs (Graphics Processing Unit) and Xeon Phi coprocessor boards on the lists of top-performing supercomputers over the past decade has led researchers to try to make the most of these new technologies. The main objective of this Thesis is to improve the efficiency of the MoM method by parallelizing some of its algorithms on processors with Intel MIC (Many Integrated Core) architecture. For this purpose, the modeling of an electromagnetic problem is carried out using the SIE-MoM (Surface Integral Equation-Method of Moments) methodology, and new algorithms are developed for their execution on Intel Xeon Phi coprocessor cards. The results obtained after evaluating computation time compared between Intel Xeon Phi cards and Intel Xeon CPUs, indicate that the Intel MIC architecture could be suitable in electromagnetic simulations as a complement to CPUs

    Clasificación automática de anomalías asociadas con ausencia de información en superficies tridimensionales de objetos de forma libre

    Get PDF
    En este trabajo se propone un método computacional para clasificar anomalías relacionadas con ausencia de información sobre modelos tridimensionales de forma libre. Para ello, se hizo una exploración descriptiva de las propiedades geométricas globales y locales de las anomalías y una evaluación posterior de distintos métodos de clasificación utilizados en visión artificial y aplicaciones de reconstrucción tridimensional. El método propuesto logra un nivel de clasificación cercano al 90% y un tiempo de ejecución de alrededor de 100 milisegundos. Restringir la clasificación de acuerdo a la aplicación en específico se propone como trabajo futuro./Abstract. In this work it is proposed a computational method to classify anomalies related with information absence over free-form tridimensional models. For that, it was made a descriptive exploration of global and local geometric properties of anomalies and a posterior evaluation of different classification methods widely used in artificial vision and tridimensional reconstruction applications. The proposed method achieved a classification level near to 90% and an execution time near to 100 miliseconds. Constrain classification according to the specific application is suggested as future work.Maestrí

    Análisis de consumo energético en cluster de GPU y MultiGPU en un problema de alta demanda computacional

    Get PDF
    El objetivo general es realizar investigación y desarrollo en algoritmos paralelos sobre arquitecturas basadas en GPU (Unidad de Procesamiento Gráfico o Graphic Processing Unit). En particular, estudiar y desarrollar un algoritmo de Alta Demanda Computacional, como lo es el problema de los N Cuerpos, en las plataformas Cluster de GPU y MultiGPU. Se busca comparar performance y consumo energético, a fin de obtener conclusiones respecto de la conveniencia de las soluciones en relación fundamentalmente al tiempo de ejecución y consumo energético. Por esto, se estudiarán conceptos básicos de la física, tales como la corriente eléctrica, unidades de medida y equipos de medición. Además, se investigarán los conceptos de Green Computing y eficiencia energética.Facultad de Informátic

    Detección de comunidades en redes: Algoritmos y aplicaciones

    Get PDF
    El presente trabajo de fin de máster tiene como objetivo la realización de un análisis de los métodos de detección de comunidades en redes. Como parte inicial se realizó un estudio de las características principales de la teoría de grafos y las comunidades, así como medidas comunes en este problema. Posteriormente, se realizó una revisión de los principales métodos de detección de comunidades, elaborando una clasificación, teniendo en cuenta sus características y complejidad computacional, para la detección de las fortalezas y debilidades en los métodos, así como también trabajos posteriores. Luego, se estudio el problema de la calificación de un método de agrupamiento, esto con el fin de evaluar la calidad de las comunidades detectadas, analizando diferentes medidas. Por último se elaboraron las conclusiones así como las posibles líneas de trabajo que se pueden derivar.This master's thesis work has the objective of performing an analysis of the methods for detecting communities in networks. As an initial part, I study of the main features of graph theory and communities, as well as common measures in this problem. Subsequently, I was performed a review of the main methods of detecting communities, developing a classification, taking into account its characteristics and computational complexity for the detection of strengths and weaknesses in the methods, as well as later works. Then, study the problem of classification of a clustering method, this in order to evaluate the quality of the communities detected by analyzing different measures. Finally conclusions are elaborated and possible lines of work that can be derived

    Simulación de un modelo de autómata celular para el tratamiento del problema del cifrado simétrico de la información

    Get PDF
    Desde épocas remotas, el hombre ha desarrollado una gran variedad de técnicas y procedimientos orientados a la protección y seguridad de la información de modo que garanticen su privacidad, confidencialidad. La información representa el insumo principal que genera conocimiento, base fundamental para la óptima toma de decisiones. De este modo la información adopta un rol preponderante constituyéndose en un factor crítico de éxito en personas, organizaciones y sociedades. El tratamiento y solución del problema del cifrado de la información usando criptografía simétrica, será enfocado desde una perspectiva de la investigación de operaciones, cuyo campo de estudio principal es el modelado y simulación de sistemas dinámicos complejos. Para tal efecto se va a desarrollar e implementar un criptosistema usando un autómata celular circular periódico como modelo representativo de un sistema dinámico complejo que evoluciona a pasos discretos en el tiempo a partir de reglas de transición de estados. La información representada como archivos y contenida en los repositorios o unidades de almacenamiento externo en computadoras personales y organizacionales, servidores remotos en la nube, etc., representa el objeto de estudio de la investigación. El modelado y simulación de un autómata celular asociado al desarrollo e implementación del sistema criptográfico adopta un contexto multidisciplinario e involucra el estudio y aplicación de importantes disciplinas tales como investigación de operaciones, teoría de sistemas, matemáticas, estadística, optimización, entre otras importantes áreas del conocimiento.Tesi

    Comparación del uso de GPGPU y cluster de multicore en problemas con alta demanda computacional

    Get PDF
    La presente Tesina de Grado tiene como objetivo la investigación y el estudio de las plataformas de memoria compartida GPU y cluster de Multicore para la resolución de problemas con alta demanda computacional. Se presentan soluciones al problema planteado con el fin de comparar rendimiento en sus versiones secuencial, paralela con memoria compartida, paralela con pasaje de mensajes, paralela híbrida y paralela en GPU. Se analiza la bondad de las soluciones en relación al tiempo de ejecución y aceleración, y se introduce el análisis de consumo energético.Facultad de Informátic

    Diseño de prototipo de GUI para monitoreo de trabajos del clúster de procesamiento de la UTB /

    Get PDF
    Actualmente, la difusión de la información con el uso del Internet ha crecido increíblemente y es notable la utilidad y los beneficios obtenidos a partir de esto. Por otro lado, la cantidad de implementaciones, a través de la misma Internet, y el almacenamiento de grandes cantidades de datos han hecho de los recursos computacionales una necesidad. Las necesidades de las organizaciones para el procesamiento de datos son cada vez mayores, debido a esto se ha luchado por conseguir la integración necesaria entre sistemas de diferentes organizaciones, o, aún entre sistemas dentro de una misma organización, sin embargo, dada la diversidad de tecnologías los desarrolladores se ven en la necesidad de construir sobre diversidad de aplicaciones y para diferentes entornos. La comunidad profesional de la información ha estado fascinada con el potencial de unir diferentes ordenadores obteniendo de esta forma un solo ordenador virtual que permita el procesamiento masivo de datos enfocándose en los recursos. Algunos de los inconvenientes asociados a las soluciones tradicionales y los sistemas basados en la centralización de los datos por medio de un servidor son la falta de escalabilidad, mantenimiento caro, además, una vez adquirido equipo este podría estar mucho tiempo desaprovechado. Es necesario resaltar que en la lucha por la integración de recursos se han desarrollado algunas soluciones como lo son las arquitecturas clúster y arquitecturas de intranet, logrando cierto acercamiento sin llegar a constituirse en la solución optima debido por ejemplo a la dificultad de mantenimiento, escalabilidad limitada, falta de amortización y distribución de la carga entre recursos cuando estos están desaprovechados, entre otros.Incluye bibliografía, anexo

    Paralelización de la factorización LU de matrices para clusters heterogéneos

    Get PDF
    El objetivo del proyecto Condor es aumentar la productividad. También existe mucho trabajo en aumentar el rendimiento, o sea, aumentar la cantidad de cómputo en un corto período de tiempo. En este trabajo, se busca aumentar el rendimiento de ciertas operaciones de álgebra lineal para una arquitectura determinada. Existe software que permite construir computadoras paralelas virtuales integrando un conjunto de computadoras conectadas en red (como es el caso de PVM). Aunque los nodos de estas computadoras virtuales y la red subyacente no han sido diseñadas para optimizar operaciones paralelas, se pueden alcanzar aumentos en el rendimiento si las aplicaciones paralelas se conciben directamente para este ambiente específico. En resumen, las características que tienen estas redes hacen que sean una arquitectura recomendable para ser utilizadas para cómputo paralelo. Sin embargo hay que tener en cuenta todas sus características para que su uso en el ámbito del cómputo paralelo sea, al menos, aceptable. Y el objetivo de todo el trabajo puesto en este tema, es para que no sea sólo aceptable, sino también óptimo. En la actualidad se observa una fuerte tendencia a utilizar CLUMPS (clusters formados por computadoras SMP) o clusters homogéneos. Aunque la tendencia sea otra, en este trabajo se utilizan clusters heterogéneos y se desarrollan algoritmos para dicha arquitectura. En este trabajo se propone una solución a la factorización LU de matrices para ser utilizado en clusters heterogéneos.Tesis digitalizada en SEDICI gracias a la colaboración de la Biblioteca de la Facultad de Informática.Facultad de Informátic
    corecore