7 research outputs found

    Finger-vein individuals identification on massive databases

    Get PDF
    In massive biometric identification, response times highlydepend on the searching algorithms. Traditional systems operate with databases of up to 10,000 records. In large databases, with an increasing number of simultaneous queries, the system response time is a critical factor. This work proposes a GPU-based implementation for the matching process of finger-vein massive identification. Experimental resultss how that our approach solves up to 256 simultaneous queries on large databases achieving up to 136x.Instituto de Investigación en InformáticaInstituto de Investigación en Informátic

    Optimización de cálculo para la medición de la intensidad acústica compleja para dispositivos stand-alone de bajo costo

    Get PDF
    En recientes publicaciones presentadas por la Universidad Nacional de Chilecito (UNdeC) en colaboración con el Consiglio Nazionale delle Ricerche (CNR) y la Universita degli Studi di Ferrara (UNIFE) [Stanzial y Graffigna, 2016, 2017], donde se propone una sólida definición de la intensidad acústica compleja basada en la impedancia acústica, las tres instituciones han sido copropietarias de una patente sobre la metodología para la medición de la intensidad compleja del sonido en 3D en el dominio frecuencial. Dado que la metodología propuesta implica un cálculo elevado y que se espera ejecutarla en un dispositivo stand-alone de bajo costo, es necesario optimizar los algoritmos de medición para maximizar el uso de los recursos de hardware disponibles.Red de Universidades con Carreras en Informátic

    Comparative analysis of exhaustive searching on a massive finger-vein database over multi-node/multi-core and multi-GPU platforms

    Get PDF
    When searching on unstructured data (video, images, etc.), response times are a critical factor. In this work we propose an implementation on two types of multi-GPU and multi-node/multi-core platforms, for massive searches. The presented method aims to reduce the time involved in the search process by solving simultaneous queries over the system and a database of millions of elements. The results show that the multi-GPU approach is 1.6 times superior to the multi-node/multi-core algorithm. Moreover, in both algorithms the speedup is directly proportional to the number of nodes reaching 156x for 4 GPUs, and 87x in the case of the hybrid multi-node/multi-core algorithm.Instituto de Investigación en Informátic

    Upper bounds on the superfluid stiffness and superconducting TcT_c: Applications to twisted-bilayer graphene and ultra-cold Fermi gases

    Get PDF
    Understanding the material parameters that control the superconducting transition temperature TcT_c is a problem of fundamental importance. In many novel superconductors, phase fluctuations determine TcT_c, rather than the collapse of the pairing amplitude. We derive rigorous upper bounds on the superfluid phase stiffness for multi-band systems, valid in any dimension. This in turn leads to an upper bound on TcT_c in two dimensions (2D), which holds irrespective of pairing mechanism, interaction strength, or order-parameter symmetry. Our bound is particularly useful for the strongly correlated regime of low-density and narrow-band systems, where mean field theory fails. For a simple parabolic band in 2D with Fermi energy EFE_F, we find that kBTcEF/8k_BT_c \leq E_F/8, an exact result that has direct implications for the 2D BCS-BEC crossover in ultra-cold Fermi gases. Applying our multi-band bound to magic-angle twisted bilayer graphene (MA-TBG), we find that band structure results constrain the maximum TcT_c to be close to the experimentally observed value. Finally, we discuss the question of deriving rigorous upper bounds on TcT_c in 3D.Comment: Revised figures, includes estimates from another model of MA-TBG, published version of manuscrip

    Software y aplicaciones en computación de altas prestaciones para el contexto de la UNdeC

    Get PDF
    En la actualidad, para abordar problemas de mayor tamaño y complejidad estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se propone abordar seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas. Algunas de los estudios que se abordan ya vienen desarrollándose en la Universidad Nacional de Chilecito, otros se inician a partir de cooperaciones con otras instituciones o para formalizar trabajos finales de postgrado. En todos los casos, el HPC será abordado a través de un proceso metodológico organizado para: Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC. Desarrollar las capacidades científico-tecnológicas del equipo. Fomentar la vinculación y transferencia con los sectores académico, social y productivo. Cada problema abordado reúne entre sus integrantes, investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Se espera consolidar a corto plazo un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Eje: Procesamiento Distribuido y Paralelo.Red de Universidades con Carreras en Informátic

    Tecnología HPC como motor de ciencia de la UNdeC

    Get PDF
    En la actualidad, para abordar problemas de mayor tamaño y complejidad, los estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se abordan seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas. Algunos de estos estudios se realizan exclusivamente en la Universidad Nacional de Chilecito, mientras que otros son en cooperación con otras instituciones nacionales y extranjeras. Entre estos, tres formalizan trabajos finales de postgrado. En todos los casos, el HPC será abordado a través de un proceso metodológico organizado para: ● Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC ● Desarrollar las capacidades científico-tecnológicas del equipo ● Fomentar la vinculación y transferencia con los sectores académico, social y productivo Cada problema abordado reúne entre sus integrantes investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Con esto, se está consolidando un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Eje: Procesamiento distribuido y paralelo.Red de Universidades con Carreras en Informátic

    Tecnología HPC en la UNdeC como motor de ciencia

    Get PDF
    En la actualidad, para abordar problemas de mayor tamaño y complejidad, los estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se abordan seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas. Algunos de estos estudios se realizan exclusivamente en la Universidad Nacional de Chilecito, mientras que otros son en cooperación con otras instituciones nacionales y extranjeras. Entre estos, tres formalizan trabajos finales de postgrado. En todos los casos, el HPC es abordado a través de un proceso metodológico organizado para: - Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC - Desarrollar las capacidades científico-tecnológicas del equipo - Fomentar la vinculación y transferencia con los sectores académico, social y productivo Cada problema abordado reúne entre sus integrantes investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Con esto, se está consolidando un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Red de Universidades con Carreras en Informátic
    corecore