7 research outputs found
Finger-vein individuals identification on massive databases
In massive biometric identification, response times highlydepend on the searching algorithms. Traditional systems operate with databases of up to 10,000 records. In large databases, with an increasing number of simultaneous queries, the system response time is a critical factor. This work proposes a GPU-based implementation for the matching process of finger-vein massive identification. Experimental resultss how that our approach solves up to 256 simultaneous queries on large databases achieving up to 136x.Instituto de Investigación en InformáticaInstituto de Investigación en Informátic
Optimización de cálculo para la medición de la intensidad acústica compleja para dispositivos stand-alone de bajo costo
En recientes publicaciones presentadas por la Universidad Nacional de Chilecito (UNdeC) en colaboración con el Consiglio Nazionale delle Ricerche (CNR) y la Universita degli Studi di Ferrara (UNIFE) [Stanzial y Graffigna, 2016, 2017], donde se propone una sólida definición de la intensidad acústica compleja basada en la impedancia acústica, las tres instituciones han sido copropietarias de una patente sobre la metodología para la medición de la intensidad compleja del sonido en 3D en el dominio frecuencial.
Dado que la metodología propuesta implica un cálculo elevado y que se espera ejecutarla en un dispositivo stand-alone de bajo costo, es necesario optimizar los algoritmos de medición para maximizar el uso de los recursos de hardware disponibles.Red de Universidades con Carreras en Informátic
Comparative analysis of exhaustive searching on a massive finger-vein database over multi-node/multi-core and multi-GPU platforms
When searching on unstructured data (video, images, etc.), response times are a critical factor. In this work we propose an implementation on two types of multi-GPU and multi-node/multi-core platforms, for massive searches. The presented method aims to reduce the time involved in the search process by solving simultaneous queries over the system and a database of millions of elements. The results show that the multi-GPU approach is 1.6 times superior to the multi-node/multi-core algorithm. Moreover, in both algorithms the speedup is directly proportional to the number of nodes reaching 156x for 4 GPUs, and 87x in the case of the hybrid multi-node/multi-core algorithm.Instituto de Investigación en Informátic
Upper bounds on the superfluid stiffness and superconducting : Applications to twisted-bilayer graphene and ultra-cold Fermi gases
Understanding the material parameters that control the superconducting
transition temperature is a problem of fundamental importance. In many
novel superconductors, phase fluctuations determine , rather than the
collapse of the pairing amplitude. We derive rigorous upper bounds on the
superfluid phase stiffness for multi-band systems, valid in any dimension. This
in turn leads to an upper bound on in two dimensions (2D), which holds
irrespective of pairing mechanism, interaction strength, or order-parameter
symmetry. Our bound is particularly useful for the strongly correlated regime
of low-density and narrow-band systems, where mean field theory fails. For a
simple parabolic band in 2D with Fermi energy , we find that , an exact result that has direct implications for the 2D BCS-BEC
crossover in ultra-cold Fermi gases. Applying our multi-band bound to
magic-angle twisted bilayer graphene (MA-TBG), we find that band structure
results constrain the maximum to be close to the experimentally observed
value. Finally, we discuss the question of deriving rigorous upper bounds on
in 3D.Comment: Revised figures, includes estimates from another model of MA-TBG,
published version of manuscrip
Software y aplicaciones en computación de altas prestaciones para el contexto de la UNdeC
En la actualidad, para abordar problemas de mayor tamaño y complejidad estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se propone abordar seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas.
Algunas de los estudios que se abordan ya vienen desarrollándose en la Universidad Nacional de Chilecito, otros se inician a partir de cooperaciones con otras instituciones o para formalizar trabajos finales de postgrado. En todos los casos, el HPC será abordado a través de un proceso metodológico organizado para: Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC. Desarrollar las capacidades científico-tecnológicas del equipo. Fomentar la vinculación y transferencia con los sectores académico, social y productivo.
Cada problema abordado reúne entre sus integrantes, investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Se espera consolidar a corto plazo un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Eje: Procesamiento Distribuido y Paralelo.Red de Universidades con Carreras en Informátic
Tecnología HPC como motor de ciencia de la UNdeC
En la actualidad, para abordar problemas de mayor tamaño y complejidad, los estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se abordan seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas.
Algunos de estos estudios se realizan exclusivamente en la Universidad Nacional de Chilecito, mientras que otros son en cooperación con otras instituciones nacionales y extranjeras. Entre estos, tres formalizan trabajos finales de postgrado. En todos los casos, el HPC será abordado a través de un proceso metodológico organizado para:
● Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC
● Desarrollar las capacidades científico-tecnológicas del equipo
● Fomentar la vinculación y transferencia con los sectores académico, social y productivo
Cada problema abordado reúne entre sus integrantes investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Con esto, se está consolidando un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Eje: Procesamiento distribuido y paralelo.Red de Universidades con Carreras en Informátic
Tecnología HPC en la UNdeC como motor de ciencia
En la actualidad, para abordar problemas de mayor tamaño y complejidad, los estudios de ciencia básica y aplicada utilizan Computación de Altas Prestaciones (HPC - High Performance Computing). El HPC permite mejorar la capacidad, velocidad y precisión en el procesamiento de datos. Con el proyecto que da origen a este trabajo se abordan seis estudios desde la perspectiva del HPC, para explorar los aspectos centrales del paralelismo aplicado desde las Ciencias de la Computación en otras disciplinas.
Algunos de estos estudios se realizan exclusivamente en la Universidad Nacional de Chilecito, mientras que otros son en cooperación con otras instituciones nacionales y extranjeras. Entre estos, tres formalizan trabajos finales de postgrado. En todos los casos, el HPC es abordado a través de un proceso metodológico organizado para:
- Consolidar una infraestructura de experimentación, desarrollo y producción de soluciones a problemas de HPC
- Desarrollar las capacidades científico-tecnológicas del equipo
- Fomentar la vinculación y transferencia con los sectores académico, social y productivo Cada problema abordado reúne entre sus integrantes investigadores especialistas en la disciplina del estudio, investigadores de Ciencias de la Computación y estudiantes en sus últimos años de formación de grado. Con esto, se está consolidando un grupo de investigación, desarrollo y transferencia que generará oportunidades de formación de recursos humanos, proveerá de servicios a la comunidad en el área de estudio y potenciará los vínculos de cooperación con otras instituciones.Red de Universidades con Carreras en Informátic