3 research outputs found
A STUDY ON MULTIFACTOR AUTHENTICATION MODEL USING FINGERPRINT HASH CODE, PASSWORD AND OTP
By definition, Authentication is using one or multiple mechanisms to show that you are who you claim to be. As soon as the identity of the human or machine is demonstrated, then human or machine is authorized to grant some services. The modern research study reveals that fingerprint is not so secured like secured a password which consists of alphanumeric characters, number and special characters. Fingerprints are left at crime places, on materials or at the door which is usually class of latent fingerprints. We cannot keep fingerprint as secure like rigid passwords. Using some modern technology with copper and graphite spray it's easy to mimic fingerprint image. Fingerprints are a half-secret if passwords are leaked or hacked, it easily revocable using another password. But in a biometric security system, which uses only biometric features, is not easy to change fingerprint key or fingerprint are static biometric, which never change much throughout the lifespan. Fingerprints are left at car, door or anyplace where every person goes and places his finger. Fingerprint Hash code is not used for full security or authentication purpose but it can be combined with other security elements like password or OTP in order to enhance security. In this paper, a novel method for Authentication is proposed by making use of Fingerprint Hash Code, Password, and OTP. In this study, we make use of Euclidean Distance to generate fingerprint Hash Code. Fingerprint Hash code is generated using MD5 Hash Function. The Model is implemented using MATLAB2015a. This paper also analyzes novel Authentication model used in this study with the aid of ABCD analysis
Anomaly detection in elderly daily behavior in ambient sensing environments
Current ubiquitous computing applications for smart homes aim to enhance people’s daily living respecting age span. Among the target groups of people, elderly are a population eager for “choices for living arrangements”, which would allow them to continue living in their homes but at the same time provide the health care they need. Given the growing elderly population, there is a need for statistical models able to capture the recurring patterns of daily activity life and reason based on this information. We present an analysis of real-life sensor data collected from 40 different households of elderly people, using motion, door and pressure sensors. Our objective is to automatically observe and model the daily behavior of the elderly and detect anomalies that could occur in the sensor data. For this purpose, we first introduce an abstraction layer to create a common ground for home sensor configurations. Next, we build a probabilistic spatio-temporal model to summarize daily behavior. Anomalies are then defined as significant changes from the learned behavioral model and detected using a cross-entropy measure. We have compared the detected anomalies with manually collected annotations and the results show that the presented approach is able to detect significant behavioral changes of the elderly
Contribución al reconocimiento de huellas dactilares mediante técnicas de correlación y arquitecturas hardware para el aumento de prestaciones
Las huellas dactilares son un identificador biométrico ampliamente utilizado. Su
uso se extiende desde aplicaciones policiales y forenses hasta aplicaciones civiles
muy comunes, como el control de accesos. Con la aparición de los primeros
sistemas automáticos de reconocimiento de huellas (AFIS, “Automatic Fingerprint
Identification System”) se comenzó el desarrollo y utilización de algoritmos de
comparación de huellas dactilares basados en minucias, que son puntos singulares
dentro de la huella. Estos métodos se asemejan a la comparación visual realizada
por un experto, identificando la posición de los puntos singulares para su posterior
comparación. Los métodos de comparación basados en minucias proporcionan una
respuesta precisa pero presentan numerosos inconvenientes. En primer lugar, las
técnicas de comparación basadas en minucias requieren un fuerte preprocesado de
las imágenes que suelen introducir artefactos en las imágenes a comparar. En
segundo lugar, estas técnicas solo toman una parte muy concreta de la información
contenida en la huella, sesgando con ello en gran medida la comparación.
Actualmente los sensores de huellas dactilares son capaces de proporcionar
imágenes de alta resolución y con alta calidad, utilizar únicamente las minucias para
la comparación es desaprovechar el resto de la valiosa información contenida en la
huella.
Los algoritmos basados en técnicas de correlación se presentan como candidatos
para paliar los dos inconvenientes anteriormente mencionados. Estas técnicas
utilizan el cálculo de la correlación cruzada como medida de similitud de las
imágenes. Por lo tanto se compara toda la información contenida en la huella y además, como no se requiere la extracción de características, se evita la compleja
etapa de preprocesado requerida por los métodos basados en minucias. A pesar de
haber demostrado recientemente que con las técnicas basadas en correlación se
pueden obtener resultados precisos [FVC2002], [FVC2004], estas técnicas siguen
siendo minoritariamente estudiadas y utilizadas. La principal desventaja que
presentan es su alta carga computacional, requiriendo equipos de altas prestaciones,
coste y tamaño.
Esta tesis doctoral presenta algoritmos para la comparación de huellas dactilares
mediante técnicas de correlación así como arquitecturas hardware eficientes para
solventar los problemas de rendimiento que presentan estas técnicas.
Se han propuesto dos algoritmos de comparación de huellas dactilares mediante
técnicas de correlación que son aportación original de esta tesis. Los algoritmos
presentan dos soluciones diferenciadas según la resolución de las imágenes a
comparar. Los métodos de alineamiento propuestos para cada uno de los algoritmos
también utilizan técnicas novedosas y son por tanto aportación original de esta tesis.
El algoritmo de comparación de imágenes de baja resolución realiza una etapa
de alineamiento novedosa basada en la correlación del campo de orientación de las
huellas. A partir del desplazamiento y la rotación calculados se seleccionan las
zonas de las huellas a comparar teniendo en cuenta el solape que existe entre las
huellas así como la calidad de las zonas elegidas. Una vez determinadas las zonas se
utiliza la correlación cruzada como medida de similitud de las zonas.
El algoritmo de comparación para imágenes de alta resolución selecciona zonas
cercanas al núcleo para efectuar la comparación. La selección del núcleo se efectúa
mediante una técnica novedosa que utiliza la transformada wavelet para determinar
la posición del núcleo. La detección del núcleo se realiza sobre la imagen
directamente sin necesidad de aplicar ningún preprocesado previo. Una vez
seleccionadas las zonas que contienen al núcleo, se realiza el cálculo de la
correlación cruzada como medida de similitud de las imágenes.
Los resultados experimentales para ambos algoritmos determinan que ambos
métodos son precisos en la comparación pero su rendimiento en implementaciones software es bajo. Esto es debido a que el rendimiento en ambos algoritmos se ve
afectado por la elevada carga computacional que acarrea el cálculo de la correlación
cruzada.
En esta tesis también se han propuesto arquitecturas hardware para la
aceleración del cálculo de la correlación cruzada. En concreto, se han propuesto dos
arquitecturas hardware, una para el cálculo de la correlación en el dominio espacial
y otra para el cálculo de la correlación en el dominio espectral. Así como una
arquitectura para realizar por hardware la normalización y poder así obtener una
correlación normalizada. Todas las arquitecturas propuestas son aportación original
de esta tesis.
La arquitectura espacial consta de una matriz sistólica de DSP slices que
realizan MACs (“Multiplication ACcumulation”). En esta arquitectura cada DSP
slice realiza una MAC y pasa el resultado al siguiente DSP slice de su misma fila.
Por lo tanto, en cada fila de la matriz se calcula la correlación cruzada de una fila de
ambas imágenes. Después de un retardo inicial, los resultados se proporcionan cada
ciclo de reloj.
La arquitectura espectral se basa en la aplicación del teorema de la correlación y
en la utilización de la transformada rápida de Fourier (FFT). Se han utilizado
módulos de cálculo de la FFT, que se han denominado FFT slices. En la
arquitectura propuesta, cada FFT slice realiza la FFT de una fila de ambas
imágenes. La arquitectura gestiona los FFT slices, así como memorias intermedias,
para realizar el máximo número posible de FFTs en paralelo.
Para la normalización se presentan arquitecturas recursivas que aprovechan el
flujo de datos de las arquitecturas que calculan la correlación. Con esta
aproximación es posible combinar ambos circuitos para integrarlos en un solo chip.
Además de esto, al compartir el flujo de datos los resultados se generan a la vez, sin
disminuir el rendimiento del sistema.
Experimentalmente se ha comprobado la aceleración conseguida con las
arquitecturas propuestas mediante implementaciones de las arquitecturas en una
FPGA (“Field Programmable Gate Array”) de la familia Virtex 4 de Xilinx [Xil_V4]. Los resultados experimentales demuestran que con las arquitecturas
propuestas se pueden conseguir aceleraciones de hasta dos órdenes de magnitud
respecto a implementaciones en C en un PC de gama alta.
También se han propuesto soluciones a nivel de sistema para la comparación de
huellas dactilares mediante técnicas de correlación. Estas soluciones presentan la
integración de las arquitecturas hardware propuestas en un SoPC (“System On
Pogrammable Chip”). La arquitectura básica del SoPC propuesto consta de un
microprocesador empotrado junto con un coprocesador hardware que realiza las
tareas de complejidad elevada. Con esta arquitectura se busca una mejora en el
rendimiento del sistema, aliviando la carga computacional del microprocesador
empotrado.
Se proponen dos arquitecturas para el coprocesador hardware del SoPC que son
aportación original de esta tesis. La arquitectura estática se basa en la arquitectura
espacial propuesta, pero utilizando una única fila de DSP slices para realizar los
cálculos. En esta arquitectura, el coprocesador se encarga de realizar las tareas de
mayor carga computacional y el microprocesador el resto de tareas necesarias para
la comparación, incluyendo el envío de datos al coprocesador y la recomposición de
resultados.
La arquitectura dinámica se compone de un coprocesador reconfigurable de
grano grueso que puede cambiar en tiempo de ejecución tanto la operación a
realizar como el tamaño de las imágenes empleadas, implicando un
redimensionamiento de la matriz de DSP slices del coprocesador. La
reconfiguración la realiza directamente el microprocesador empotrado, sin
necesidad de utilizar los mecanismos internos de reconfiguración de la FPGA. Este
coprocesador presenta una solución versátil a la par que eficiente. La pérdida de
posibilidades frente a una reconfiguración de grano fino se ve compensada por una
disminución drástica del tiempo de reconfiguración que con la arquitectura
propuesta puede realizarse con tan solo cuatro transacciones de 32 bits.
El sistema se ha prototipado para una FPGA Virtex 5 de Xilinx [Xil_V5]
utilizando como microprocesador empotrado Microblaze [Xil_mblaze]. Los resultados experimentales obtenidos muestran que el SoPC diseñado es altamente
eficiente para diversas operaciones comunes en el campo del procesado de
imágenes (CC, S, SS y transformada wavelet) superando en rendimiento a
implementaciones software en un PC de altas prestaciones. En el SoPC propuesto
también se ha implementado el algoritmo para imágenes de alta resolución
propuesto consiguiendo el mismo rendimiento que un PC de altas prestaciones.
Con esta tesis doctoral se ha estudiado la comparación de huellas dactilares
mediante técnicas de correlación obteniendo resultados precisos con algoritmos
novedosos de comparación. Se ha demostrado que las técnicas de correlación son
unas técnicas prometedoras en el ámbito de la comparación de huellas dactilares,
por la precisión obtenida así como por su capacidad de comparar la totalidad de la
información contenida en la huella.
También se han solventado los problemas de rendimiento que presentan estas
técnicas mediante arquitecturas hardware específicas que proporcionan
rendimientos elevados. .Las arquitecturas propuestas hacen posible cálculos de
correlación en tiempo real y en sistemas de bajo coste y tamaño. El SoPC con
coprocesador dinámico propuesto presenta una solución muy versátil, ya que es
capaz de modificar en tiempo de ejecución la tarea a realizar por el coprocesador, el
tamaño de las imágenes y de la matriz de DSP slices, realizando el cálculo de forma
eficiente para un conjunto de datos de gran tamaño