Se analiza la paralelización de un algoritmo clásico de compresión fractal de imagenes, utilizando procesadores heterogéneos conectados en red con un soporte de procesamiento distribuido basado en PVM y XPVM.
En particular se discuten dos métricas de interés: el speed-up obtenible (separando los tiempos propios del overhead de comunicaciones) al incrementar el número de procesadores y la pérdida resultante del índice de compresión alcanzado.
Si bien se trata de una clase de algoritmo muy particular, resulta de interés tecnológico sobre todo en aplicaciones donde la información es comprimida una vez y almacenada para su recuperación en consulta muchas veces (por ejemplo en servidores de información InterNet) ya que los índices de compresión alcanzables con una pérdida aceptable son muy altos y al mismo tiempo el algortimo de descompresión es muy rápido.
Por último se discute el efecto de variar el particionamiento de la imagen sobre los tiempos de procesamiento y la posibilidad de realizar un particionamiento adaptivo con el fin de optimizar la relación índice de compresión/pérdida aceptable sin deterioro del speed-up.Eje: Procesamiento distribuido y paralelo. Tratamiento de señalesRed de Universidades con Carreras en Informática (RedUNCI