Almacenar, transferir y procesar grandes volúmenes de datos en el área que se ha denominado Big Data son un factor determinante y un reto para el Cómputo de Alto Rendimiento (sigla en inglés: HPC de High Performance Computing). Los algoritmos usados para procesar esos datos deben sacar provecho de las ventajas ofrecidas por el cómputo en la Nube (Cloud), mediante el uso de algoritmos que permitan agilizar/acelerar el cómputo de o con esos datos.\nLa conjunción de Big Data y HPC se suele enfocar en la paralelización del procesamiento mediante la distribución de los datos y la delegación del cómputo en los nodos de procesamiento de la plataforma. Estas arquitecturas de cómputo, que para el caso de la memoria distribuida eran tradicionalmente los clusters, se pueden migrar al Cloud. La migración permite montar clusters virtuales (Cluster as a Service) logrando un entorno auto-escalable dependiente de la carga de trabajo. Se propone la identificación y evaluación de un conjunto representativo de algoritmos usados en Big Data con énfasis en su implementación en clouds.Eje: Procesamiento Distribuido y Paralel