Article thumbnail

Programación Paralela: MPI

By José Ignacio Martín Aramburu, Javier Francisco Muguerza Rivero, Agustín Arruabarrena Frutos, María Olatz Arregui Uriarte and Olatz Arbelaiz Gallego

Abstract

Duración (en horas): Más de 50 horas Destinatario: Estudiante y DocenteEl alumnado debe desarrollar un proyecto en el área de de la programación paralela en sistemas de memoria distribuida, en concreto, en un cluster de cálculo, enfrentándose a un supuesto práctico profesional (en el caso de este proyecto, la programación paralela de un algoritmo de difusión del calor en un circuito impreso). Como herramienta de programación paralela, en el desarrollo del proyecto se utilizará el estándar de programación paralela MPI. El alumnado, organizado en grupos de trabajo, debe previamente estudiar la problemática de la programación paralela utilizando MPI en máquinas de memoria distribuida, principalmente centrada en estos aspectos: (a) las comunicaciones colectivas; (b) los tipos derivados y los comunicadores; y (c) la planificación dinámica (modelo manager-worker) y el problema de las fronteras en el reparto de datos. Tras ello, el alumnado se enfrentará a la programación paralela de la aplicación y al análisis del rendimiento obtenido. Para finalizar el proyecto, cada grupo hará una exposición pública del trabajo realizado y de los resultados obtenidos

Topics: aprendizaje basado en proyectos, cluster, mpi, programación paralela, rendimiento en sistemas paralelos, sistemas de memoria distribuida, APRENDIZAJE BASADO EN PROYECTOS
Publisher: Vicerrectorado de Calidad e Innovación Docente
Year: 2016
OAI identifier: oai:addi.ehu.es:10810/20501
Provided by: Communities in ADDI
Journal:
Download PDF:
Sorry, we are unable to provide the full text but you may find it at the following location(s):
  • http://hdl.handle.net/10810/20... (external link)
  • Suggested articles


    To submit an update or takedown request for this paper, please submit an Update/Correction/Removal Request.