11 research outputs found

    Performance of scientific processing in networks of workstations: matrix multiplication example

    Get PDF
    Parallel computing on networks of workstations are intensively used in some application areas such as linear algebra operations. Topics such as processing as well as communication hardware heterogeneity are considered solved by the use of parallel processing libraries, but experimentation about performance under these circumstances seems to be necessary. Also, installed networks of workstations are specially attractive due to its extremely low cost for parallel processing as well as its great availability given the number of installed local area networks. The performance of such networks of workstations is fully analyzed by means of a simple application: matrix multiplication. A parallel algorithm is proposed for matrix multiplication derived from two main sources: a) previous proposed algorithms for this task in traditional parallel computers, and b) the bus based interconnection network of workstations. This parallel algorithm is analyzed experimentally in terms of workstations workload and data communication, two main factors in overall parallel computing performance

    Performance of scientific processing in networks of workstations: matrix multiplication example

    Get PDF
    Parallel computing on networks of workstations are intensively used in some application areas such as linear algebra operations. Topics such as processing as well as communication hardware heterogeneity are considered solved by the use of parallel processing libraries, but experimentation about performance under these circumstances seems to be necessary. Also, installed networks of workstations are specially attractive due to its extremely low cost for parallel processing as well as its great availability given the number of installed local area networks. The performance of such networks of workstations is fully analyzed by means of a simple application: matrix multiplication. A parallel algorithm is proposed for matrix multiplication derived from two main sources: a) previous proposed algorithms for this task in traditional parallel computers, and b) the bus based interconnection network of workstations. This parallel algorithm is analyzed experimentally in terms of workstations workload and data communication, two main factors in overall parallel computing performance.Facultad de Inform谩tic

    C贸mputo cient铆fico: algoritmos paralelos para aprovechar redes locales instaladas

    Get PDF
    De acuerdo con la evoluci贸n en el tiempo, la potencia de c谩lculo disponible de las computadoras de escritorio crece a medida que el costo se reduce. Puesto de otra manera, la relaci贸n costo/potencia de c谩lculo o directamente costo/beneficio es m谩s ventajosa para los usuarios a medida que transcurre el tiempo. De hecho, hasta las computadoras paralelas de mayor potencia de c谩lculo absoluta se est谩n construyendo con hardware de procesamiento de uso masivo, por ejemplo, en las PCs y en las estaciones de trabajo que cada empresa dispone en el mercado de bajo costo [4]. Las instalaciones de redes locales para c贸mputo paralelo del tipo Beowulf [9] ya no son consideradas experimentales sino que se est谩n transformando en las plataformas de c贸mputo paralelo de producci贸n de varias instituciones.Eje: Procesamiento Concurrente, Paralelo y DistribuidoRed de Universidades con Carreras en Inform谩tica (RedUNCI

    C贸mputo cient铆fico: algoritmos paralelos para aprovechar redes locales instaladas

    Get PDF
    De acuerdo con la evoluci贸n en el tiempo, la potencia de c谩lculo disponible de las computadoras de escritorio crece a medida que el costo se reduce. Puesto de otra manera, la relaci贸n costo/potencia de c谩lculo o directamente costo/beneficio es m谩s ventajosa para los usuarios a medida que transcurre el tiempo. De hecho, hasta las computadoras paralelas de mayor potencia de c谩lculo absoluta se est谩n construyendo con hardware de procesamiento de uso masivo, por ejemplo, en las PCs y en las estaciones de trabajo que cada empresa dispone en el mercado de bajo costo [4]. Las instalaciones de redes locales para c贸mputo paralelo del tipo Beowulf [9] ya no son consideradas experimentales sino que se est谩n transformando en las plataformas de c贸mputo paralelo de producci贸n de varias instituciones.Eje: Procesamiento Concurrente, Paralelo y Distribuid

    Costos del c贸mputo paralelo en clusters heterog茅neos

    Get PDF
    Desde hace varios a帽os se ha establecido muy s贸lidamente el c贸mputo paralelo en clusters de computadoras de escritorio (PCs y/o estaciones de trabajo) dada su muy favorable relaci贸n costorendimiento [4] [5]. Adem谩s, las redes locales de computadoras instaladas se pueden identificar como las plataformas de c谩lculo con costo m谩s bajo, dado que muchas instituciones tienen una o m谩s redes locales de computadoras instaladas con bastante o mucha disponibilidad como para ser utilizadas para c贸mputo paralelo.Eje: Sistemas DistribuidosRed de Universidades con Carreras en Inform谩tica (RedUNCI

    Costos del c贸mputo paralelo en clusters heterog茅neos

    Get PDF
    Desde hace varios a帽os se ha establecido muy s贸lidamente el c贸mputo paralelo en clusters de computadoras de escritorio (PCs y/o estaciones de trabajo) dada su muy favorable relaci贸n costorendimiento [4] [5]. Adem谩s, las redes locales de computadoras instaladas se pueden identificar como las plataformas de c谩lculo con costo m谩s bajo, dado que muchas instituciones tienen una o m谩s redes locales de computadoras instaladas con bastante o mucha disponibilidad como para ser utilizadas para c贸mputo paralelo.Eje: Sistemas Distribuido

    Costos del c贸mputo paralelo en clusters heterog茅neos

    Get PDF
    Desde hace varios a帽os se ha establecido muy s贸lidamente el c贸mputo paralelo en clusters de computadoras de escritorio (PCs y/o estaciones de trabajo) dada su muy favorable relaci贸n costorendimiento [4] [5]. Adem谩s, las redes locales de computadoras instaladas se pueden identificar como las plataformas de c谩lculo con costo m谩s bajo, dado que muchas instituciones tienen una o m谩s redes locales de computadoras instaladas con bastante o mucha disponibilidad como para ser utilizadas para c贸mputo paralelo.Eje: Sistemas DistribuidosRed de Universidades con Carreras en Inform谩tica (RedUNCI

    Performance of scientific processing in networks of workstations: matrix multiplication example

    Get PDF
    Parallel computing on networks of workstations are intensively used in some application areas such as linear algebra operations. Topics such as processing as well as communication hardware heterogeneity are considered solved by the use of parallel processing libraries, but experimentation about performance under these circumstances seems to be necessary. Also, installed networks of workstations are specially attractive due to its extremely low cost for parallel processing as well as its great availability given the number of installed local area networks. The performance of such networks of workstations is fully analyzed by means of a simple application: matrix multiplication. A parallel algorithm is proposed for matrix multiplication derived from two main sources: a) previous proposed algorithms for this task in traditional parallel computers, and b) the bus based interconnection network of workstations. This parallel algorithm is analyzed experimentally in terms of workstations workload and data communication, two main factors in overall parallel computing performance.Facultad de Inform谩tic

    C贸mputo paralelo en estaciones de trabajo no dedicadas

    Get PDF
    Se presentan en este art铆culo una serie de consideraciones a tener en cuenta a la hora de utilizar una red de estaciones de trabajo ya instalada y en funcionamiento para procesamiento cient铆fico en paralelo. Estas consideraciones abarcan desde las ventajas de este tipo de procesamiento hasta los problemas de la paralelizaci贸n, incluyendo tambi茅n los problemas propios de la utilizaci贸n de estaciones de trabajo que en general est谩n dedicadas a otro tipo de tareas que no son c贸mputo paralelo. Se presentan las l铆neas generales de soluci贸n a los problemas de heterogeneidad de este tipo de redes de estaciones de trabajo, como as铆 tambi茅n algunas alternativas para el problema de adecuar las propias estaciones de trabajo para el c贸mputo paralelo ya que cada estaci贸n de trabajo ser谩 una parte de una m谩quina paralela virtual. La aplicaci贸n que se analiza en este art铆culo es la de multiplicaci贸n de matrices, dado que es muy sencilla en s铆 misma, y adem谩s posee caracter铆sticas comunes a toda el 谩rea de c谩lculo num茅rico lineal, lo cual la hace apta para entender y analizar los problemas y soluciones en este tipo de aplicaciones.I Workshop de Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Inform谩tica (RedUNCI

    C贸mputo paralelo en estaciones de trabajo no dedicadas

    Get PDF
    Se presentan en este art铆culo una serie de consideraciones a tener en cuenta a la hora de utilizar una red de estaciones de trabajo ya instalada y en funcionamiento para procesamiento cient铆fico en paralelo. Estas consideraciones abarcan desde las ventajas de este tipo de procesamiento hasta los problemas de la paralelizaci贸n, incluyendo tambi茅n los problemas propios de la utilizaci贸n de estaciones de trabajo que en general est谩n dedicadas a otro tipo de tareas que no son c贸mputo paralelo. Se presentan las l铆neas generales de soluci贸n a los problemas de heterogeneidad de este tipo de redes de estaciones de trabajo, como as铆 tambi茅n algunas alternativas para el problema de adecuar las propias estaciones de trabajo para el c贸mputo paralelo ya que cada estaci贸n de trabajo ser谩 una parte de una m谩quina paralela virtual. La aplicaci贸n que se analiza en este art铆culo es la de multiplicaci贸n de matrices, dado que es muy sencilla en s铆 misma, y adem谩s posee caracter铆sticas comunes a toda el 谩rea de c谩lculo num茅rico lineal, lo cual la hace apta para entender y analizar los problemas y soluciones en este tipo de aplicaciones.I Workshop de Procesamiento Distribuido y Paralelo (WPDP)Red de Universidades con Carreras en Inform谩tica (RedUNCI
    corecore