654 research outputs found

    Balance 1960. Para una localización de la arquitectura española de posguerra ; réplica y complemento de Luis Moya Blanco

    Full text link
    Balance 1960. Para una localización de la arquitectura española de posguerra ; réplica y complemento de Luis Moya Blanc

    Construcción concisa. El proceso de la obra del Pabellón de los Países Nórdicos en la Bienal de Venecia de Sverre Fehn (1958-1962)

    Get PDF
    El proceso que experimentó la construcción del Pabellón de los Países Nórdicos (1958-1962) es un aspecto que no se ha revelado anteriormente en los artículos y monografías sobre esta obra del arquitecto noruego Sverre Fehn. El conocimiento de los aspectos relativos a la ejecución de la sede nórdica ha sido muy escaso debido a la dispersión de las fuentes originales del proyecto y de la obra, localizadas en archivos de Venecia, Milán, Oslo, Estocolmo y Marieberg. Esta carencia es particularmente significativa cuando se trata de una arquitectura concisa, cuyo espacio es consecuencia de la claridad del planteamiento constructivo. El artículo describe el proceso de la obra y ahonda en la intensa correspondencia entre las cuestiones que definen su espacio y la materialidad de la obra. El contenido es la síntesis de una investigación que tiene como fuentes el proyecto de ejecución original, los informes, la correspondencia entre todas las partes implicadas en la ejecución y el estudio de la obra construida

    Implementación y evaluación de algoritmos de compresión en FPGAs

    Get PDF
    A partir de un algoritmo software de compresión de datos se ha realizado un diseño teórico del mismo en lenguaje VHDL que posteriormente ha sido implementado en un soporte hardware. La idea inicial era crear un algoritmo en VHDL que permitiera realizar una compresión simple de datos de tamaño de palabra arbitrario. Finalmente se amplió el diseño añadiendo nuevas líneas de código que permitieran implementar un nuevo algoritmo que realiza una doble compresión. Este proyecto ha sido realizado en el departamento de informática de la Universidad Carlos III de Madrid. En primer lugar el algoritmo en VHDL fue creado y probado en simulación mediante la herramienta Quartus II del fabricante Altera. Una vez que se comprobó su funcionamiento teórico se procedió a su implementación en la FPGA Spartan 3A del fabricante Xilinx. Para ello se ha utilizado el entorno de desarrollo Xilinx Platform Studio (XPS) también de Xilinx. La FPGA Spartan 3A viene integrada en la plataforma de desarrollo Spartan 3A Starter Kit. Dicha plataforma consta de un microprocesador MicroBlaze, el cual hemos configurado, y que se encarga del manejo de los datos. También hemos configurado una serie de dispositivos, denominados coprocesadores, encargados de realizar la compresión de datos. La conexión entre MicroBlaze y los coprocesadores se estable mediante buses de conexión llamados FSL. El correcto diseño y funcionamiento del modelo hardware creado se ha validado mediante diferentes pruebas realizadas utilizando diversas tramas de datos y comprobando que efectivamente la compresión de los datos era correcta. Igualmente se ha hecho un estudio del rendimiento y los costes hardware del diseño, tales como memoria, biestables, DCMs, etc. También se ha comparado el rendimiento de nuestro algoritmo con el rendimiento de un algoritmo software previamente existente. Finalmente se ha documentado un tutorial del manejo del programa XPS que permite una rápida familiarización con dicha herramienta para la implementación de futuros diseños en FPGA. _________________________________________________________________________________________________________________________A theoretical design in VHDL language has been developed based on a software algorithm for data compression. This algorithm has subsequently been implemented in FPGAs devices. The initial idea was to create a VHDL algorithm that would make a simple compression of data of arbitrary word sizes. Finally, the design was extended implementing a new algorithm that performs a two phase compression. This project was performed at the Computer Science department of Carlos III University of Madrid. First, the VHDL algorithm was created and tested in a simulation using Quartus II tool from Altera. Once the theoretical performance was obtained, it was implemented in a FPGA Spartan 3A from Xilinx. We used the development environment called Xilinx Platform Studio (XPS) from Xilinx. The FPGA Spartan 3A is integrated into the development platform Spartan 3A Starter Kit. This platform consists of a MicroBlaze microprocessor, which we have set, and is responsible for managing the data. Also, we have set up several devices called coprocessors, responsible of carrying out the data compression. The connection between MicroBlaze and the coprocessors is established by FSL buses. The hardware implementation has been validated by several tests using various data sets and checks for ensuring that data compression was performed correctly. We have also made a study of the performance and hardware costs of the design, measuring the ammount of memory, number of flip-flops and DCMs, etc. Also, the performance of our algorithm has been compared with the performance of a software implementation of the algorithm. Finally we documented a management tutorial of XPS program that allows a fast familiarization with this tool for the implementation of future FPGA designs.Ingeniería Técnica en Electrónic

    Editorial

    Get PDF

    Proactive and reactive thermal aware optimization techniques to minimize the environmental impact of data centers

    Get PDF
    Data centers are easily found in every sector of the worldwide economy. They are composed of thousands of servers, serving millions of users globally and 24-7. In the last years, e-Science applications such e-Health or Smart Cities have experienced a significant development. The need to deal efficiently with the computational needs of next-generation applications together with the increasing demand for higher resources in traditional applications has facilitated the rapid proliferation and growing of Data Centers. A drawback to this capacity growth has been the rapid increase of the energy consumption of these facilities. In 2010, data center electricity represented 1.3% of all the electricity use in the world. In year 2012 alone, global data center power demand grep 63% to 38GW. A further rise of 17% to 43GW was estimated in 2013. Moreover, Data Centers are responsible for more than 2% of total carbon dioxide emissions

    ¿Qué cambiaría si el Crown Hall se pintara de blanco? Walter Peterhans : fundamentos de lo arquitectónico en el Visual Training

    Get PDF
    Walter Peterhans (1897-1960) es un fotógrafo alemán llamado a formar parte de importantes reformas en los planes de estudio de escuelas tan significativas como la Bauhaus bajo la dirección de Meyer, la creación del IIT de Chicago al frente de Mies van der Rohe, y la fundación de la Hochschule für Gestaltung de Ulm con Max Bill como director. El legado docente del Visual Training de Walter Peterhans en Chicago es tan poderoso que ha llegado actualizado hasta nuestros días. Este texto aborda su contribución a la docencia de los cursos básicos los estudios de arquitectura, cuyo método de enseñanza se basa en enseñar a mirar. Las cuestiones centrales de su didáctica se concretan en un viaje de ida y vuelta de Alemania a Chicago, que destila una aproximación científica a la enseñanza de la percepción de las cualidades visuales del espacio. Walter Peterhans (1897-1960) is a German photographer who took part in the major curricula reforms in schools as significant as the Bauhaus under the direction of Meyer, the foundation of the IIT of Chicago with Mies van der Rohe as responsible, and the founding of the Hochschule für Gestaltung in Ulm with Max Bill as one of the precursors. The teaching legacy of German photographer Walter Peterhans and his course Visual Training is so powerful that remains up to date nowadays. This text discusses his contribution to the basic courses of architectural studies, whose teaching method is based on visual training. The central issues of their teaching are specified in a round trip from Germany to Chicago, which distills a scientific approach to teaching visual skills

    De la intuición a la metodología. Propedéutica del proyectar en el curso básico de la HfG Ulm

    Get PDF
    El curso básico –Grundlehre– de la Hoschschule für Gestaltung fue uno de los departamentos en que se organizaban las enseñanzas preparatorias del primer curso de la escuela alemana de diseño y arquitectura. Durante su existencia, el curso básico experimentó una evolución no solo en su planteamiento pedagógico sino también en la contribución a los objetivos sociales de la escuela. Las enseñanzas transitaron por procesos más intuitivos en sus inicios hasta momentos donde el enfoque dominante estaba estrictamente gobernado por la metodología. El Grundlehre nace como continuación del Vorkurs de la Bauhaus y se extingue como departamento independiente durante el curso 1960/61. Los protagonistas y sus diferentes aproximaciones al proyecto son los que determinan la evolución del curso básico. Este artículo propone un recorrido a través de estas enseñanzas para identificar dónde se encuentra el verdadero carácter propedéutico del curso básico, el que preparará de forma óptima a los futuros formgeber de la HfG para su actividad proyectual en los departamentos

    Leveraging heterogeneity for energy minimization in data centers

    Get PDF
    Energy consumption in data centers is nowadays a critical objective because of its dramatic environmental and economic impact. Over the last years, several approaches have been proposed to tackle the energy/cost optimization problem, but most of them have failed on providing an analytical model to target both the static and dynamic optimization domains for complex heterogeneous data centers. This paper proposes and solves an optimization problem for the energy-driven configuration of a heterogeneous data center. It also advances in the proposition of a new mechanism for task allocation and distribution of workload. The combination of both approaches outperforms previous published results in the field of energy minimization in heterogeneous data centers and scopes a promising area of research

    La forma urbana de la periferia y los conjuntos de vivienda pública [VP]. Madrid 1940 – 2010: de la comparsa al hito en la VP madrileña

    Get PDF
    Peer Reviewe
    corecore