106 research outputs found

    Survey on Instruction Selection: An Extensive and Modern Literature Review

    Full text link
    Instruction selection is one of three optimisation problems involved in the code generator backend of a compiler. The instruction selector is responsible of transforming an input program from its target-independent representation into a target-specific form by making best use of the available machine instructions. Hence instruction selection is a crucial part of efficient code generation. Despite on-going research since the late 1960s, the last, comprehensive survey on the field was written more than 30 years ago. As new approaches and techniques have appeared since its publication, this brings forth a need for a new, up-to-date review of the current body of literature. This report addresses that need by performing an extensive review and categorisation of existing research. The report therefore supersedes and extends the previous surveys, and also attempts to identify where future research should be directed.Comment: Major changes: - Merged simulation chapter with macro expansion chapter - Addressed misunderstandings of several approaches - Completely rewrote many parts of the chapters; strengthened the discussion of many approaches - Revised the drawing of all trees and graphs to put the root at the top instead of at the bottom - Added appendix for listing the approaches in a table See doc for more inf

    The 1989 JSC bibliography of scientific and technical papers

    Get PDF
    This document is a compilation of Lyndon B. Johnson Space Center contributions to the scientific and technical literature in aerospace and life sciences made during calendar year 1989. Citations include NASA formal series reports, journal articles, conference and symposium presentations, papers published in proceedings or other collective works, and seminar and workshop results

    Exploiting data locality in cache-coherent NUMA systems

    Get PDF
    The end of Dennard scaling has caused a stagnation of the clock frequency in computers.To overcome this issue, in the last two decades vendors have been integrating larger numbers of processing elements in the systems, interconnecting many nodes, including multiple chips in the nodes and increasing the number of cores in each chip. The speed of main memory has not evolved at the same rate as processors, it is much slower and there is a need to provide more total bandwidth to the processors, especially with the increase in the number of cores and chips. Still keeping a shared address space, where all processors can access the whole memory, solutions have come by integrating more memories: by using newer technologies like high-bandwidth memories (HBM) and non-volatile memories (NVM), by giving groups cores (like sockets, for example) faster access to some subset of the DRAM, or by combining many of these solutions. This has caused some heterogeneity in the access speed to main memory, depending on the CPU requesting access to a memory address and the actual physical location of that address, causing non-uniform memory access (NUMA) behaviours. Moreover, many of these systems are cache-coherent (ccNUMA), meaning that changes in the memory done from one CPU must be visible by the other CPUs and transparent for the programmer. These NUMA behaviours reduce the performance of applications and can pose a challenge to the programmers. To tackle this issue, this thesis proposes solutions, at the software and hardware levels, to improve the data locality in NUMA systems and, therefore, the performance of applications in these computer systems. The first contribution shows how considering hardware prefetching simultaneously with thread and data placement in NUMA systems can find configurations with better performance than considering these aspects separately. The performance results combined with performance counters are then used to build a performance model to predict, both offline and online, the best configuration for new applications not in the model. The evaluation is done using two different high performance NUMA systems, and the performance counters collected in one machine are used to predict the best configurations in the other machine. The second contribution builds on the idea that prefetching can have a strong effect in NUMA systems and proposes a NUMA-aware hardware prefetching scheme. This scheme is generic and can be applied to multiple hardware prefetchers with a low hardware cost but giving very good results. The evaluation is done using a cycle-accurate architectural simulator and provides detailed results of the performance, the data transfer reduction and the energy costs. Finally, the third and last contribution consists in scheduling algorithms for task-based programming models. These programming models help improve the programmability of applications in parallel systems and also provide useful information to the underlying runtime system. This information is used to build a task dependency graph (TDG), a directed acyclic graph that models the application where the nodes are sequential pieces of code known as tasks and the edges are the data dependencies between the different tasks. The proposed scheduling algorithms use graph partitioning techniques and provide a scheduling for the tasks in the TDG that minimises the data transfers between the different NUMA regions of the system. The results have been evaluated in real ccNUMA systems with multiple NUMA regions.La fi de la llei de Dennard ha provocat un estancament de la freqüència de rellotge dels computadors. Amb l'objectiu de superar aquest fet, durant les darreres dues dècades els fabricants han integrat més quantitat d'unitats de còmput als sistemes mitjançant la interconnexió de nodes diferents, la inclusió de múltiples xips als nodes i l'increment de nuclis de processador a cada xip. La rapidesa de la memòria principal no ha evolucionat amb el mateix factor que els processadors; és molt més lenta i hi ha la necessitat de proporcionar més ample de banda als processadors, especialment amb l'increment del nombre de nuclis i xips. Tot mantenint un adreçament compartit en el qual tots els processadors poden accedir a la memòria sencera, les solucions han estat al voltant de la integració de més memòries: amb tecnologies modernes com HBM (high-bandwidth memories) i NVM (non-volatile memories), fent que grups de nuclis (com sòcols sencers) tinguin accés més ràpid a una part de la DRAM o amb la combinació de solucions. Això ha provocat una heterogeneïtat en la velocitat d'accés a la memòria principal, en funció del nucli que sol·licita l'accés a una adreça en particular i la seva localització física, fet que provoca uns comportaments no uniformes en l'accés a la memòria (non-uniform memory access, NUMA). A més, sovint tenen memòries cau coherents (cache-coherent NUMA, ccNUMA), que implica que qualsevol canvi fet a la memòria des d'un nucli d'un processador ha de ser visible la resta de manera transparent. Aquests comportaments redueixen el rendiment de les aplicacions i suposen un repte. Per abordar el problema, a la tesi s'hi proposen solucions, a nivell de programari i maquinari, que milloren la localitat de dades als sistemes NUMA i, en conseqüència, el rendiment de les aplicacions en aquests sistemes. La primera contribució mostra que, quan es tenen en compte alhora la precàrrega d'adreces de memòria amb maquinari (hardware prefetching) i les decisions d'ubicació dels fils d'execució i les dades als sistemes NUMA, es poden trobar millors configuracions que quan es condieren per separat. Una combinació dels resultats de rendiment i dels comptadors disponibles al sistema s'utilitza per construir un model de rendiment per fer la predicció, tant per avançat com també en temps d'execució, de la millor configuració per aplicacions que no es troben al model. L'avaluació es du a terme a dos sistemes NUMA d'alt rendiment, i els comptadors mesurats en un sistema s'usen per predir les millors configuracions a l'altre sistema. La segona contribució es basa en la idea que el prefetching pot tenir un efecte considerable als sistemes NUMA i proposa un esquema de precàrrega a nivell de maquinari que té en compte els efectes NUMA. L'esquema és genèric i es pot aplicar als algorismes de precàrrega existents amb un cost de maquinari molt baix però amb molt bons resultats. S'avalua amb un simulador arquitectural acurat a nivell de cicle i proporciona resultats detallats del rendiment, la reducció de les comunicacions de dades i els costos energètics. La tercera i darrera contribució consisteix en algorismes de planificació per models de programació basats en tasques. Aquests simplifiquen la programabilitat de les aplicacions paral·leles i proveeixen informació molt útil al sistema en temps d'execució (runtime system) que en controla el funcionament. Amb aquesta informació es construeix un graf de dependències entre tasques (task dependency graph, TDG), un graf dirigit i acíclic que modela l'aplicació i en el qual els nodes són fragments de codi seqüencial (o tasques) i els arcs són les dependències de dades entre les tasques. Els algorismes de planificació proposats fan servir tècniques de particionat de grafs i proporcionen una planificació de les tasques del TDG que minimitza la comunicació de dades entre les diferents regions NUMA del sistema. Els resultats han estat avaluats en sistemes ccNUMA reals amb múltiples regions NUMA.El final de la ley de Dennard ha provocado un estancamiento de la frecuencia de reloj de los computadores. Con el objetivo de superar este problema, durante las últimas dos décadas los fabricantes han integrado más unidades de cómputo en los sistemas mediante la interconexión de nodos diferentes, la inclusión de múltiples chips en los nodos y el incremento de núcleos de procesador en cada chip. La rapidez de la memoria principal no ha evolucionado con el mismo factor que los procesadores; es mucho más lenta y hay la necesidad de proporcionar más ancho de banda a los procesadores, especialmente con el incremento del número de núcleos y chips. Aun manteniendo un sistema de direccionamiento compartido en el que todos los procesadores pueden acceder al conjunto de la memoria, las soluciones han oscilado alrededor de la integración de más memorias: usando tecnologías modernas como las memorias de alto ancho de banda (highbandwidth memories, HBM) y memorias no volátiles (non-volatile memories, NVM), haciendo que grupos de núcleos (como zócalos completos) tengan acceso más veloz a un subconjunto de la DRAM, o con la combinación de soluciones. Esto ha provocado una heterogeneidad en la velocidad de acceso a la memoria principal, en función del núcleo que solicita el acceso a una dirección de memoria en particular y la ubicación física de esta dirección, lo que provoca unos comportamientos no uniformes en el acceso a la memoria (non-uniform memory access, NUMA). Además, muchos de estos sistemas tienen memorias caché coherentes (cache-coherent NUMA, ccNUMA), lo que implica que cualquier cambio hecho en la memoria desde un núcleo de un procesador debe ser visible por el resto de procesadores de forma transparente para los programadores. Estos comportamientos NUMA reducen el rendimiento de las aplicaciones y pueden suponer un reto para los programadores. Para abordar dicho problema, en esta tesis se proponen soluciones, a nivel de software y hardware, que mejoran la localidad de datos en los sistemas NUMA y, en consecuencia, el rendimiento de las aplicaciones en estos sistemas informáticos. La primera contribución muestra que, cuando se tienen en cuenta a la vez la precarga de direcciones de memoria mediante hardware (o hardware prefetching ) y las decisiones de la ubicación de los hilos de ejecución y los datos en los sistemas NUMA, se pueden hallar mejores configuraciones que cuando se consideran ambos aspectos por separado. Con una combinación de los resultados de rendimiento y de los contadores disponibles en el sistema se construye un modelo de rendimiento, tanto por avanzado como en en tiempo de ejecución, de la mejor configuración para aplicaciones que no están incluidas en el modelo. La evaluación se realiza en dos sistemas NUMA de alto rendimiento, y los contadores medidos en uno de los sistemas se usan para predecir las mejores configuraciones en el otro sistema. La segunda contribución se basa en la idea de que el prefetching puede tener un efecto considerable en los sistemas NUMA y propone un esquema de precarga a nivel hardware que tiene en cuenta los efectos NUMA. Este esquema es genérico y se puede aplicar a diferentes algoritmos de precarga existentes con un coste de hardware muy bajo pero que proporciona muy buenos resultados. Dichos resultados se obtienen y evalúan mediante un simulador arquitectural preciso a nivel de ciclo y proporciona resultados detallados del rendimiento, la reducción de las comunicaciones de datos y los costes energéticos. Finalmente, la tercera y última contribución consiste en algoritmos de planificación para modelos de programación basados en tareas. Estos modelos simplifican la programabilidad de las aplicaciones paralelas y proveen información muy útil al sistema en tiempo de ejecución (runtime system) que controla su funcionamiento. Esta información se utiliza para construir un grafo de dependencias entre tareas (task dependency graph, TDG), un grafo dirigido y acíclico que modela la aplicación y en el ue los nodos son fragmentos de código secuencial, conocidos como tareas, y los arcos son las dependencias de datos entre las distintas tareas. Los algoritmos de planificación que se proponen usan técnicas e particionado de grafos y proporcionan una planificación de las tareas del TDG que minimiza la comunicación de datos entre las distintas regiones NUMA del sistema. Los resultados se han evaluado en sistemas ccNUMA reales con múltiples regiones NUMA.Postprint (published version

    Summary of Research 1994

    Get PDF
    The views expressed in this report are those of the authors and do not reflect the official policy or position of the Department of Defense or the U.S. Government.This report contains 359 summaries of research projects which were carried out under funding of the Naval Postgraduate School Research Program. A list of recent publications is also included which consists of conference presentations and publications, books, contributions to books, published journal papers, and technical reports. The research was conducted in the areas of Aeronautics and Astronautics, Computer Science, Electrical and Computer Engineering, Mathematics, Mechanical Engineering, Meteorology, National Security Affairs, Oceanography, Operations Research, Physics, and Systems Management. This also includes research by the Command, Control and Communications (C3) Academic Group, Electronic Warfare Academic Group, Space Systems Academic Group, and the Undersea Warfare Academic Group

    Large space structures and systems in the space station era: A bibliography with indexes (supplement 04)

    Get PDF
    Bibliographies and abstracts are listed for 1211 reports, articles, and other documents introduced into the NASA scientific and technical information system between 1 Jul. and 30 Dec. 1991. Its purpose is to provide helpful information to the researcher, manager, and designer in technology development and mission design according to system, interactive analysis and design, structural concepts and control systems, electronics, advanced materials, assembly concepts, propulsion, and solar power satellite systems

    Oblique Sounding and HF Communication Techniques for Very Long Haul Ionospheric Links

    Get PDF
    El sistema de comunicació ràdio d’alta freqüència (HF, en anglès) és usat arreu del món per agències governamentals i no governamentals sempre que calgui una alternativa a les comunicacions via satèl•lit: vaixells a alta mar, avions fora de cobertura de xarxes ràdio amb visió directa, operacions militars, zones on la infraestructura ha estat destruïda per algun tipus de desastre o bé zones llunyanes sense cap altre tipus de comunicació. La ràdio HF representa una alternativa, o un sistema de backup al satèl•lit per a comunicacions de llarg abast i en redueix els costos, evita la vulnerabilitat i els problemes de sobirania. En aquesta tesi s’ha estudiat l’enllaç HF entre la base antàrtica espanyola Juan Carlos I, situada a l’illa Livingston a l’arxipèlag de les Shetland del Sud, i Espanya. L’objectiu d’aquest treball és estudiar els problemes que afecten la propagació; és a dir, la relació senyal a soroll i interferència, la dispersió multicamí i la dispersió per efecte Doppler, i dissenyar la capa física d’un enllaç HF de baixa velocitat, poca potència i llarg abast. Pel que fa aquest últim punt es fan un parell de propostes: espectre eixamplat per seqüència directa (DSSS, en anglès) i multiplexació per divisió en freqüència ortogonal (OFDM, en anglès). El repte que es planteja és el de la definició de les característiques dels símbols que millor encaixen en aquest canal per tal d’obtenir un benefici de la diversitat temporal i freqüencial que ofereix el canal. Des de l’any 2003 diverses campanyes han permès estudiar aquest canal HF, però no va ser fins la campanya 2009/2010 que s’obtingué un foto de les característiques, diürnes i nocturnes, de la ionosfera. En els articles que es presenten en aquesta tesi hem estès el rang freqüencial d’estudi respecte a investigacions prèvies i hem mostrat diferències de comportament entre el dia i la nit. Hem usat els resultats de la caracterització del canal per a dissenyar i comparar la bondat dels símbols DSSS i OFDM. Ambdues possibilitats han resultat ser candidates a implementar l’enllaç HF entre l’Antàrtida i Espanya. Tot i així, ambdues tècniques representen visions diferents de la implementació del mòdem: mentre que DSSS obté bons resultats a baixa velocitat en entorns amb baixa relació senyal a soroll, OFDM aconsegueix tasses de velocitat més elevades en canals més benignes.Los sistemas de radio de alta frecuencia (HF, en inglés) son usados por agencias gubernamentales y no gubernamentales en todo el mundo siempre que se necesite una alternativa a las comunicaciones por satélite: barcos en alta mar, aviones fuera del rango de cobertura de las redes radio de visión directa, operaciones militares, zonas donde la infraestructura ha sido destruida por algún desastre. Ésta ofrece una alternativa, o representa un sistema de backup, a las comunicaciones vía satélite, evitando los costes, la vulnerabilidad y los problemas de soberanía de las comunicaciones por satélite. En esta tesis se ha estudiado el enlace HF entre la base antártica española Juan Carlos I en la isla Livingston, en las Shetland del sur y España. El objetivo de este trabajo es el estudio de las limitaciones de la propagación ionosférica (como la relación señal a ruido e interferencia, la dispersión multicamino y la dispersión por efecto Doppler) y el diseño de la capa física de un enlace HF de baja velocidad, baja potencia y largo alcance. Se han estudiado un par de propuestas para este enlace, como son el espectro ensanchado por secuencia directa (DSSS, en inglés) y la multiplexación por división en frecuencia ortogonal (OFDM, en inglés). El reto ha sido definir las características que mejor se adecuan a este enlace para poder aprovechar la diversidad temporal y frecuencial que ofrece el canal HF. Desde el año 2003 diversas campañas de sondeo han permitido estudiar el canal HF pero no es hasta la campaña 2009/2010 que se consigue una fotografía de la actividad ionosférica tanto nocturna como diurna. En los artículos que se presentan en esta tesis hemos extendido los estudios previos a todo el rango de frecuencias HF y hemos mostrado las diferencias entre el día y la noche. Hemos usado estos resultados de caracterización del canal para diseñar y comparar símbolos DSSS y símbolos OFDM. Ambas posibilidades han resultado ser posibles candidatas para implementar un enlace HF de baja velocidad entre la Antártida y España. Sin embargo ambas técnicas representan dos aproximaciones distintas a la implementación del módem. Mientras que DSSS consigue un buen funcionamiento a baja velocidad en escenarios con baja relación señal a ruido, OFDM consigue tasas de transmisión más altas en escenarios más benignos.High Frequency (HF) radio is used by governmental and non nongovernmental agencies worldwide whenever an alternative to satellites for sky wave communication is needed: ships at sea, aircraft out of range of line-of-sight radio networks, military operations, disaster areas with communication infrastructure destroyed or distant regions lacking other communications. It offers an alternative to satellites, or a backup, for long-haul communications, thus avoiding the costs, vulnerabilities and sovereignty concerns of satellite communications. In this thesis the HF link between the Antarctic Spanish Station Juan Carlos I in Livingston Island, South Shetlands and Spain is studied. The aim of this study is to address the impairments that affect HF propagation (i.e., signal-to-noise plus interference ratio, multipath and Doppler shift and spread) and to design the physical layer of a low rate, low power and long-haul HF link. Some proposals regarding this last issue are addressed, i.e., direct sequence spread spectrum (DSSS) and orthogonal frequency division multiplexing (OFDM). The challenge is to define the symbol characteristics that best fit the link to benefit from time and frequency diversity that offers the HF channel. Since 2003 several transmission campaigns have allowed to study the HF channel but it is not until the 2009/2010 campaign that we have achieved a whole picture of both diurnal and nocturnal ionospheric activity. In the papers presented in this thesis we have extended the previous research to the whole range of HF frequencies and we have shown the differences on performance between day and night. We have used the results from channel characterization to design and compare the performance of DSSS and OFDM symbols. Both techniques have turned out to be possible candidates to implement a low rate HF link between Antarctica and Spain. However, both techniques stand for different approaches of the modem: DSSS achieves good performance at low data rate in low SNR scenarios, whereas OFDM achieves higher data rate in benign channel

    Annual Report of the University, 1968-1969, Volumes 1 & 2

    Get PDF
    At least once every ten years the University of New Mexico has a chance to see itself as others sec it. The opportunity is provided by its accrediting agency. Routinely every decade, the North Central Association of Colleges and Secondary Schools sends a team of scholars and administrators to campus to determine whether the University is maintaining the prerequisites to continuing accreditation as a doctoral degree granting institution. While the examination is scheduled routinely, it is by no means a routine visit. The visitation team probes such areas as curricula, library, finances, administration, day-to-day operations, and long-range plans. Its report, much like that of an auditor, helps provide operational guidelines for succeeding years. The University of New Mexico in 1969 underwent its decennial examination by the North Central Association. The team of visitors prepared a comprehensive report touching on many areas vital to the University\u27s future. Findings of the committee and the University\u27s responses to them serve as the basis for this annual report of the President

    Abstracts on Radio Direction Finding (1899 - 1995)

    Get PDF
    The files on this record represent the various databases that originally composed the CD-ROM issue of "Abstracts on Radio Direction Finding" database, which is now part of the Dudley Knox Library's Abstracts and Selected Full Text Documents on Radio Direction Finding (1899 - 1995) Collection. (See Calhoun record https://calhoun.nps.edu/handle/10945/57364 for further information on this collection and the bibliography). Due to issues of technological obsolescence preventing current and future audiences from accessing the bibliography, DKL exported and converted into the three files on this record the various databases contained in the CD-ROM. The contents of these files are: 1) RDFA_CompleteBibliography_xls.zip [RDFA_CompleteBibliography.xls: Metadata for the complete bibliography, in Excel 97-2003 Workbook format; RDFA_Glossary.xls: Glossary of terms, in Excel 97-2003 Workbookformat; RDFA_Biographies.xls: Biographies of leading figures, in Excel 97-2003 Workbook format]; 2) RDFA_CompleteBibliography_csv.zip [RDFA_CompleteBibliography.TXT: Metadata for the complete bibliography, in CSV format; RDFA_Glossary.TXT: Glossary of terms, in CSV format; RDFA_Biographies.TXT: Biographies of leading figures, in CSV format]; 3) RDFA_CompleteBibliography.pdf: A human readable display of the bibliographic data, as a means of double-checking any possible deviations due to conversion
    • …
    corecore