62 research outputs found

    Adaptive Multiclient Network-on-Chip Memory Core : Hardware Architecture, Software Abstraction Layer, and Application Exploration

    Get PDF
    This paper presents the hardware architecture and the software abstraction layer of an adaptive multiclient Network-on-Chip (NoC) memory core. The memory core supports the flexibility of a heterogeneous FPGA-based runtime adaptive multiprocessor system called RAMPSoC. The processing elements, also called clients, can access the memory core via the Network-on-Chip (NoC). The memory core supports a dynamic mapping of an address space for the different clients as well as different data transfer modes, such as variable burst sizes. Therefore, two main limitations of FPGA-based multiprocessor systems, the restricted on-chip memory resources and that usually only one physical channel to an off-chip memory exists, are leveraged. Furthermore, a software abstraction layer is introduced, which hides the complexity of the memory core architecture and which provides an easy to use interface for the application programmer. Finally, the advantages of the novel memory core in terms of performance, flexibility, and user friendliness are shown using a real-world image processing application

    Adaptive Multiclient Network-on-Chip Memory Core: Hardware Architecture, Software Abstraction Layer, and Application Exploration

    Get PDF
    This paper presents the hardware architecture and the software abstraction layer of an adaptive multiclient Network-on-Chip (NoC) memory core. The memory core supports the flexibility of a heterogeneous FPGA-based runtime adaptive multiprocessor system called RAMPSoC. The processing elements, also called clients, can access the memory core via the Network-on-Chip (NoC). The memory core supports a dynamic mapping of an address space for the different clients as well as different data transfer modes, such as variable burst sizes. Therefore, two main limitations of FPGA-based multiprocessor systems, the restricted on-chip memory resources and that usually only one physical channel to an off-chip memory exists, are leveraged. Furthermore, a software abstraction layer is introduced, which hides the complexity of the memory core architecture and which provides an easy to use interface for the application programmer. Finally, the advantages of the novel memory core in terms of performance, flexibility, and user friendliness are shown using a real-world image processing application

    Personality assessment in the Great Apes: Comparing ecologically valid behavior measures, behavior ratings, and adjective ratings

    Get PDF
    Three methods of personality assessment (behavior measures, behavior ratings, adjective ratings) were compared in 20 zoo-housed Great Apes: bonobos (Pan paniscus), chimpanzees (Pan troglodytes verus), gorillas (Gorilla gorilla gorilla), and orangutans (Pongo pygmaeus abelii). To test a new bottom-up approach, the studied trait constructs were systematically generated from the species’ behavioral repertoires. The assessments were reliable, temporally stable, and showed substantial cross-method coherence. In most traits, behavior ratings mediated the relations between adjective ratings and behavior measures. Results suggest that high predictability of manifest behavior is best achieved by behavior ratings, not by adjectives. Empirical evidence for trait constructs beyond current personality models points to the necessity of broad and systematic approaches for valid inferences on a species’ personality structure

    Differential prognostic utility of adiposity measures in chronic kidney disease

    Get PDF
    Objective Adipose tissue contributes to adverse outcomes in chronic kidney disease (CKD), but there is uncertainty regarding the prognostic relevance of different adiposity measures. We analyzed the associations of neck circumference (NC), waist circumference (WC), and body mass index (BMI) with clinical outcomes in patients with mild to severe CKD. Methods The German Chronic Kidney Disease (GCKD) study is a prospective cohort study, which enrolled Caucasian adults with mild to severe CKD, defined as estimated glomerular filtration rate (eGFR): 30–60 mL/min/1.73 m2, or >60 mL/min/1.73 m2 in the presence of overt proteinuria. Associations of NC, WC and BMI with all-cause death, major cardiovascular events (MACE: a composite of non-fatal stroke, non-fatal myocardial infarction, peripheral artery disease intervention, and cardiovascular death), kidney failure (a composite of dialysis or transplantation) were analyzed using multivariable Cox proportional hazards regression models adjusted for confounders and the Akaike information criteria (AIC) were calculated. Models included sex interactions with adiposity measures. Results A total of 4537 participants (59% male) were included in the analysis. During a 6.5-year follow-up, 339 participants died, 510 experienced MACE, and 341 developed kidney failure. In fully adjusted models, NC was associated with all-cause death in women (HR 1.080 per cm; 95% CI 1.009–1.155), but not in men. Irrespective of sex, WC was associated with all-cause death (HR 1.014 per cm; 95% CI 1.005–1.038). NC and WC showed no association with MACE or kidney failure. BMI was not associated with any of the analyzed outcomes. Models of all-cause death including WC offered the best (lowest) AIC. Conclusion In Caucasian patients with mild to severe CKD, higher NC (in women) and WC were significantly associated with increased risk of death from any cause, but BMI was not

    Timing Synchronization and Fast-Control for FPGA-based large-scale Readout and Processing Systems

    Get PDF
    In vielen heutigen Datenverarbeitungssystemen der Big-Data-Domäne spielen verteilte Echtzeitsysteme eine wichtige Rolle. Besonders, wenn Daten verschiedener Verarbeitungseinheiten in den Kontext der Aufgabe des globalen Systems gesetzt werden müssen, ist die Synchronisation der Daten oder des gesamten verteilten Systems notwendig. Eine sehr markante Anwendung dieser Domäne, welche die präzise Systemsynchronisation voraussetzt, sind Auslesesysteme von Großexperimenten der Teilchenphysik. Dabei ist eine sehr große Anzahl an Elektronik in Form einer Verarbeitungskette miteinander verbunden, um Eventdaten bei Aggregat-Datenraten im Bereich von mehreren Terabit pro Sekunde zu erfassen. Was diese Aufgabe zusätzlich herausfordernd macht, ist die Struktur des Systems, welches in verschiedene Subdetektoren und unterschiedliche Verarbeitungsschichten unterteilt ist und aus einer Vielzahl verschiedenartiger elektronischer Komponenten besteht. Um ein solch komplexes heterogenes System handhaben zu können, kommen verschiedene Kontrollmechanismen zum Einsatz. Eines dieser Kernsysteme der Experimente der Teilchenphysik stellen die Systeme zur Zeit- und schnellen Experimentsteuerung dar, auf welche der zentrale Fokus dieser Arbeit gelegt wird. Im Falle des Compressed Baryonic Matter (CBM)-Experiments der Facility for Antiproton and Ion Research (FAIR) in Darmstadt hat das Timing and Fast-Control (TFC)- System die Aufgabe, einen globalen Takt und Zeitinformationen innerhalb des gesamten Online-Teils der Experimentauslese bereitzustellen und Steuerungsinformationen mit niedriger und vor allem konstanter Latenz aufnehmen und verteilen zu können. Die letztere Anforderung ist im Falle des CBM-Experiments besonders wichtig, da es über eine selbst-getriggerte Auslese verfügt, bei der die auf verschiedenen Verarbeitungsebenen befindlichen Einheiten autonom Entscheidungen darüber treffen müssen, ob bestimmte Eventdaten verwendet und weitergeleitet werden sollen. In den folgenden Kapiteln dieser Arbeit wird die Entwicklung eines Prototypen des TFC-Systems für die Verwendung innerhalb von CBM erläutert. Hierbei wird ein besonderer Fokus auf den Teil der Digitalelektronik, welche mittels Field Programmable Gate Arrays (FPGAs) umgesetzt wird, und auf die Integration spezieller Schnittstellen Printed Circuit Boards (PCBs) gelegt, wo diese benötigt werden. Während der Konzeptionierungsphase des TFC-Systems entstand innerhalb von CBM der Bedarf, ein vorläufiges System zur Zeitsynchronisation zur Verfügung zu haben, um kleinere Aufbauten der Auslese synchronisieren zu können, das sogenannte Timing Synchronizer (TS)-System. Die bei der Entwicklung dieses Systems gewonnenen Erkenntnisse flossen in das Konzept des TFCSystems ein. Das TS-System kam innerhalb der Strahltests von CBM am Conseil Européen pour la Recherche Nucléaire (CERN) Super Proton Synchrotron (SPS) am Ende des Jahres 2016 erfolgreich zum Einsatz. Dieses System ermöglichte zum ersten Mal eine synchrone, selbst-getriggerte, freilaufende, mittelgroße, FPGAbasierte Datenerfassung innerhalb einer Strahlzeit des CBM-Experiments [168], was einen wichtigen Meilenstein auf dem Wege zur finalen Experimentauslese darstellt. Des Weiteren wird in der Arbeit das Konzept und die Entwicklung der Komponenten des TFC-Systems detailliert beschrieben, wobei insbesondere die Verwendung von Glasfasern bzw. verdrillten Zweidrahtleitungen aus Kupfer als physikalisches Medium in konkurrierenden Ansätzen analysiert werden. Dabei bietet das Konzept der Anbindung per Glasfaser Vorteile, wie eine hohe Datenrate und die Verfügbarkeit kommerziell erhältlicher Komponenten, wobei der letztere kupferbasierte Ansatz eine mechanisch robustere Verkabelung und geringere Latenzen bei kurzen Nachrichten bietet und keine Hochgeschwindigkeitsübertrager benötigt. Besonders das letzte Kriterium erlaubt es, die Anwendbarkeit des kupferbasierten Konzepts auf Systeme auszuweiten, welche nicht über spezielle, teure Bausteine zur schnellen Datenserialisierung verfügen, was es beispielsweise erlaubt, diesen Ansatz auf Systeme des niedrigeren Preissegments zu übertragen. Aufgrund der Verfügbarkeit in Form von Commercial offthe- shelf (COTS) Hardware, wird sich der Ansatz, der Glasfaserverbindungen verwendet, potentiell besser für das TFC-System von CBM eignen, da keine spezielle Schnittstellen-Hardware in größerer Stückzahl entwickelt werden muss. In Bezug auf die zukünftige Erweiterbarkeit von glasfaserbasierten Systemen zur Zeitsynchronisation, werden aktuell passive optische Netze (PONs) als favorisierte Lösung gehandelt, welche innerhalb der nächsten Upgrades der Experimente am CERN Verwendung finden werden. Jedoch hat das Time-Division Multiple Access (TDMA)-Verfahren, das in kommerziell erhältlichen PONs, wie 10- Gigabit-capable PON (XGPON)1, in Upstream-Richtung verwendet wird, einen starken negativen Einfluss auf die erzielbare Latenz des Verteilungsnetzwerks. Aus diesem Grund wurde ein neues Modulationskonzept für PONs im Rahmen dieser Arbeit entwickelt und innerhalb eines Laborsystems evaluiert. Bei diesem Ansatz wird versucht, die Latenz dadurch zu verringern, dass die Datenrate durch eine Unterteilung der Systembandbreite im Frequenzbereich auf die Optical Network Units (ONUs) aufgeteilt wird, wobei das Single-Carrier Frequency Division Multiple Access (SC-FDMA)-Verfahren zum Einsatz kommt, welches ein von Orthogonal Frequency Division Multiple Access (OFDMA) abgeleitetes Modulationsprinzip darstellt

    Timing Synchronization and Fast-Control for FPGA-based large-scale Readout and Processing Systems

    Get PDF
    In vielen heutigen Datenverarbeitungssystemen der Big-Data-Domäne spielen verteilte Echtzeitsysteme eine wichtige Rolle. Besonders, wenn Daten verschiedener Verarbeitungseinheiten in den Kontext der Aufgabe des globalen Systems gesetzt werden müssen, ist die Synchronisation der Daten oder des gesamten verteilten Systems notwendig. Eine sehr markante Anwendung dieser Domäne, welche die präzise Systemsynchronisation voraussetzt, sind Auslesesysteme von Großexperimenten der Teilchenphysik. Dabei ist eine sehr große Anzahl an Elektronik in Form einer Verarbeitungskette miteinander verbunden, um Eventdaten bei Aggregat-Datenraten im Bereich von mehreren Terabit pro Sekunde zu erfassen. Was diese Aufgabe zusätzlich herausfordernd macht, ist die Struktur des Systems, welches in verschiedene Subdetektoren und unterschiedliche Verarbeitungsschichten unterteilt ist und aus einer Vielzahl verschiedenartiger elektronischer Komponenten besteht. Um ein solch komplexes heterogenes System handhaben zu können, kommen verschiedene Kontrollmechanismen zum Einsatz. Eines dieser Kernsysteme der Experimente der Teilchenphysik stellen die Systeme zur Zeit- und schnellen Experimentsteuerung dar, auf welche der zentrale Fokus dieser Arbeit gelegt wird. Im Falle des Compressed Baryonic Matter (CBM)-Experiments der Facility for Antiproton and Ion Research (FAIR) in Darmstadt hat das Timing and Fast-Control (TFC)- System die Aufgabe, einen globalen Takt und Zeitinformationen innerhalb des gesamten Online-Teils der Experimentauslese bereitzustellen und Steuerungsinformationen mit niedriger und vor allem konstanter Latenz aufnehmen und verteilen zu können. Die letztere Anforderung ist im Falle des CBM-Experiments besonders wichtig, da es über eine selbst-getriggerte Auslese verfügt, bei der die auf verschiedenen Verarbeitungsebenen befindlichen Einheiten autonom Entscheidungen darüber treffen müssen, ob bestimmte Eventdaten verwendet und weitergeleitet werden sollen. In den folgenden Kapiteln dieser Arbeit wird die Entwicklung eines Prototypen des TFC-Systems für die Verwendung innerhalb von CBM erläutert. Hierbei wird ein besonderer Fokus auf den Teil der Digitalelektronik, welche mittels Field Programmable Gate Arrays (FPGAs) umgesetzt wird, und auf die Integration spezieller Schnittstellen Printed Circuit Boards (PCBs) gelegt, wo diese benötigt werden. Während der Konzeptionierungsphase des TFC-Systems entstand innerhalb von CBM der Bedarf, ein vorläufiges System zur Zeitsynchronisation zur Verfügung zu haben, um kleinere Aufbauten der Auslese synchronisieren zu können, das sogenannte Timing Synchronizer (TS)-System. Die bei der Entwicklung dieses Systems gewonnenen Erkenntnisse flossen in das Konzept des TFCSystems ein. Das TS-System kam innerhalb der Strahltests von CBM am Conseil Européen pour la Recherche Nucléaire (CERN) Super Proton Synchrotron (SPS) am Ende des Jahres 2016 erfolgreich zum Einsatz. Dieses System ermöglichte zum ersten Mal eine synchrone, selbst-getriggerte, freilaufende, mittelgroße, FPGAbasierte Datenerfassung innerhalb einer Strahlzeit des CBM-Experiments [168], was einen wichtigen Meilenstein auf dem Wege zur finalen Experimentauslese darstellt. Des Weiteren wird in der Arbeit das Konzept und die Entwicklung der Komponenten des TFC-Systems detailliert beschrieben, wobei insbesondere die Verwendung von Glasfasern bzw. verdrillten Zweidrahtleitungen aus Kupfer als physikalisches Medium in konkurrierenden Ansätzen analysiert werden. Dabei bietet das Konzept der Anbindung per Glasfaser Vorteile, wie eine hohe Datenrate und die Verfügbarkeit kommerziell erhältlicher Komponenten, wobei der letztere kupferbasierte Ansatz eine mechanisch robustere Verkabelung und geringere Latenzen bei kurzen Nachrichten bietet und keine Hochgeschwindigkeitsübertrager benötigt. Besonders das letzte Kriterium erlaubt es, die Anwendbarkeit des kupferbasierten Konzepts auf Systeme auszuweiten, welche nicht über spezielle, teure Bausteine zur schnellen Datenserialisierung verfügen, was es beispielsweise erlaubt, diesen Ansatz auf Systeme des niedrigeren Preissegments zu übertragen. Aufgrund der Verfügbarkeit in Form von Commercial offthe- shelf (COTS) Hardware, wird sich der Ansatz, der Glasfaserverbindungen verwendet, potentiell besser für das TFC-System von CBM eignen, da keine spezielle Schnittstellen-Hardware in größerer Stückzahl entwickelt werden muss. In Bezug auf die zukünftige Erweiterbarkeit von glasfaserbasierten Systemen zur Zeitsynchronisation, werden aktuell passive optische Netze (PONs) als favorisierte Lösung gehandelt, welche innerhalb der nächsten Upgrades der Experimente am CERN Verwendung finden werden. Jedoch hat das Time-Division Multiple Access (TDMA)-Verfahren, das in kommerziell erhältlichen PONs, wie 10- Gigabit-capable PON (XGPON)1, in Upstream-Richtung verwendet wird, einen starken negativen Einfluss auf die erzielbare Latenz des Verteilungsnetzwerks. Aus diesem Grund wurde ein neues Modulationskonzept für PONs im Rahmen dieser Arbeit entwickelt und innerhalb eines Laborsystems evaluiert. Bei diesem Ansatz wird versucht, die Latenz dadurch zu verringern, dass die Datenrate durch eine Unterteilung der Systembandbreite im Frequenzbereich auf die Optical Network Units (ONUs) aufgeteilt wird, wobei das Single-Carrier Frequency Division Multiple Access (SC-FDMA)-Verfahren zum Einsatz kommt, welches ein von Orthogonal Frequency Division Multiple Access (OFDMA) abgeleitetes Modulationsprinzip darstellt

    Adaptive multi-client network-on-chip memory: Best Paper

    No full text
    This paper presents a novel approach for a memory, which supports the flexibility of an FPGA-based dynamic reconfigurable System-on-Chip consisting of heterogeneous data processing nodes. The memory is accessible via the Network-on-Chip (NoC) and provides a dynamic mapping of address space for the different clients within the network. Different data transfer modes support especially the image processing domain where burst transfers to the processing nodes are required. The presented method and realization overcomes the well known difficulties in FPGA-based multiprocessor systems, which are the restricted on-chip memory and the fact, that normally only one physical channel to an off-chip memory is available

    A Timing Synchronizer System for Beam Test Setups Requiring Galvanic Isolation

    No full text
    corecore