62 research outputs found
Adaptive Multiclient Network-on-Chip Memory Core : Hardware Architecture, Software Abstraction Layer, and Application Exploration
This paper presents the hardware architecture and the software abstraction layer of an adaptive multiclient Network-on-Chip (NoC) memory core. The memory core supports the flexibility of a heterogeneous FPGA-based runtime adaptive multiprocessor system called RAMPSoC. The processing elements, also called clients, can access the memory core via the Network-on-Chip (NoC). The memory core supports a dynamic mapping of an address space for the different clients as well as different data transfer modes, such as variable burst sizes. Therefore, two main limitations of FPGA-based multiprocessor systems, the restricted on-chip memory resources and that usually only one physical channel to an off-chip memory exists, are leveraged. Furthermore, a software abstraction layer is introduced, which hides the complexity of the memory core architecture and which provides an easy to use interface for the application programmer. Finally, the advantages of the novel memory core in terms of performance, flexibility, and user friendliness are shown using a real-world image processing application
Adaptive Multiclient Network-on-Chip Memory Core: Hardware Architecture, Software Abstraction Layer, and Application Exploration
This paper presents the hardware architecture and the software abstraction layer of an adaptive multiclient Network-on-Chip (NoC) memory core. The memory core supports the flexibility of a heterogeneous FPGA-based runtime adaptive multiprocessor system called RAMPSoC. The processing elements, also called clients, can access the memory core via the Network-on-Chip (NoC). The memory core supports a dynamic mapping of an address space for the different clients as well as different data transfer modes, such as variable burst sizes. Therefore, two main limitations of FPGA-based multiprocessor systems, the restricted on-chip memory resources and that usually only one physical channel to an off-chip memory exists, are leveraged. Furthermore, a software abstraction layer is introduced, which hides the complexity of the memory core architecture and which provides an easy to use interface for the application programmer. Finally, the advantages of the novel memory core in terms of performance, flexibility, and user friendliness are shown using a real-world image processing application
Personality assessment in the Great Apes: Comparing ecologically valid behavior measures, behavior ratings, and adjective ratings
Three methods of personality assessment (behavior measures, behavior ratings, adjective ratings) were compared in 20 zoo-housed Great Apes: bonobos (Pan paniscus), chimpanzees (Pan troglodytes verus), gorillas (Gorilla gorilla gorilla), and orangutans (Pongo pygmaeus abelii). To test a new bottom-up approach, the studied trait constructs were systematically generated from the species’ behavioral repertoires. The assessments were reliable, temporally stable, and showed substantial cross-method coherence. In most traits, behavior ratings mediated the relations between adjective ratings and behavior measures. Results suggest that high predictability of manifest behavior is best achieved by behavior ratings, not by adjectives. Empirical evidence for trait constructs beyond current personality models points to the necessity of broad and systematic approaches for valid inferences on a species’ personality structure
Differential prognostic utility of adiposity measures in chronic kidney disease
Objective
Adipose tissue contributes to adverse outcomes in chronic kidney disease (CKD), but there is uncertainty regarding the prognostic relevance of different adiposity measures. We analyzed the associations of neck circumference (NC), waist circumference (WC), and body mass index (BMI) with clinical outcomes in patients with mild to severe CKD.
Methods
The German Chronic Kidney Disease (GCKD) study is a prospective cohort study, which enrolled Caucasian adults with mild to severe CKD, defined as estimated glomerular filtration rate (eGFR): 30–60 mL/min/1.73 m2, or >60 mL/min/1.73 m2 in the presence of overt proteinuria. Associations of NC, WC and BMI with all-cause death, major cardiovascular events (MACE: a composite of non-fatal stroke, non-fatal myocardial infarction, peripheral artery disease intervention, and cardiovascular death), kidney failure (a composite of dialysis or transplantation) were analyzed using multivariable Cox proportional hazards regression models adjusted for confounders and the Akaike information criteria (AIC) were calculated. Models included sex interactions with adiposity measures.
Results
A total of 4537 participants (59% male) were included in the analysis. During a 6.5-year follow-up, 339 participants died, 510 experienced MACE, and 341 developed kidney failure. In fully adjusted models, NC was associated with all-cause death in women (HR 1.080 per cm; 95% CI 1.009–1.155), but not in men. Irrespective of sex, WC was associated with all-cause death (HR 1.014 per cm; 95% CI 1.005–1.038). NC and WC showed no association with MACE or kidney failure. BMI was not associated with any of the analyzed outcomes. Models of all-cause death including WC offered the best (lowest) AIC.
Conclusion
In Caucasian patients with mild to severe CKD, higher NC (in women) and WC were significantly associated with increased risk of death from any cause, but BMI was not
Timing Synchronization and Fast-Control for FPGA-based large-scale Readout and Processing Systems
In vielen heutigen Datenverarbeitungssystemen der Big-Data-Domäne spielen
verteilte Echtzeitsysteme eine wichtige Rolle. Besonders, wenn Daten verschiedener
Verarbeitungseinheiten in den Kontext der Aufgabe des globalen Systems
gesetzt werden müssen, ist die Synchronisation der Daten oder des gesamten
verteilten Systems notwendig.
Eine sehr markante Anwendung dieser Domäne, welche die präzise Systemsynchronisation
voraussetzt, sind Auslesesysteme von Großexperimenten der Teilchenphysik.
Dabei ist eine sehr große Anzahl an Elektronik in Form einer Verarbeitungskette
miteinander verbunden, um Eventdaten bei Aggregat-Datenraten
im Bereich von mehreren Terabit pro Sekunde zu erfassen. Was diese Aufgabe
zusätzlich herausfordernd macht, ist die Struktur des Systems, welches in
verschiedene Subdetektoren und unterschiedliche Verarbeitungsschichten unterteilt
ist und aus einer Vielzahl verschiedenartiger elektronischer Komponenten
besteht.
Um ein solch komplexes heterogenes System handhaben zu können, kommen
verschiedene Kontrollmechanismen zum Einsatz. Eines dieser Kernsysteme der
Experimente der Teilchenphysik stellen die Systeme zur Zeit- und schnellen Experimentsteuerung
dar, auf welche der zentrale Fokus dieser Arbeit gelegt wird.
Im Falle des Compressed Baryonic Matter (CBM)-Experiments der Facility for Antiproton
and Ion Research (FAIR) in Darmstadt hat das Timing and Fast-Control (TFC)-
System die Aufgabe, einen globalen Takt und Zeitinformationen innerhalb des
gesamten Online-Teils der Experimentauslese bereitzustellen und Steuerungsinformationen
mit niedriger und vor allem konstanter Latenz aufnehmen und
verteilen zu können. Die letztere Anforderung ist im Falle des CBM-Experiments
besonders wichtig, da es über eine selbst-getriggerte Auslese verfügt, bei der die
auf verschiedenen Verarbeitungsebenen befindlichen Einheiten autonom Entscheidungen
darüber treffen müssen, ob bestimmte Eventdaten verwendet und
weitergeleitet werden sollen.
In den folgenden Kapiteln dieser Arbeit wird die Entwicklung eines Prototypen
des TFC-Systems für die Verwendung innerhalb von CBM erläutert. Hierbei
wird ein besonderer Fokus auf den Teil der Digitalelektronik, welche mittels
Field Programmable Gate Arrays (FPGAs) umgesetzt wird, und auf die Integration
spezieller Schnittstellen Printed Circuit Boards (PCBs) gelegt, wo diese benötigt
werden. Während der Konzeptionierungsphase des TFC-Systems entstand
innerhalb von CBM der Bedarf, ein vorläufiges System zur Zeitsynchronisation
zur Verfügung zu haben, um kleinere Aufbauten der Auslese synchronisieren zu
können, das sogenannte Timing Synchronizer (TS)-System. Die bei der Entwicklung
dieses Systems gewonnenen Erkenntnisse flossen in das Konzept des TFCSystems
ein. Das TS-System kam innerhalb der Strahltests von CBM am Conseil
Européen pour la Recherche Nucléaire (CERN) Super Proton Synchrotron (SPS) am
Ende des Jahres 2016 erfolgreich zum Einsatz. Dieses System ermöglichte zum
ersten Mal eine synchrone, selbst-getriggerte, freilaufende, mittelgroße, FPGAbasierte
Datenerfassung innerhalb einer Strahlzeit des CBM-Experiments [168],
was einen wichtigen Meilenstein auf dem Wege zur finalen Experimentauslese
darstellt.
Des Weiteren wird in der Arbeit das Konzept und die Entwicklung der Komponenten
des TFC-Systems detailliert beschrieben, wobei insbesondere die Verwendung
von Glasfasern bzw. verdrillten Zweidrahtleitungen aus Kupfer als
physikalisches Medium in konkurrierenden Ansätzen analysiert werden. Dabei
bietet das Konzept der Anbindung per Glasfaser Vorteile, wie eine hohe Datenrate
und die Verfügbarkeit kommerziell erhältlicher Komponenten, wobei der
letztere kupferbasierte Ansatz eine mechanisch robustere Verkabelung und geringere
Latenzen bei kurzen Nachrichten bietet und keine Hochgeschwindigkeitsübertrager
benötigt. Besonders das letzte Kriterium erlaubt es, die Anwendbarkeit
des kupferbasierten Konzepts auf Systeme auszuweiten, welche nicht
über spezielle, teure Bausteine zur schnellen Datenserialisierung verfügen, was
es beispielsweise erlaubt, diesen Ansatz auf Systeme des niedrigeren Preissegments
zu übertragen. Aufgrund der Verfügbarkeit in Form von Commercial offthe-
shelf (COTS) Hardware, wird sich der Ansatz, der Glasfaserverbindungen
verwendet, potentiell besser für das TFC-System von CBM eignen, da keine spezielle
Schnittstellen-Hardware in größerer Stückzahl entwickelt werden muss.
In Bezug auf die zukünftige Erweiterbarkeit von glasfaserbasierten Systemen
zur Zeitsynchronisation, werden aktuell passive optische Netze (PONs) als favorisierte
Lösung gehandelt, welche innerhalb der nächsten Upgrades der Experimente
am CERN Verwendung finden werden. Jedoch hat das Time-Division Multiple
Access (TDMA)-Verfahren, das in kommerziell erhältlichen PONs, wie 10-
Gigabit-capable PON (XGPON)1, in Upstream-Richtung verwendet wird, einen
starken negativen Einfluss auf die erzielbare Latenz des Verteilungsnetzwerks.
Aus diesem Grund wurde ein neues Modulationskonzept für PONs im Rahmen
dieser Arbeit entwickelt und innerhalb eines Laborsystems evaluiert. Bei diesem
Ansatz wird versucht, die Latenz dadurch zu verringern, dass die Datenrate
durch eine Unterteilung der Systembandbreite im Frequenzbereich auf die
Optical Network Units (ONUs) aufgeteilt wird, wobei das Single-Carrier Frequency
Division Multiple Access (SC-FDMA)-Verfahren zum Einsatz kommt, welches ein
von Orthogonal Frequency Division Multiple Access (OFDMA) abgeleitetes Modulationsprinzip
darstellt
Timing Synchronization and Fast-Control for FPGA-based large-scale Readout and Processing Systems
In vielen heutigen Datenverarbeitungssystemen der Big-Data-Domäne spielen
verteilte Echtzeitsysteme eine wichtige Rolle. Besonders, wenn Daten verschiedener
Verarbeitungseinheiten in den Kontext der Aufgabe des globalen Systems
gesetzt werden müssen, ist die Synchronisation der Daten oder des gesamten
verteilten Systems notwendig.
Eine sehr markante Anwendung dieser Domäne, welche die präzise Systemsynchronisation
voraussetzt, sind Auslesesysteme von Großexperimenten der Teilchenphysik.
Dabei ist eine sehr große Anzahl an Elektronik in Form einer Verarbeitungskette
miteinander verbunden, um Eventdaten bei Aggregat-Datenraten
im Bereich von mehreren Terabit pro Sekunde zu erfassen. Was diese Aufgabe
zusätzlich herausfordernd macht, ist die Struktur des Systems, welches in
verschiedene Subdetektoren und unterschiedliche Verarbeitungsschichten unterteilt
ist und aus einer Vielzahl verschiedenartiger elektronischer Komponenten
besteht.
Um ein solch komplexes heterogenes System handhaben zu können, kommen
verschiedene Kontrollmechanismen zum Einsatz. Eines dieser Kernsysteme der
Experimente der Teilchenphysik stellen die Systeme zur Zeit- und schnellen Experimentsteuerung
dar, auf welche der zentrale Fokus dieser Arbeit gelegt wird.
Im Falle des Compressed Baryonic Matter (CBM)-Experiments der Facility for Antiproton
and Ion Research (FAIR) in Darmstadt hat das Timing and Fast-Control (TFC)-
System die Aufgabe, einen globalen Takt und Zeitinformationen innerhalb des
gesamten Online-Teils der Experimentauslese bereitzustellen und Steuerungsinformationen
mit niedriger und vor allem konstanter Latenz aufnehmen und
verteilen zu können. Die letztere Anforderung ist im Falle des CBM-Experiments
besonders wichtig, da es über eine selbst-getriggerte Auslese verfügt, bei der die
auf verschiedenen Verarbeitungsebenen befindlichen Einheiten autonom Entscheidungen
darüber treffen müssen, ob bestimmte Eventdaten verwendet und
weitergeleitet werden sollen.
In den folgenden Kapiteln dieser Arbeit wird die Entwicklung eines Prototypen
des TFC-Systems für die Verwendung innerhalb von CBM erläutert. Hierbei
wird ein besonderer Fokus auf den Teil der Digitalelektronik, welche mittels
Field Programmable Gate Arrays (FPGAs) umgesetzt wird, und auf die Integration
spezieller Schnittstellen Printed Circuit Boards (PCBs) gelegt, wo diese benötigt
werden. Während der Konzeptionierungsphase des TFC-Systems entstand
innerhalb von CBM der Bedarf, ein vorläufiges System zur Zeitsynchronisation
zur Verfügung zu haben, um kleinere Aufbauten der Auslese synchronisieren zu
können, das sogenannte Timing Synchronizer (TS)-System. Die bei der Entwicklung
dieses Systems gewonnenen Erkenntnisse flossen in das Konzept des TFCSystems
ein. Das TS-System kam innerhalb der Strahltests von CBM am Conseil
Européen pour la Recherche Nucléaire (CERN) Super Proton Synchrotron (SPS) am
Ende des Jahres 2016 erfolgreich zum Einsatz. Dieses System ermöglichte zum
ersten Mal eine synchrone, selbst-getriggerte, freilaufende, mittelgroße, FPGAbasierte
Datenerfassung innerhalb einer Strahlzeit des CBM-Experiments [168],
was einen wichtigen Meilenstein auf dem Wege zur finalen Experimentauslese
darstellt.
Des Weiteren wird in der Arbeit das Konzept und die Entwicklung der Komponenten
des TFC-Systems detailliert beschrieben, wobei insbesondere die Verwendung
von Glasfasern bzw. verdrillten Zweidrahtleitungen aus Kupfer als
physikalisches Medium in konkurrierenden Ansätzen analysiert werden. Dabei
bietet das Konzept der Anbindung per Glasfaser Vorteile, wie eine hohe Datenrate
und die Verfügbarkeit kommerziell erhältlicher Komponenten, wobei der
letztere kupferbasierte Ansatz eine mechanisch robustere Verkabelung und geringere
Latenzen bei kurzen Nachrichten bietet und keine Hochgeschwindigkeitsübertrager
benötigt. Besonders das letzte Kriterium erlaubt es, die Anwendbarkeit
des kupferbasierten Konzepts auf Systeme auszuweiten, welche nicht
über spezielle, teure Bausteine zur schnellen Datenserialisierung verfügen, was
es beispielsweise erlaubt, diesen Ansatz auf Systeme des niedrigeren Preissegments
zu übertragen. Aufgrund der Verfügbarkeit in Form von Commercial offthe-
shelf (COTS) Hardware, wird sich der Ansatz, der Glasfaserverbindungen
verwendet, potentiell besser für das TFC-System von CBM eignen, da keine spezielle
Schnittstellen-Hardware in größerer Stückzahl entwickelt werden muss.
In Bezug auf die zukünftige Erweiterbarkeit von glasfaserbasierten Systemen
zur Zeitsynchronisation, werden aktuell passive optische Netze (PONs) als favorisierte
Lösung gehandelt, welche innerhalb der nächsten Upgrades der Experimente
am CERN Verwendung finden werden. Jedoch hat das Time-Division Multiple
Access (TDMA)-Verfahren, das in kommerziell erhältlichen PONs, wie 10-
Gigabit-capable PON (XGPON)1, in Upstream-Richtung verwendet wird, einen
starken negativen Einfluss auf die erzielbare Latenz des Verteilungsnetzwerks.
Aus diesem Grund wurde ein neues Modulationskonzept für PONs im Rahmen
dieser Arbeit entwickelt und innerhalb eines Laborsystems evaluiert. Bei diesem
Ansatz wird versucht, die Latenz dadurch zu verringern, dass die Datenrate
durch eine Unterteilung der Systembandbreite im Frequenzbereich auf die
Optical Network Units (ONUs) aufgeteilt wird, wobei das Single-Carrier Frequency
Division Multiple Access (SC-FDMA)-Verfahren zum Einsatz kommt, welches ein
von Orthogonal Frequency Division Multiple Access (OFDMA) abgeleitetes Modulationsprinzip
darstellt
Adaptive multi-client network-on-chip memory: Best Paper
This paper presents a novel approach for a memory, which supports the flexibility of an FPGA-based dynamic reconfigurable System-on-Chip consisting of heterogeneous data processing nodes. The memory is accessible via the Network-on-Chip (NoC) and provides a dynamic mapping of address space for the different clients within the network. Different data transfer modes support especially the image processing domain where burst transfers to the processing nodes are required. The presented method and realization overcomes the well known difficulties in FPGA-based multiprocessor systems, which are the restricted on-chip memory and the fact, that normally only one physical channel to an off-chip memory is available
- …