28 research outputs found
Vermeidung von Interferenzen bei der Konsolidierung von Diensten auf zeitlich geteilten Ressourcen
Der steigende Bedarf an Internettraffic, Speicher und Verarbeitung benötigt immer mehr Hardwareressourcen. Zusätzlich überdimensionieren Datenzentrumbetreiber ihre Infrastruktur, um auch bei Bedarfsspitzen hinreichend Leistung zur Verfügung stellen zu können. Das führt zu einer geringen Ressourcenauslastung und damit zu einem erhöhten Energieverbrauch. Durch Konsolidierung der aktiven Dienste auf einer Teilmenge der physischen Server zu Zeiten geringer Auslastung können zum einen nicht benötigte Server ausgeschaltet werden und zum anderen sind die verbleibenden Server besser ausgelastet. Jedoch müssen sich Dienste nach der Konsolidierung die physischen Ressourcen mit anderen Diensten teilen. Durch Wechselwirkungen auf gemeinsam genutzten Ressourcen, sogenannten Interferenzen, verschlechtert sich die Performanz der Dienste.
In dieser Arbeit wird auf Interferenzen eingegangen, die aufgrund des zeitlich variierenden Ressourcenverbrauchs von Diensten entstehen. Am Beispiel von der Rechenzeit einzelner Prozessorkerne wird mit Hilfe des Cutting Stock Problems mit nichtdeterministischen Längen (ND-CSP) der Energieverbrauch durch die Zahl der benötigten Ressourcen um bis zu 64,1% gesenkt. Durch Berücksichtigung der zeitlichen Variation des Ressourcenverbrauchs verbessert sich die Performanz um bis zu 59,6% gegenüber anderen Konsolidierungsstrategien.
Außerdem wird das Konzept des Überlappungskoeffizienten eingeführt. Dieser beschreibt die probabilistische Beziehung zweier parallel laufender Dienste, inwiefern sie gleichzeitig aktiv sind. Sind Dienste nicht gleichzeitig aktiv, können sie ohne zu erwartende Interferenzen konsolidiert werden. Umgekehrt sollte die Konsolidierung gleichzeitig aktiver Dienste vermieden werden. Die Analyse eines Datenzentrums von Google zeigt, dass beide Szenarien einen signifikanten Anteil darstellen. Zur Berücksichtigung des Überlappungskoeffizienten wird das ND-CSP erweitert und näherungsweise gelöst. Hier zeigt sich jedoch weder eine Verbesserung noch eine Verschlechterung der Performanz der Dienste bei gleichem Energieverbrauch. Perspektivisch, bei der exakten Lösung und weiterer Optimierung, können aber damit Dienste eventuell so allokiert werden, dass ihre Interferenzen reduziert oder im Idealfall sogar weitgehend ausgeschlossen werden können.An increasing portion of IP traffic is processed and stored in data centers. However, data center providers tend to over-provision their resources. Therefore, underutilized resources unnecessarily waste energy. Consolidating services allows them to be executed within a subset of the entire data center and to turn off the unnecessary, idling machines. Additionally, the remaining machines are properly utilized and, hence, more energy-efficient. Nevertheless, this has to be balanced against degrading the quality of service due to the shared resources of the physical machines after the consolidation.
This thesis focuses on the above mentioned interferences due to fluctuating workloads. These are treated in the framework of the Cutting Stock Problem, where items with non-deterministic length are introduced. This reduces the power consumption by minimizing the necessary, active resources by up to 64.1% for the exemplary CPU time of individual cores. Thanks to the awareness of workload fluctuations, it improves the performance of services by up to 59.6% compared to other allocation schemes.
Additionally, the concept of 'overlap coefficients' is introduced, which describes the probabilistic relation between two services which run in parallel. The more often these services are active at the same time the higher the overlap coefficient and vice versa. Services which are not active at the same time can be consolidated without any expected interference effects, while these with common activity periods should not be consolidated. The analysis of one of Google's data centers unveils that most of the services can be mapped onto one of the two patterns, while few with undetermined relation remain. The ND-CSP is extended by the 'overlap coefficient' and approximatively solved. In contrast to the former ND-CSP, neither an improvement nor a deterioration of the consolidation results is obtained. In the future, the services can be allocated with reduced or even without interference effects if an exact solution or a multi-objective optimization is applied
Amyloid-Beta Peptides Trigger Aggregation of Alpha-Synuclein In Vitro
Alzheimer’s disease (AD) and Parkinson’s disease (PD), including dementia with Lewy bodies (DLB), account for the majority of dementia cases worldwide. Interestingly, a significant number of patients have clinical and neuropathological features of both AD and PD, i.e., the presence of amyloid deposits and Lewy bodies in the neocortex. The identification of α-synuclein peptides in amyloid plaques in DLB brain led to the hypothesis that both peptides mutually interact with each other to facilitate neurodegeneration. In this article, we report the influence of Aβ(1–42) and pGlu-Aβ(3–42) on the aggregation of α-synuclein in vitro. The aggregation of human recombinant α-synuclein was investigated using thioflavin-T fluorescence assay. Fibrils were investigated by means of antibody conjugated immunogold followed by transmission electron microscopy (TEM). Our data demonstrate a significantly increased aggregation propensity of α-synuclein in the presence of minor concentrations of Aβ(1–42) and pGlu-Aβ(3–42) for the first time, but without effect on toxicity on mouse primary neurons. The analysis of the composition of the fibrils by TEM combined with immunogold labeling of the peptides revealed an interaction of α-synuclein and Aβ in vitro, leading to an accelerated fibril formation. The analysis of kinetic data suggests that significantly enhanced nucleus formation accounts for this effect. Additionally, co-occurrence of α-synuclein and Aβ and pGlu-Aβ, respectively, under pathological conditions was confirmed in vivo by double immunofluorescent labelings in brains of aged transgenic mice with amyloid pathology. These observations imply a cross-talk of the amyloid peptides α-synuclein and Aβ species in neurodegeneration. Such effects might be responsible for the co-occurrence of Lewy bodies and plaques in many dementia cases
Vermeidung von Interferenzen bei der Konsolidierung von Diensten auf zeitlich geteilten Ressourcen
Der steigende Bedarf an Internettraffic, Speicher und Verarbeitung benötigt immer mehr Hardwareressourcen. Zusätzlich überdimensionieren Datenzentrumbetreiber ihre Infrastruktur, um auch bei Bedarfsspitzen hinreichend Leistung zur Verfügung stellen zu können. Das führt zu einer geringen Ressourcenauslastung und damit zu einem erhöhten Energieverbrauch. Durch Konsolidierung der aktiven Dienste auf einer Teilmenge der physischen Server zu Zeiten geringer Auslastung können zum einen nicht benötigte Server ausgeschaltet werden und zum anderen sind die verbleibenden Server besser ausgelastet. Jedoch müssen sich Dienste nach der Konsolidierung die physischen Ressourcen mit anderen Diensten teilen. Durch Wechselwirkungen auf gemeinsam genutzten Ressourcen, sogenannten Interferenzen, verschlechtert sich die Performanz der Dienste.
In dieser Arbeit wird auf Interferenzen eingegangen, die aufgrund des zeitlich variierenden Ressourcenverbrauchs von Diensten entstehen. Am Beispiel von der Rechenzeit einzelner Prozessorkerne wird mit Hilfe des Cutting Stock Problems mit nichtdeterministischen Längen (ND-CSP) der Energieverbrauch durch die Zahl der benötigten Ressourcen um bis zu 64,1% gesenkt. Durch Berücksichtigung der zeitlichen Variation des Ressourcenverbrauchs verbessert sich die Performanz um bis zu 59,6% gegenüber anderen Konsolidierungsstrategien.
Außerdem wird das Konzept des Überlappungskoeffizienten eingeführt. Dieser beschreibt die probabilistische Beziehung zweier parallel laufender Dienste, inwiefern sie gleichzeitig aktiv sind. Sind Dienste nicht gleichzeitig aktiv, können sie ohne zu erwartende Interferenzen konsolidiert werden. Umgekehrt sollte die Konsolidierung gleichzeitig aktiver Dienste vermieden werden. Die Analyse eines Datenzentrums von Google zeigt, dass beide Szenarien einen signifikanten Anteil darstellen. Zur Berücksichtigung des Überlappungskoeffizienten wird das ND-CSP erweitert und näherungsweise gelöst. Hier zeigt sich jedoch weder eine Verbesserung noch eine Verschlechterung der Performanz der Dienste bei gleichem Energieverbrauch. Perspektivisch, bei der exakten Lösung und weiterer Optimierung, können aber damit Dienste eventuell so allokiert werden, dass ihre Interferenzen reduziert oder im Idealfall sogar weitgehend ausgeschlossen werden können.An increasing portion of IP traffic is processed and stored in data centers. However, data center providers tend to over-provision their resources. Therefore, underutilized resources unnecessarily waste energy. Consolidating services allows them to be executed within a subset of the entire data center and to turn off the unnecessary, idling machines. Additionally, the remaining machines are properly utilized and, hence, more energy-efficient. Nevertheless, this has to be balanced against degrading the quality of service due to the shared resources of the physical machines after the consolidation.
This thesis focuses on the above mentioned interferences due to fluctuating workloads. These are treated in the framework of the Cutting Stock Problem, where items with non-deterministic length are introduced. This reduces the power consumption by minimizing the necessary, active resources by up to 64.1% for the exemplary CPU time of individual cores. Thanks to the awareness of workload fluctuations, it improves the performance of services by up to 59.6% compared to other allocation schemes.
Additionally, the concept of 'overlap coefficients' is introduced, which describes the probabilistic relation between two services which run in parallel. The more often these services are active at the same time the higher the overlap coefficient and vice versa. Services which are not active at the same time can be consolidated without any expected interference effects, while these with common activity periods should not be consolidated. The analysis of one of Google's data centers unveils that most of the services can be mapped onto one of the two patterns, while few with undetermined relation remain. The ND-CSP is extended by the 'overlap coefficient' and approximatively solved. In contrast to the former ND-CSP, neither an improvement nor a deterioration of the consolidation results is obtained. In the future, the services can be allocated with reduced or even without interference effects if an exact solution or a multi-objective optimization is applied
Characterization of Dynamic Resource Consumption for Interference-Aware Consolidation
Nowadays, our daily live concerns the usage of Information Technology, increasingly. As a result, a huge amount of data has to be processed which is outsourced from local devices to data centers. Due to fluctuating demands these are not fully utilized all the time and consume a significant amount of energy while idling. A common approach to avoid unnecessary idle times is to consolidate running services on a subset of machines and switch off the remaining ones. Unfortunately, the services on a single machine interfere with each other due to the competition for shared resources such as caches after the consolidation, which leads to a degradation of performance. Hence, data centers have to trade off between reducing the energy consumption and certain performance criteria defined in the Service Level Agreement. In order to make the trade off in advance, it is necessary to characterize services and quantify the impact to each other after a potential consolidation. Our approach is to use random variables for characterization, which includes the fluctuations of the resource consumptions. Furthermore, we would like to model the interference of services to provide a probability of exceeding a certain performance criterion
Vermeidung von Interferenzen bei der Konsolidierung von Diensten auf zeitlich geteilten Ressourcen
Der steigende Bedarf an Internettraffic, Speicher und Verarbeitung benötigt immer mehr Hardwareressourcen. Zusätzlich überdimensionieren Datenzentrumbetreiber ihre Infrastruktur, um auch bei Bedarfsspitzen hinreichend Leistung zur Verfügung stellen zu können. Das führt zu einer geringen Ressourcenauslastung und damit zu einem erhöhten Energieverbrauch. Durch Konsolidierung der aktiven Dienste auf einer Teilmenge der physischen Server zu Zeiten geringer Auslastung können zum einen nicht benötigte Server ausgeschaltet werden und zum anderen sind die verbleibenden Server besser ausgelastet. Jedoch müssen sich Dienste nach der Konsolidierung die physischen Ressourcen mit anderen Diensten teilen. Durch Wechselwirkungen auf gemeinsam genutzten Ressourcen, sogenannten Interferenzen, verschlechtert sich die Performanz der Dienste.
In dieser Arbeit wird auf Interferenzen eingegangen, die aufgrund des zeitlich variierenden Ressourcenverbrauchs von Diensten entstehen. Am Beispiel von der Rechenzeit einzelner Prozessorkerne wird mit Hilfe des Cutting Stock Problems mit nichtdeterministischen Längen (ND-CSP) der Energieverbrauch durch die Zahl der benötigten Ressourcen um bis zu 64,1% gesenkt. Durch Berücksichtigung der zeitlichen Variation des Ressourcenverbrauchs verbessert sich die Performanz um bis zu 59,6% gegenüber anderen Konsolidierungsstrategien.
Außerdem wird das Konzept des Überlappungskoeffizienten eingeführt. Dieser beschreibt die probabilistische Beziehung zweier parallel laufender Dienste, inwiefern sie gleichzeitig aktiv sind. Sind Dienste nicht gleichzeitig aktiv, können sie ohne zu erwartende Interferenzen konsolidiert werden. Umgekehrt sollte die Konsolidierung gleichzeitig aktiver Dienste vermieden werden. Die Analyse eines Datenzentrums von Google zeigt, dass beide Szenarien einen signifikanten Anteil darstellen. Zur Berücksichtigung des Überlappungskoeffizienten wird das ND-CSP erweitert und näherungsweise gelöst. Hier zeigt sich jedoch weder eine Verbesserung noch eine Verschlechterung der Performanz der Dienste bei gleichem Energieverbrauch. Perspektivisch, bei der exakten Lösung und weiterer Optimierung, können aber damit Dienste eventuell so allokiert werden, dass ihre Interferenzen reduziert oder im Idealfall sogar weitgehend ausgeschlossen werden können.An increasing portion of IP traffic is processed and stored in data centers. However, data center providers tend to over-provision their resources. Therefore, underutilized resources unnecessarily waste energy. Consolidating services allows them to be executed within a subset of the entire data center and to turn off the unnecessary, idling machines. Additionally, the remaining machines are properly utilized and, hence, more energy-efficient. Nevertheless, this has to be balanced against degrading the quality of service due to the shared resources of the physical machines after the consolidation.
This thesis focuses on the above mentioned interferences due to fluctuating workloads. These are treated in the framework of the Cutting Stock Problem, where items with non-deterministic length are introduced. This reduces the power consumption by minimizing the necessary, active resources by up to 64.1% for the exemplary CPU time of individual cores. Thanks to the awareness of workload fluctuations, it improves the performance of services by up to 59.6% compared to other allocation schemes.
Additionally, the concept of 'overlap coefficients' is introduced, which describes the probabilistic relation between two services which run in parallel. The more often these services are active at the same time the higher the overlap coefficient and vice versa. Services which are not active at the same time can be consolidated without any expected interference effects, while these with common activity periods should not be consolidated. The analysis of one of Google's data centers unveils that most of the services can be mapped onto one of the two patterns, while few with undetermined relation remain. The ND-CSP is extended by the 'overlap coefficient' and approximatively solved. In contrast to the former ND-CSP, neither an improvement nor a deterioration of the consolidation results is obtained. In the future, the services can be allocated with reduced or even without interference effects if an exact solution or a multi-objective optimization is applied
Contra: Soll das sogenannte „Gene Editing“ mittels CRISPR/Cas9-Technologie an menschlichen Embryonen erforscht werden?
Kipke R, Rothhaar M, Hähnel M. Contra: Soll das sogenannte „Gene Editing“ mittels CRISPR/Cas9-Technologie an menschlichen Embryonen erforscht werden? Ethik in der Medizin . 2017;29(3):249-252
Der manipulierbare Embryo. Potentialitäts- und Speziesargumente auf dem Prüfstand
Rothhaar M, Hähnel M, Kipke R, eds. Der manipulierbare Embryo. Potentialitäts- und Speziesargumente auf dem Prüfstand. Münster: mentis; 2018
Analysis of the Scope of Dynamic Power Management in Emerging Server Architectures
The architectures of large-scale Internet servers are becoming more complex each year in order to store and process a large amount of Internet data (Big Data) as efficiently as possible. One of the consequences of this continually growing complexity is that individual servers consume a significant amount of data even when they are idle. In this paper we experimentally investigate the scope and usefulness of existing and proposed dynamic power management strategies to manage power at core, socket, and server levels. Our experiment involves four dynamic voltage and frequency scaling policies, three different workloads having different resource consumption statistics, and the activation and deactivation of different sockets (packets) of a multicore, multi-socket server. Moreover, we establish a quantitative relationships between the workload (w) and the estimated power consumption (p) under different power management strategies to make a quantitative comparison of the different strategies and server configurations