842 research outputs found

    A Utility-based QoS Model for Emerging Multimedia Applications

    Get PDF
    Existing network QoS models do not sufficiently reflect the challenges faced by high-throughput, always-on, inelastic multimedia applications. In this paper, a utility-based QoS model is proposed as a user layer extension to existing communication QoS models to better assess the requirements of multimedia applications and manage the QoS provisioning of multimedia flows. Network impairment utility functions are derived from user experiments and combined to application utility functions to evaluate the application quality. Simulation is used to demonstrate the validity of the proposed QoS model

    Johann Peter Groetzner im Ruhestand

    Get PDF
    Biographie und Danksagung an Johann Peter Groetzne

    Fine Grained Component Engineering of Adaptive Overlays: Experiences and Perspectives

    Get PDF
    Recent years have seen significant research being carried out into peer-to-peer (P2P) systems. This work has focused on the styles and applications of P2P computing, from grid computation to content distribution; however, little investigation has been performed into how these systems are built. Component based engineering is an approach that has seen successful deployment in the field of middleware development; functionality is encapsulated in ‘building blocks’ that can be dynamically plugged together to form complete systems. This allows efficient, flexible and adaptable systems to be built with lower overhead and development complexity. This paper presents an investigation into the potential of using component based engineering in the design and construction of peer-to-peer overlays. It is highlighted that the quality of these properties is dictated by the component architecture used to implement the system. Three reusable decomposition architectures are designed and evaluated using Chord and Pastry case studies. These demonstrate that significant improvements can be made over traditional design approaches resulting in much more reusable, (re)configurable and extensible systems

    Probleme und Risiken bei der geplanten Einlagerung radioaktiver AbfÀlle in einen nordwestdeutschen Salzstock

    Get PDF
    Der Plan, große Mengen radioaktiver Materialien in Salinar- gesteine von Salzstöcken einzulagern, schließt die RĂŒck- holbarkeit praktisch aus. Bei der AbschĂ€tzung des Langzeitverhaltens der Gesteine, der Grubenbaue und des gesamten Diapirs sind - wie auch beim Einlagerungsvorgang selbst - Fehler nicht auszuschließen und nicht korrigierbar. Die Antragsteller behandeln die geowissenschaftlichen Aspekte der Einlagerung (Teilprojekt 6) nicht qualifiziert und widmen den damit verbundenen Problemen eine unangemessen geringe Aufmerksamkeit. Sie lassen die einem solchen Projekt adĂ€quate planerische Sorgfalt vermissen, gehen mit den zur VerfĂŒgung stehenden Daten in ihrer Argumentation ungenau oder selektiv um und erwecken den Eindruck, unter der ErdoberflĂ€che nach dem 'trial-and-error'-Prinzip Vorgehen zu wollen. Salzstöcke sind tektonisch grundsĂ€tzlich instabile Gesteinskörper. Die an ihrem Aufbau ĂŒberwiegend beteiligten Gesteine sind die wasserlöslichsten der Erdkruste; sie reagieren am empfindlichsten auf mechanische und thermische Beanspruchung und sind am reaktionsfĂ€higsten bei möglichen Interaktionen zwischen Einlagerungsmaterial und Einlagerungsmedium. Salzstöcke sind die auf bergtechnische Eingriffe am sensibelsten reagierenden Gesteinskörper, insbesondere, wenn der am Salzspiegel herrschende Lösungszustand gestört wird, wenn durch kĂŒnstliche HohlrĂ€ume im Innern Kriechbewegung (Konvergenz) des gesamten Salinars ausgelöst wird und wenn mit der Einlagerung thermische Belastungen einhergehen, welche höher sind als die mit der Gesteinsbildung und -Umbildung verbundenen Temperaturen es jemals waren. Daß trotz dieser Empfindlichkeit Gewinnungsbergbau in Diapiren möglich ist, ist kein Beleg fĂŒr ihre Eignung als Endlager. Die Geowissenschaften verfĂŒgen ĂŒber Modellvorstellungen zur Deutung der Salinargenese, des Salzaufstiegs und des gebirgsmechanischen Verhaltens. Diese Modelle sind teils als 'Lehrbuchwahrheit1 allgemein akzeptiert, werden z.T. aber auch als Hypothesen kontrovers diskutiert. Langzeitprognosen ĂŒber das Verhalten von Gesteinen sind nicht verlĂ€ĂŸlich, wenn sie auf widersprochenen Modellvorstellungen ĂŒber das Wesen von Gesteinen und Gesteinsverhalten beruhen. Die Salzstockauswahl ging der geowissenschaftlichen Erkundung voraus. Die wenigen publizierten Daten zur regionalen Geologie lassen nicht auf einen bergbautechnisch besonders leicht zu beherrschenden Salzstock schließen. Die Lage des Diapirs im Verbreitungsgebiet wasserreicher quartĂ€rzeitlicher Rinnensysteme spricht genauso gegen die Standortwahl wie die zu erwartende komplizierte Interntektonik und die politisch bedingte Unerforschbarkeit der Gesamtstruktur Gorleben-Rambow. Als Fehlentscheidung ist die durch LandkĂ€ufe am Standort Gorleben vorweggenommene Auswahl des FabrikgelĂ€ndes einschließlich Schachtanlage und Tritiumwasser-Verpressung auf dem Salzstock zu werten. Der nicht auszuschließende "Störfall Wassereinbruch" kann sich ĂŒber Tage auf die Standsicherheit der riesigen GebĂ€ude und Lagerbecken zerstörerisch auswirken und so Kontamination der Umgebung verursachen. Geowissenschaftliche GrĂŒnde, Erfahrungen aus der Bergbaukunde und die Erwartung, daß man fehlerhaftes Handeln nicht ausschließen kann, fĂŒhren den Verfasser zu der Überzeugung, daß die Endlagerung radioaktiver AbfĂ€lle im Salz nicht zu empfehlen und nicht zu verantworten ist

    Analysis of searching mechanisms in hierarchical p2p based overlay networks

    Get PDF
    Proceedings of: The 6th Annual Mediterranean Ad Hoc Networking Workshop (Med Hoc Net 2007. (Corfu, Greece), June 2007This work presents a study of searching mechanisms in Peer-to-Peer (p2p) networks. The aim of this research line is to analyse cross-searching mechanisms that will allow the hierarchical interconnection of p2p networks. A set of relevant metrics for interconnection scenarios are defined to evaluate scalability, robustness and routing latency.This work has been partially supported by the European Union under the IST Content (FP6-2006-IST-507295) project and by the Madrid regional government under the Biogridnet (CAM, S-0505/TIC-0101) project.Publicad

    At the Center of Macroautophagy:Autophagosomes

    Get PDF
    Autophagosomes are double-membrane vesicles that are the hallmark of the intracellular catabolic process called macroautophagy. They are formed by the orchestrated interplay of the AuTophaGy-related (ATG) proteins. The cargo molecules sequestered by autophagosomes include long-lived proteins, protein complexes or aggregates, superfluous or excess organelles, and invading pathogens. Complete autophagosomes fuse with lysosomes delivering the sequestered material in the interior of these organelles where it is degraded by resident hydrolases. Autophagy represents a key survival mechanism because it clears the cytoplasm from unwanted and potentially toxic structures, but it can also represent an intracellular source of metabolites that is induced by cells to generate new macromolecules or energy in times of need.</p

    Analysis and characterisation of botnet scan traffic

    Get PDF
    Botnets compose a major source of malicious activity over a network and their early identification and detection is considered as a top priority by security experts. The majority of botmasters rely heavily on a scan procedure in order to detect vulnerable hosts and establish their botnets via a command and control (C&C) server. In this paper we examine the statistical characteristics of the scan process invoked by the Mariposa and Zeus botnets and demonstrate the applicability of conditional entropy as a robust metric for profiling it using real pre-captured operational data. Our analysis conducted on real datasets demonstrates that the distributional behaviour of conditional entropy for Mariposa and Zeus-related scan flows differs significantly from flows manifested by the commonly used NMAP scans. In contrast with the typically used by attackers Stealth and Connect NMAP scans, we show that consecutive scanning flows initiated by the C&C servers of the examined botnets exhibit a high dependency between themselves in regards of their conditional entropy. Thus, we argue that the observation of such scan flows under our proposed scheme can sufficiently aid network security experts towards the adequate profiling and early identification of botnet activity
    • 

    corecore