21 research outputs found

    MOOLs: Massive Open Online Laboratories

    Get PDF
    Ce projet propose d’étendre le principe de MOOCs aux travaux pratiques. Une infrastructure matérielle et informatique doit être développée afin de permettre aux étudiants de piloter différentes expérimentations à l’aide d’une page Web. Les laboratoires représentent une ressource académique importante puisqu’ils fournissent une formation pratique en plus des cours théoriques. Les MOOLs permettent de partager les ressources et les équipements de laboratoire entre les universités et ainsi de réduire les coûts d’acquisition de nouvelles machines et de leurs maintiens

    HoBAC : famille de modèles de contrôle d'accès généralisant ABAC

    Get PDF
    RÉSUMÉ: L'environnement dynamique est l'une des principales caractéristiques de l'Internet des Objets ou Internet of Things (IoT), garantir et assurer la sécurité dans un tel environnement est simultanément une tâche primordiale et qui représente un grand défi. L'un des aspects essentiels de la sécurité de données est le contrôle d'accès, ce mécanisme vise à contrôler l'accès à l'information en fonction des stratégies d'accès spécifiques afin d'empêcher tout accès illégitime. Différents modèles de contrôle d'accès ont été proposés pour restreindre l'accès aux données des dispositifs IoT. AttributeBased Access Control (ABAC) est l'un des modèles et des normes qui ont reçu une attention significative au cours de ces dernières années. Dans ce modèle, les demandes d'accès des utilisateurs seront accordées ou refusées en fonction de différents attributs (attributs attribués aux objets, aux sujets et aux conditions environnementales) et d'un ensemble de règles spécifiées en fonction de ces attributs et conditions. Donc, les droits d'autorisations dans ABAC sont octroyés aux utilisateurs à travers une politique qui combine des attributs provenant principalement des objets, des sujets et des contextes. Il est à noter que différents modèles visant l'extension de ABAC ont été suggérés. Cependant, les politiques d'accès qui peuvent être générées de ces approches restent restrictives et peu flexibles, cela représente une limitation majeure en particulier dans le contexte IoT. Ce projet de recherche est motivé par les opportunités prometteuses du mécanisme de contrôle d'accès qui est l'un des aspects de sécurité essentiels et critiques permettant de contrôler l'accès aux ressources protégées par la définition d'une politique qui précise notamment les conditions dans lesquelles une ressource peut être accédée par un utilisateur. En effet, dans ce mémoire, nous tirons parti des limitations des différents modèles de contrôle d'accès qui ont été proposés pour l'IoT en général et les modèles visant l'extension du modèle ABAC en particulier afin de proposer un nouveau modèle de contrôle d'accès nommé Higher-order Attribute-Based Access Control (HoBAC). HoBAC est un nouveau modèle de contrôle d'accès qui est une généralisation du modèle ABAC. Ce nouveau modèle permet de mettre en oeuvre des politiques de contrôle d'accès flexibles, adaptées aux systèmes IoT et non IoT basées sur des hiérarchies d'entités (objets, sujets et contextes) construites à l'aide de la composition fine et les opérations d'agrégations sur les attributs. Ce mécanisme d'abstraction représente une couche de sécurité supplémentaire qui permet d'assurer la sécurité des données en empêchant la manipulation directe des sujets, des objets et des contextes de bas niveau. Ce travail de recherche présente les fondements théoriques de HoBAC et introduit également son architecture générale. Deux instances du modèle théorique sont présentées dans ce mémoire dont la première instanciation génère le modèle ABAC d'origine et la deuxième génère un modèle de contrôle d'accès à quatre couches qui convient aux systèmes IoT où la politique est distribuée à travers les différentes couches (périphériques IoT, la couche Edge, la couche Fog et la couche Cloud), ces instances permettent de montrer la flexibilité de notre modèle et qu'il est assez général pour exprimer différentes politiques de contrôle d'accès. Afin de montrer l'applicabilité des concepts de base du modèle HoBAC et ses relations, nous avons créé une application Web pour l'administration de sa politique d'accès. Ainsi, nous avons implémenté l'instanciation du modèle HoBAC de base (HoBAC0) en utilisant la Policy Machine (PM) afin d'appliquer sa politique d'accès qui correspond au modèle ABAC. -- Mot(s) clé(s) en français : IoT, Sécurité, Contrôle d'accès, ABAC. -- ABSTRACT: The dynamic environment is one of the characteristics of the Internet of Things (IoT), ensuring security in such environment is a prominent and challenging task at the same time. One of the vital aspects of data security is Access Control, it intends to control access to information based on access policies in order to prevent any illegitimate access. Different access control models have been proposed to restrict access to data of IoT devices. Attribute-Based Access Control (ABAC) is one of the most promising access control models and standards which has received meaningful attention in recent years. In this model, the access requests from users will be granted or denied based on different attributes (attributes assigned to objects, to subjects and environmental conditions) and a specified set of rules based on those attributes and conditions. Therefore, the access rights in ABAC are granted to users through a policy which combines a set of attributes which comes mainly from objects, subjects and contexts. It should be noted that several models that extend the ABAC model have been suggested. However, the access policies that can be generated from these approaches remain restrictive and they are not very flexible, this represents a major limitation especially in the IoT context. This research project is motivated by the promising opportunities of the access control mechanism which is one of the essential and critical aspects of security that can control access to protected resources by the definition of policies that dictate the conditions under which a resource may be accessed by a user. Indeed, in this thesis, we take advantage of the limitations of the different access control models that have been proposed for IoT in general and the models extending the ABAC model in particular in order to propose a new access control model named Higher-order Attribute-Based Access Control (HoBAC). HoBAC is a new access control model that is a generalization of the original ABAC model. This new model makes it possible to implement flexible access control policies adapted to IoT and non-IoT systems based on hierarchies of entities (objects, subjects and contexts) built using fine composition and aggregation operations on the attributes. This abstraction mechanism is by itself an additional security layer that ensures data security by preventing direct manipulation of the low-level objects, subjects and contexts. This research work presents the theoretical foundations of HoBAC and introduces its general architecture. Two instances of the theoretical model are presented in this thesis, The first instantiation yields the original ABAC model and the second instance yields a four-layer AC model that is suitable for IoT systems where the policy is distributed through the different layers (sensors, edge, fog and cloud). These instances show the flexibility of our model and that it is general enough to express different access control policies. In order to show the applicability of the main concepts of HoBAC model and their relationships, we have created a Web application for administration of its access policy. Thus, we have implemented the instantiation of the basic HoBAC model (HoBAC0) using the Policy Machine (PM) in order to apply its access control policy which is equivalent to the ABAC model. -- Mot(s) clé(s) en anglais : IoT, Security, Access Control, ABAC

    A new seismological network for Bavaria and its application to the study of meteorologically triggered earthquake swarms

    Get PDF
    This thesis addresses to self-contained topics and is therefore structured in tow parts. The first part describes the installation of a new seismological network for Bavaria, whereas the second part focuses on the investigation of rainfall induced seismicity near Bad Reichenhall in southeastern Bavaria. Part 1 Because of the focus of the existing seismological stations on teleseismic and regional events, the capability of locating local earthquakes in various regions of Bavaria was quite limited. To overcome this situation 15 new stations were installed in the country. Additionally, six existing stations were updated to state-of-the-art technology in a second stage. The network geometry closely oriented on the seismicity of Bavaria, with densly spaced stations in areas were activity is high and promising scientific problems could be addressed. The software concept was, as far as possible, adopted from the GEOFON Project of th GeoFoschungsZentrum Potsdam (GFZ), which is already used for the German Regional Seismic Network (GRSN) and other European networks. This assures an easy data transfer with other services and allows the future incorporation of real-time data of the Bavarian network in an European and global seismological networks. Part 2 In the second part of this thesis, the focus will be laid on one of the dense sub-networks in southeastern Bavaria. Here, near the town of Bad Reichenhall, a connection between rainfall and seismicity is suggested since the early 1970ties. However, because of the lack of continuous high-quality data such a correlation could never be tested by means of a physical model. In three papers the observation of above average rainfall in 2002 and associated earthquake swarms are studied in detail. Starting with an overview paper with first location results and interpretation in Chapter 3, the discussion of cluster analysis, high-precision relocation and focal-mechanism analysis in Chapter 4, and finally by statistical modeling of the relocated seismicity by means of point process modeling and pore-pressure diffusion assuming a rate-state earthquake friction model in Chapter 5. Although, seasonal variability of seismicity related to ground water recharge and precipitation has been previously observed on regional scales, a statistically significant causal relationship between rainfall and earthquake activity for an isolated region can be shown here for the first time. The analysis of the high quality meteorological and seismic data in the Mt. Hochstaufen region yields clear evidence that tiny pore pressure changes induced by rainfall are able to trigger earthquake activity even at 4 km depth via the mechanism of fluid diffusion. Stress changes of the order of 5-13 mbar are found to trigger earthquakes. This is much less than usually produced in fluid injection experiments (several 100 bars and more), indicating an extreme sensitivity of the crust with regard to tiny changes. This might be an universal feature which can, however, only be seen in the rare occasion of an isolated but critical system, like the study area. Although, the derived focal mechanisms indicate an influence of the Saalach Fault Zone on the stress regime of the study area, the reason for the criticality of the seismogenic volume in the Mt. Hochstaufen region is not yet finally resolved. However, the high correlation between rainfall-induced pressure changes at depth and seismicity opens the possibility of forecasting future earthquake rates on the basis of rainfall data in this region. Regarding the small volume in which the earthquakes take place, the almost yearly occurring earthquake swarms and the permanent, seismo-meteorological monitoring network, Mt. Hochstaufen provides nearly controlled experimental conditions to study fluid-induced seismicity and the physics of earthquake swarms.Die vorliegende Arbeit befasst sich mit zwei eigenständigen Themen, deshalb ist sie in zwei Teile gegliedert. Im ersten Teil wird der Aufbau eines neuen seismologischen Stationsnetzes für Bayern beschrieben, wohingegen der zweite Teil über die Untersuchung der durch Regen ausgelösten seismischen Aktivität bei Bad Reichenhall in Südost-Bayern berichtet. Teil 1 Im August 2005 konnte der Bayerische Erdbebendienst auf eine Geschichte von 100 Jahren zurückblicken, da am 2. August 1905 an der königlich-bayerischen Sternwarte in München-Bogenhausen die erste bayerische Erdbebenstation in Betrieb genommen wurde. In den darauf folgenden vier Jahrzehnten wurden über unterschiedlich lange Zeiträume bis zu vier weitere Erdbebenstationen in Bayern betrieben, bis 1944 kriegsbedingt der Betrieb des seismologischen Dienstes zum Erliegen kam. Ab Mitte der 1950er Jahre wurden verschiedene seismologische Projekte in Bayern begonnen. Zum einen begann die Universität München mit dem Wiederaufbau des Bayerischen Erdbebennetzes, das bis zum Jahre 2001 auf zwölf Stationen in Bayern und Österreich erweitert wurde. Die Stationen wurden nahe den bekannten Erdbebengebieten in Bayern aufgestellt, allerdings mussten sie aufgrund der begrenzten Speicherkapazität und des kleinen Übertragungsvolumens mit geringen Abtastfrequenzen und im Triggermodus betrieben werden. Einige Stationen wurden sogar bis Ende der 1990er Jahre mit Tintenregistrierung betrieben und standen erst nach einigen Tagen zur Auswertung zur Verfügung. Außerdem wurden im Zuge der Überwachung von Kernwaffentests - und später zu wissenschaftlichen Zwecken - sogenannte Arrays in Bayern installiert. Diese nutzen eine aus der Astronomie bekannte Technik, bei der einzelne Empfänger zu einer Antenne zusammengeschaltet werden, die dann mit Methoden der Signalverarbeitung auf bestimmte Beobachtungsrichtungen eingestellt werden kann. Die Instrumentierung der Arraystationen wurde so gewählt, das sie optimal zur Registrierung von Fern- und Regionalbeben, also für Erdbeben im Entfernungsbereich über 600 km, geeignet waren. Seismogramme von Beben aus diesem Entfernungsbereich setzen sich aus langwelligen Schwingungen zusammen, die im wesentlichen weniger als eine Schwingung pro Sekunde enthalten. Deshalb können die Abtastraten zur Digitalisierung dieser Daten klein sein. In Bayern erreichten sie maximal 80 Hz, was für die Aufzeichnung vieler Lokalbeben zu wenig ist. Ende des Jahres 2000 fand man in Bayern also folgende Situation vor: Die vorhandenen Erdbebenstationen waren hauptsächlich für die Registrierung von entfernten Erdbeben geeignet. Außerdem konnten die wenigen für die Aufzeichnung von Lokalbeben optimierten kurzperiodischen Messstationen aufgrund der Aufzeichnung im Triggermodus und des zu großen Stationsabstandes keine schnelle und verlässliche Erdbebenlokalisierung gewährleisten. So war es keine Ausnahme, dass gespürte Beben erst durch Anrufe besorgter Personen bei der Polizei oder am Geophysikalischen Observatorium der Universität München bekannt wurden und nur mit großer zeitlicher Verzögerung lokalisiert werden konnten. Aus dieser Situation heraus beschlossen die Universität München und das Bayerische Geologische Landesamt, einen Antrag zum Ausbau des bayerischen Erdbebennetzes bei der Bayerischen Staatsregierung einzureichen. Dieser Antrag wurde im Oktober 2000 genehmigt und der Aufbau eines Messnetzes von 21 modernen seismologischen Stationen begonnen. Die Wahl der Stationsstandorte orientierte sich eng an der bekannten Seismizität von Bayern. Bei Marktredwitz in Nordost-Bayern und bei Bad Reichenhall in Südost-Bayern wurden Subnetze von je sechs Stationen errichtet, um die in diesen Gebieten auftretenden Erdbebenschwärme zu untersuchen. Auf letztere wird im zweiten Teil der Arbeit näher eingegangen. Weitere Stationsstandorte finden sich in der Hohen Rhön (NW-Bayern), im Nördlinger Ries und im Altmühltal (Zentral-Bayern), sowie entlang des nördlichen Alpenrandes in Oberstdorf, Garmisch-Partenkirchen und Berchtesgaden. Die Stationen sind über ISDN an das Datenzentrum im Geophysikalischen Observatorium in Fürstenfeldbruck angeschlossen. Hier findet die Auswertung und die Archivierung der aufgezeichneten Daten statt. Die Daten der einzelnen Stationen werden in Form von Seismogrammbildern der letzten sechs Stunden im Internet veröffentlicht und in regelmäßigen Abständen aktualisiert (30-60 min). Eine interaktive Website erlaubt die Sichtung von Daten der letzten fünf Tage. Der Zugriff auf die Daten der letzten 90 Tage aller Stationen ist über das Datenzentrum mit wenigen Minuten Verzögerung jederzeit möglich. Das neue bayerische seimologische Netz erlaubt die echtzeitnahe Beurteilung der seismischen Aktivität und die schnelle Information von Behörden und Bevölkerung im Falle gespürter Erdbeben. Die Erhöhung der Stationsdichte sowie der Datenqualität ermöglicht es außerdem, vielseitige wissenschaftliche Fragestellungen zu untersuchen, die von der Erdbebengefährdung Bayerns bis zur Untersuchung von regen-induzierten Erdbeben am Hochstaufen bei Bad Reichenhall reichen. Letzteres wird im zweiten Teil der Arbeit beschrieben. Teil 2 Das Gebirgsmassiv des Hochstaufen ist ein Ost-West streichender, 10 km langer Rücken, der mit seinen 1775 m Höhe markant die Umgebung überragt. Als Teil des Tirolischen Bogens der Nördlichen Kalkalpen bildet er die Grenze zur Flyschzone im Norden und ist hauptsächlich aus unter- bis mittel-triassischen Kalkformationen aufgebaut. Die Schichtung der Gesteine ist durch die Überschiebung der alpinen Decken nach Norden aufgesteilt. Geologisch nachgewiesene gravitative Massenbewegungen haben im Gipfelbereich des Berges zur Ausbildung von Großklüften geführt, die mehrere Meter geöffnet und mindesten 100 m tief sind. Nach Süden schließt sich das sedimentgefüllte Reichenhaller Becken mit salinen Serien an, das vom Staufen durch die linkslaterale Störungszone des Saalach-Westbruchs getrennt ist. Weiter südlich schließt sich als weitere kalkalpine Decke die Bechtesgadener Masse an. Das erste bekannte Erdbeben in Bayern fand am 16. Oktober 1390 bei Bad Reichenhall statt und wurde dort mit einer makroseismischen Intensität von V (MSK) wahr genommen. Beben bis zu dieser Größe ereigneten sich im Raum Bad Reichenhall im Abstand von wenigen Jahren immer wieder und wurden als Einsturzbeben aus dem Gebiet der Reiteralm südlich von Bad Reichenhall angesehen. Nach der Installation einer Erdbebenstation in der Alten Saline von Bad Reichenhall im Jahr 1972 wurde erkannt, dass sich neben den regelmäßig gefühlten Beben auch viele Mikrobeben ereignen. Diese treten gehäuft in den Sommermonaten auf, die auch die höchsten Niederschlagsmengen aufweisen. Erst in den 1980er Jahren konnte, durch die Installation eines temporären seismologischen Messnetzes, der Gebirgszug des Hochstaufen nördlich von Bad Reichenhall als Herdgebiet identifiziert werden und Einsturzbeben als Ursache für die beobachtete Seismizität ausgeschlossen werden. Wenig später konnte die Korrelation von langjährigen monatlich gemittelten Zeitreihen der Seismizität, des Niederschlages und des Grundwasserstandes nachgewiesen werden. Eine Besonderheit ist der Schwarmbebencharakter der beobachteten Seismizität. Obwohl es keine wissenschaftlich präzise Definition des Begriffes Erdbebenschwarm gibt, versteht man darunter im Allgemeinen eine Erdbebenserie bei der keine Einteilung der Seismizität in Vor-, Haupt- und Nachbeben vorgenommen werden kann. Charakteristisch ist häufig ein langsames zeitliches An- und Abklingen der seismischen Aktivität das keiner bekannten Gesetzmäßigkeit folgt. Erdbebenschwärme treten weltweit hauptsächlich in vulkanisch aktiven Regionen auf. Man vermutet deshalb, dass sie durch die Bewegung von Fluiden (Gase und/oder Flüssigkeiten) in der Erdkruste verursacht werden. Auch künstlich erzeugte Schwärme von Mikroerdbeben wurden z. B. bei der Erdölförderung und Druckversuchen in tiefen Bohrlöchern beobachtet. Mit der Installation eines Subnetzes von sechs kontinuierlich registrierenden seismologischen Stationen des in Teil 1 beschriebenen BayernNetzes im Bereich der Hochstaufen-Massives, stand ab Mitte 2001 ein Werkzeug zur hochauflösenden Untersuchung des raum-zeitlichen Seismizitätsmusters zur Verfügung. In dieser Arbeit wird im Speziellen über die Untersuchung der Seismizität im Jahr 2002 berichtet. Im März und August 2002 kam es im Raum Bad Reichenhall zu starken Regenfällen, die innerhalb von 24 h, bzw. 48 h, den jeweiligen Monatsdurchschnitt überschritten. Die Starkniederschläge im August führten zu Jahrhunderthochwassern in Mitteleuropa, die einen Schaden von 18.5 Milliarden Euro verursachten. Zeitgleich mit den Niederschlagsereignissen stieg die Anzahl der pro Tag registrierten Mikrobeben im Bereich des Hochstaufen stark an. Sie erreichten nach jeweils zehn Tagen ihr Maximum und blieben für mehrere Monate auf einem erhöhten Niveau. Der Vergleich der täglichen Erdbebenrate mit Zeitreihen des Niederschlags und des Grundwasseranstieges zeigt, dass diese auch im kleinskaligen Bereich gut übereinstimmen. Die Kreuzkorrelation der gefilterten Zeitreihen ergab sehr hohe Werte für relative Zeitversätze von 8-10 Tagen. Insgesamt wurden 1171 Mikroerdbeben registriert. Das stärkste Ereignis, am 10. April, hatte eine Lokalmagnitude von ml=2.4. Es wurden allerdings auch Beben bis zu einer Magnitude von ml=-1.6 aufgezeichnet. Aus der Häufigkeitsverteilung der Magnituden kann die Vollständigkeit des Erdbebendatensatzes für Beben einer Magnitude größer ml=-0.2 abgeleitet werden. Mit den seismologischen Stationen des BayernNetzes und drei zusätzlichen Mobilstationen konnten 546 Erdbeben lokalisiert werden, woraus sich das folgend Bild der Seismizität ergab. Der erste Erdbebenschwarm im März 2002 ereignete sich südlich des Hochstaufen nahe des Thumsees in einem kleinen Herdvolumen in ungefähr 3 km Tiefe. Die Epizentren des im August beginnenden Schwarmes waren im Gegensatz dazu diffus über das Gebirgsmassiv des Staufen verteilt. Auffällig ist eine zeitliche Verlagerung der Seismizität in die Tiefe. Diese konnte besonders deutlich am Anfang des August-Schwarmes beobachtet werden. Die Wanderung der Erdbebenherde wurde mit einem einfachen hydrodynamischen Modell untersucht. Das Coulomb-Bruchkriterium besagt, dass die Scherfestigkeit eines Materials proportional zur Normalspannung auf die potentielle Bruchfläche ist. Der Porendruck wirkt dem Normaldruck entgegen und verringert so die Scherfestigkeit. Andererseits folgt der raum-zeitliche Verlauf einer von der Oberfläche eines poro-elastischen Halbraums in die Tiefe diffundierenden Druckstörung im Zeit-Tiefen-Diagramm einer Wurzelfunktion, die von der Diffusivität des Halbraumes abhängt. Das heißt, wenn die Erdbeben durch eine Erhöhung des Porendruckes ausgelöst werden, sollte die in einem solchen Diagramm aufgetragene Seismizität hauptsächlich im Bereich erhöhten Porendrucks unter der Wurzelfunktion liegen. Die Diffusivität des Halbraumes lässt sich dann über die Anpassung der Wurzelfunktion an die beobachtete Seismizität abschätzen. Zur Anpassung der Wurzelfunktion an die Seismizität wurde ein Verfahren entwickelt, das die Diffusivität ausgehend von 0 m^2/s solange erhöht, bis sämtliche Erdbeben darunter zu liegen kommen. Der Prozentsatz der sich unter der Wurzelfunktion befindenden Erdbeben wird dann gegen die Diffusivität aufgetragen. Dabei entsteht eine Kurve, die man mit zwei Geraden annähern kann. Aus dem Schnittpunkt der Geraden erhält man die gesuchte Diffusivität. Das Verfahren wurde mit synthetischen Daten getestet und liefert zusätzlich zu früheren Verfahren eine Fehlerabschätzung für die Diffusivität. Sämtliche Schwärme des Jahres 2002 wurden mit dieser Methode untersucht. Der Nullpunkt der Wurzelfunktion wurde dabei an die Zeit des jeweiligen Regenereignisses gesetzt. Die abgeschätzte Diffusivität von 0.75 +- 0.35 m^2/s stimmt gut mit Werten aus anderer Arbeiten überein und deutet an, dass der Mechanismus der Porendruckdiffusion eine wichtige Rolle bei der Auslösung von Erdbeben im Hochstaufen spielt. Um die Ergebnisse der ersten Untersuchung zu verifizieren, wurde in einem nächsten Schritt eine hochgenaue Relokalisierung der Erdbeben des Jahres 2002 durchgeführt. Dabei wurde ausgenutzt, dass sich im beobachteten Datensatz viele Erdbeben befinden, die sehr ähnliche Seismogramme besitzen. Mit Hilfe von Kreuzkorrelations- und anschließender Clusteranalyse wurden Gruppen ähnlicher Erdbeben, sogenannte Cluster, zusammengestellt. Man kann davon ausgehen, dass solche Ereignisse räumlich sehr nahe zusammenliegen und dies zur hochgenauen Lokalisierung nutzen. Dabei wird ein Beben des Clusters zum Masterevent erklärt und die restlichen, mit Hilfe der sehr genauen relativen Einsatszeiten aus der Kreuzkorrelationsanalyse, relativ dazu lokalisiert. Die Ausdehnung der Cluster schrumpfte mit der Relokalisierung bis auf wenige 10er Meter zusammen. Allerdings liegt die berechnete Unsicherheit der relativen Lokalisierung im selben Bereich, sodass keine Interpretation der inneren Struktur der Cluster vorgenommen werden konnte. Zur Verbesserung der absolute Lokalisierungen wurden ein 3D-Geschwindigkeitsmodell erstellt. Es setzte sich aus zwei homogenen Viertelräumen zusammen, die einerseits den Flysch andererseits das Kalkalpin repräsentierten, und besaß eine realistische Topographie. Ein finite-Differenzen Algorithmus zur Laufzeitberechnung wurde in Verbindung mit einem probabilistischen Inversionsansatz zu Lokalisierung von 612 Erdbeben verwendet. Die Unsicherheit der Lokalisierung war mit einem Mittel von 200 m sehr gering und konnte durch die Kombination mit den Ergebnissen der Masterevent-Lokalisierung noch verbessert werden. Nach der Relokalisierung treten in der Seismizitätsverteilung deutliche Muster hervor. Die Erdbeben des Jahres 2002 im Staufen-Massiv fanden zwischen 1700 m üNN - d. h. mehr als 1000 m über Bad Reichenhall - und 4200 m uNN statt, wobei der Großteil unterhalb 1000 m üNN liegt. Die Erdbebenherde scheinen zwei planaren Strukturen zu folgen. Eine streicht nach Norden und fällt steil nach Westen ein, die andere streicht nach Westen und fällt sehr flach nach Süden ein. Keine der Strukturen kann jedoch eindeutig mit geologischen Strukturen in Verbindung gebracht werden. Die Raum-zeitliche Tiefenwanderung der Seismizität der früheren Lokalisierung konnte bestätigt werden. Für ausgewählte Cluster und Einzelereignisse wurden auf Grundlage der Polaritäten der Phasen P, SH und SV Herdmechanismen bestimmt. Hierzu wurden in einem Jackknife-Verfahren aus jedem Polaritäten-Datensatz neue Datensätze erzeugt, in denen jeweils eine Polaritätsbeobachtung des ursprünglichen Datensatzes weggelassen wurde. Für alle so erzeugten Datensätze eines Ereignisses oder Clusters wurde mögliche Herdmechanismen errechnet. Die Summe aller möglichen Herdmechanismen mit weniger als zwei Polaritätsfehlern und mindestens zwölf Beobachtungen wurde einer statistischen Analyse unterzogen und durch Mittelung der Normalenvektoren der Herdflächen, die bevorzugten Herdmechanismen und deren Varianz berechnet. Insgesamt konnten 25 Herdmechanismen mit eine Varianz kleiner als 20 Grad gefunden werden. Die Anzahl der abgeleiteten Mechanismen ist zu gering, um eindeutige Aussagen über die tektonischen Vorgänge im Raum Bad Reichenhall machen zu können. Sie scheinen jedoch anzudeuten, dass der Saalach Westbruch Einfluss auf das Spannungsregime des Untersuchungsgebiet hat. Entlang dieser Störung verschob sich seit dem mittleren Oligozän die Berchtesgadener Masse um 12-15 km nach Nordosten. Die errechneten Herdmechanismen lassen sich in drei Spannungsregime gliedern, die mit einer links-lateralen Verschiebung am Saalach-Westbruch in Einklang zu bringen sind. Sollte sich dieses Ergebnis durch zukünftige Untersuchungen bestätigen, könnte dies große Auswirkungen auf die seismische Gefährdungsanalyse für die Städte Bad Reichenhall und Salzburg haben, die sehr nahe an der Störung liegen. Im letzten Schritt wurde das raum-zeitliche Muster der relokalisierten Seismizität mit Hilfe eines statistisch-hydrodynamischen Modelles untersucht. Die beobachtete Seimizität wurde als stochastischer Punktprozess modelliert, welcher durch eine konditionelle Intensitätsfunktion beschrieben werden kann. Diese stellt vereinfacht gesagt die sich aus einem parametrisierten physikalischen Modell unter der Bedingung der bekannten, vorangegangenen Seismizität ergebende Ereignisrate an. Durch Maximierung der sich aus der Intensitätsfunktion ergebenden Wahrscheinlichkeitsfunktion können die optimalen Modellparameter abgeleitet werden. Die Intensitätsfunktion des modellierten Punktprozesses setzte sich aus einem konstanten Hintergrundterm und einem Porendruckterm zusammen. Letzterer gibt die Erdbebenrate an, die aus der niederschlagsbedingten Porendruckänderung in der Tiefe eines poroelastischen homogenen Halbraumes vom Rate-and-State Reibungsgesetz vorhergesagt wird. Diese Gesetz ist aus Laborversuchen abgeleitet und beschreibt die Abhängigkeit des Reibungskoeffizienten einer Bruchfäche von deren Verschiebungsbetrag, -rate und der Ruhekontaktzeit. Die aus dem optimierten Modell berechneten raum-zeitlichen Felder für Porendruck und Erdbebenrate stimmen sehr gut mit der beobachteten Seismizität überein. Die daraus vorhergesagte tägliche Erdbebenzahl wurde mit Hilfe der Kreuzkorrelation mit der beobachteten täglichen Erdbebenrate verglichen. Dabei wurde ein sehr hoher Korrelationskoeffizent von 0.82 ermittelt, der eine gute Anpassung des zugrunde liegenden Modelles anzeigt. Die berechneten absoluten Porendrücke im Tiefenbereich von 1-4 km liegen zwischen 5-13 mbar. Diese sind um Größenordnungen kleiner als üblicherweise bei Druckversuchen in Bohrlöchern oder bei Staudamm-induzierter Seismizität beobachtet (1-100 bar) und zeigen, dass die Erdkruste in manchen Bereichen in ei

    Anàlisi teòric de les debilitats de seguretat dels estàndards per a la Medició Intel·ligent

    Get PDF
    [ANGLÈS] This project has been accomplished in the Department of Telecommunications Engineering of the Czech Technical University, as a part of a collaborative work within the department to long-term study the development of software applications related to security in technologies for Smart Metering. This project aims to analyze the weaknesses, concerned in terms of security mechanisms, of the telecommunications standards that are used for communication with smart meter technology inside the Smart Metering. A wide range of these standards have been included in the draft standards based on different technologies such as the radio frequency, the PLC (PowerLine Communications) or infrared. For each of these technologies, there can be found an extensive description of the security mechanisms used for each of them for the purpose of encryption of messages, protect the keys used, authentication of terminals and network identification to access the network. To complete the description of each standard there can be found a description of possible attacks that may make possible to overcome the security barriers of these technologies. Once viewed in detail the characteristics of each of the standards, next steps for the analysis are the comparisons between them to highlight the weaknesses and strengths of each one of them towards the other technologies. And finally, there can be found a compilation of a wide range of tools, both software and hardware, developed for research of security professionals, which may allow performing various attacks that can affect the protocols described.[CASTELLÀ] Este proyecto realizado en el departamento de telecomunicaciones de la Czech Technical University, forma parte de un trabajo colaborativo dentro del departamento a largo plazo para el estudio y el desarrollo de aplicaciones software relacionadas con la seguridad de las tecnologías de Medición Inteligente. En este proyecto se pretende analizar los puntos débiles, en cuanto a mecanismos de seguridad se refiere, de los estándares de telecomunicaciones que se utilizan para la comunicación de los electrómetros inteligentes dentro del la tecnología del Smart Metering. Para ver un amplio abanico de estos estándares, se han incluido en el proyecto estándares basados en tecnologías dispares y diversas como pueden ser la radiofrecuencia, las PLC (PowerLine Communications) o los infrarrojos. Para cada una de estas tecnologías, podemos encontrar en el proyecto una amplia descripción de los mecanismos de seguridad utilizados en cada uno para la encriptación de los mensajes enviados, la protección de las claves que utiliza, la autentificación de los terminales de la red o la identificación para acceder a la red. Para terminar la descripción detallada de cada estándar podemos encontrar una descripción de los posibles ataques que es factible realizar para vencer las barreras de seguridad de estas tecnologías. Una vez vistas con detalle las características de cada uno de los estándares, se incluyen comparaciones entre todos ellos para destacar los puntos débiles y los puntos fuertes hacia el resto de tecnologías. Y, por último, podemos encontrar un recopilatorio de un amplio abanico de herramientas tanto de software como de hardware, desarrolladas para la investigación de los profesionales de la seguridad en telemática, que permiten realizar varios de los ataques que pueden afectar a los protocolos descritos.[CATALÀ] Aquest projecte realitzat en el Departament de Telecomunicacions de la Czech Technical University, forma part d'un treball col·laboratiu dins el departament a llarg plaç per a l'estudi i el desenvolupament d'aplicacions software relacionades amb la seguretat de les tecnologies de Medició Intel·ligent. En aquest projecte es pretén analitzar els punts dèbils, en quant a mecanismes de seguretat es refereix, dels estàndards de telecomunicacions que s'utilitzen per a la comunicació dels electròmetres intel·ligents dins del la tecnologia del Smart Metering. Per tal de veure un ampli ventall de aquests estàndards, s'han inclòs en el projecte estàndards basats en tecnologies dispars i diverses com poden ser la ràdiofreqüència, les PLC (PowerLine Communications) o els infrarojos. Per a cadascuna d'aquestes tecnologies, podem trobar en el projecte una amplia descripció dels mecanismes de seguretat utilitzats per a cadascun per a l'encriptació dels missatges enviats, la protecció de les claus que utilitza, l'autentificació del terminals de la xarxa o la identificació per accedir a la xarxa. Per acabar la descripció detallada de cada estàndard podem trobar una descripció dels possibles atacs que es factible realitzar per a vèncer les barreres de seguretat d'aquestes tecnologies. Un cop vistes amb detall les característiques de cadascun dels estàndards, s'inclouen comparacions entre tots ells per destacar els punts dèbils i els punts forts vers la resta de tecnologies. I, per últim, podem trobar un recopilatori d'un ampli ventall de eines tant de software com de hardware, desenvolupades per a la investigació dels professionals de la seguretat en telemàtica, que permeten realitzar varis dels atacs que poden afectar als protocols descrits

    Maximising Utilisation of the DC-Link Voltage in the Field Weakening Region for AC Motor Drives

    Get PDF
    PhD ThesisMost standard electric drives have two operational regions: the constant torque region and field weakening region. In order to increase the power level at the field-weakening region, the phase voltage must be increased. The phase voltage, however, is a function of the inverter input voltage and the control scheme that is applied to the inverter. Several methods have been applied to optimise the stator voltage modulation to maximise the power level at the field-weakening region. These methods suffer from fake voltage extension, which produce high current ripples, and a step reduction of motor currents in the transient area from the constant torque region to the field-weakening region. Adding extra regulators for these methods was proposed, but this still would not show any significant improvement in electric drive performance and increase the additional complexity of the closed-loop control system. During the course of this research, several control schemes based on mathematical modelling and voltage feedback mechanism are proposed to tackle the aforementioned issues. In the proposed novel methods, flux-producing current is designed based on the position of the stator voltage vector to push the stator voltage to the hexagonal voltage boundary. This consequently causes a smooth transition from the constant torque region to the field-weakening region, and it also increases the output torque and power of the electric machine without applying extra controllers or producing a step reduction on the d-axis current. The capabilities of the proposed schemes have been evaluated and compared to conventional model-based and closed-loop voltage algorithms by using MATLAB simulation and an experimental test set-up. This research also developed and proposed two parameter estimation techniques based on EKF and combined MRAS-KF to improve the accuracy of online estimation techniques. The performance of developed estimation schemes was investigated by using MATLAB simulation and a plant emulator-based setup

    Supplement to CAMAC bulletin: 1st International Symposium on CAMAC proceedings Issue #9 April 1974

    Get PDF
    CAMAC is a means of interconnecting many peripheral devices through a digital data highway to a data processing device such as a computer

    Auswirkungen von Ausdauer- vs. Krafttraining vs. der Kombination Ausdauer-/Krafttraining auf die systemische Hämodynamik, Gefäßelastizität sowie Herzfrequenzvariabilität bei Patienten mit arterieller Hypertonie

    Get PDF
    Auswirkungen von Ausdauer- vs. Krafttraining vs. der Kombination Ausdauer-/Krafttraining auf die systemische Hämodynamik, Gefäßelastizität sowie Herzfrequenzvariabilität bei Patienten mit arterieller Hypertonie Anna B. Bickenbach1, Andrea Solera2, Hans G. Predel1, Klaus Baum3 1 Deutsche Sporthochschule Köln, Germany. 2 University of Costa Rica, Costa Rica. 3 Trainingsinstitut Prof. Baum, Germany. Hintergründe: Gemäß internationaler Leitlinien wird regelmäßige körperliche Aktivität für Patienten mit arterieller Hypertonie empfohlen. Bislang basierten die meisten bewegungstherapeutischen Interventionen fast ausschließlich auf ein reines Ausdauertraining. Ziel der Studie war der Vergleich eines reinen Ausdauertrainings (AT) vs. eines reinen Krafttrainings (KT) vs. der Kombination aus beiden Trainingsformen (AKT) auf die systemische Hämodynamik, Gefäßelastizität und Herzfrequenzvariabilität (HRV) bei Patienten mit arterieller Hypertonie Methoden: 55 therapienaive Hypertoniepatienten (42 Männer, 13 Frauen, 54,7 ± 10,4 Jahre, 175,3 ± 8,3 cm, 87,3 ± 14,7 kg) mit arterieller Hypertonie Grad I/Prähypertoinie wurden rekrutiert. Die Probanden unterzogen sich einer ärztlichen Untersuchung, unter anderem eine 24-Stunden-Blutdruckanalyse (Spacelabs Healthcare NIBP), HRV-Analyse (Task Force Monitor 3040i®), Bestimmung der Gefäßelastizität (Arteriograph TensioMed TM). Nach der Eingangsuntersuchung wurden die Probanden randomisiert in eine der vier Untersuchungsgruppen eingeteilt (AT, KT, AKT oder Kontrollgruppe (KG). Das Training umfasste drei Einheiten pro Woche über einen Umfang von 12 Wochen. Ergebnisse Die körperliche Leistungsfähigkeit anhand der VO2max wurde in allen drei Trainingsgruppen signifikant erhöht. In der AT Gruppe reduzierte sich der Blutdruck um -3,30 mmHg (2,35%), in der KT Gruppe um -4,90 mmHg (3,44%) und in der AKT Gruppe um -5,80 mmHg (4,18%). Die Parameter der HRV bzw. der Gefäßelastizität veränderten sich nicht statistisch signifikant. Diskussion Die besten Ergebnisse hinsichtlich einer Blutdrucksenkung konnten in der kombinierten Gruppe erreicht werden, was möglicherweise auf den doppelten Trainingsumfang bzw. die doppelte Dauer zurück zu führen ist. Krafttraining sollte aufgrund der positiven Effekte (z.B. Metabolismus) in den Trainingsalltag von Hypertoniepatienten integriert werden. Effects of various types of exercise (endurance vs. resistance training vs. endurance/resistance training) on hemodynamic parameters, heart rate variability, arterial stiffness in Hypertension. Anna B. Bickenbach1, Andrea Solera2, Hans G. Predel1, Klaus Baum3 1 Deutsche Sporthochschule, Institut für Kreislaufforschung und Sportmedizin, Köln, Germany. 2 University of Costa Rica 3 Trainingsinstitut Prof. Baum, Germany. Objective: Previous studies have convincingly demonstrated that regular physical activity is beneficial for patients with arterial hypertension (HTN). However, the majority of studies have focussed only on endurance exercise. The aim of the present study was to evaluate the effects of various types of physical exercise (endurance (ET) vs. resistance (RT) vs. the combination of both (ET/RT)) on hemodynamic parameters, heart rate variability, arterial stiffness in HTN. Patients and Methods: 55 patients (42 male, 13 female, 54,7 ± 10,4 years old, 175,3 ± 8,3 cm, 87,3 ± 14,7 kg) with previously untreated arterial hypertension (prehypertension/WHO Grad I) were included. The subjects underwent a complete medical examination. Parameters were evaluated by 24h-ABPM (Spacelabs Healthcare NIBP), Task Force Monitor 3040i®, Arteriograph TensioMed TM. Patients were subsequently randomized either to ET, RT, ET/RT or a control group (CG). The training program included three supervised units (30-60 min) per week over a period of 12 weeks at a specialised training center. Results Physical fitness measured by VO2max was significantly improved by all three training strategies. After ET blood pressure significantly decreased by -3,30 mmHg (2,35%), after RT -4,90 mmHg (3,44%) and after ET/RT -5,80 mmHg (4,18%). No change in arterial stiffness and heart rate variability could be observed. Conclusion The exercise-induced improvement in blood pressure is mainly observed in the ET/RT group which may be attributed to the larger extent of training and duration. Resistance training should no longer be considered as threatening for hypertensive patients because of hemodynamic parameters but be an integrated part of lifestyle and sports therapy and to

    Supplement to CAMAC bulletin: 1st International Symposium on CAMAC proceedings Issue #9 April 1974

    Get PDF
    CAMAC is a means of interconnecting many peripheral devices through a digital data highway to a data processing device such as a computer
    corecore