16 research outputs found

    Unipress 04/1995: Zeitschrift der Universität Augsburg

    Get PDF

    EASE - KI-basierte Assistenz für forensische Ermittlungen auf See

    Get PDF
    Zur Gewährleistung der maritimen Sicherheit sind in der BRD Behörden und Organisationen mit Sicherheitsaufgaben (BOS) in der maritimen Sicherheit beauftragt. Die Behörden sind in dem gemeinsamen Lagezentrum See im Maritimen Sicherheitszentrum in Cuxhaven vertreten. Gleichzeitig kooperieren sie miteinander, um im Falle von größeren oder kritischen Vorfällen diese gemeinsam, unter der Leitung des Havariekommandos, schnellstmöglich zu bewältigen. In diesem Rahmen lassen sich drei größere Aufgabenbereiche identifizieren, für die sich das Projekt EASE zum Ziel gesetzt hat, die Arbeit der Behörden zu unterstützen

    Konzeption einer elektronischen Studienplattform zur Durchführung umfangreicher internetbasierter Studien in der Psychosomatik am Beispiel SURE

    Get PDF
    Die vorgestellte Arbeit beschreibt die Konzeption einer elektronischen Studienplattform zur Durchführung umfangreicher internetbasierter Studien in der psychosomatischen Medizin. Als Anwendungsfall dient die SURE-Studie, in der die Schlüsselmethode, eine schneller zu erlernende Alternative zu etablierten Entspannungstechniken, untersucht werden soll. Zu diesem Zweck sollen mehrere tausend Teilnehmer aus Berufsgruppen mit hoher berufsbedingter, psychischer Belastung ausgewählt werden. Studienteilnehmer sollen zunächst über eine Onlineplattform die neue Entspannungstechnik per Videoanleitung erlernen. Anschließend soll über einen Beobachtungszeitraum von etwa einem Jahr der präventive Charakter der Entspannungsmethode zur Vermeidung stressbedingter Folgeerkrankungen untersucht werden. Im Wesentlichen setzt sich die Arbeit mit organisatorischen, rechtlichen, technischen und ökonomischen Problemen auseinander, die es zu lösen gilt, wenn sozialwissenschaftliche Studien auf elektronischem Weg durchgeführt werden. Analysiert wurden Hürden bei der Teilnehmerrekrutierung, der elektronischen Bereitstellung der Studienunterlagen sowie Erhebung der Daten unter Einhaltung gesetzlicher Rahmenbedingungen und nach Maßgaben der Good Clinical Practice. Es wurden häufig verwendete kostenfreie und kommerzielle Softwarewerkzeuge unter dem Aspekt des benötigten Funktionsumfangs, des Datenschutzes, von Ergonomie und nicht zuletzt ökonomischen Einschränkungen untersucht. Hierbei wurden auch in einschlägiger Literatur erwähnte Panels genauer betrachtet. Nachdem sich die großen, kommerziellen Panel-Lösungen aus Komplexitäts- und Kostengründen und die kostengünstigeren Cloud-basierten Varianten aus fehlender Skalierbarkeit, unzureichendem Funktionsumfang oder aus Datenschutzgründen für den geplanten Einsatz als untauglich erwiesen haben, erfolgte die Planung einer eigenen Onlineplattform. In der Konzeption wurden die Schwach- stellen bestehender Systeme berücksichtigt und eine Infrastruktur gemäß den Empfehlungen des Bundesamtes für Sicherheit in der Informationstechnik (BSI) und den Anforderungen an das Bundesdatenschutzgesetz (BSDG) geplant. Die vielfältigen, sich hieraus ergebenden Teilprobleme wurden im Detail beleuchtet und technische Lösungsstrategien entwickelt. Für die praktische Umsetzung eines Prototypen der Onlineplattform wurde als Grundlage hierzu das quelloffene Lernmanagementsystem Moodle herangezogen und um die benötigten Funktionen erweitert. Durch die entwickelten Erweiterungen ist die Plattform in der Lage, Teilnehmer über individualisierte Startseiten (Landing-Pages) automatisch in Studiengruppen zu erfassen, zu pseudonymisieren, Studienunterlagen und Medien für konventionelle und mobile Endgeräte bereitzuhalten und Onlinebefragungen durchzuführen. Studien und Fragebögen können über eine Weboberfläche aus Vorlagen oder neu erstellt und verwaltet werden. Ein Exportieren der gewonnenen Daten erlaubt die Auswertung mit gewohnter Software. Als technischer Unterbau der Studienplattform wurde im Sinne einer Best Practice eine hochverfügbare technische Infrastruktur (HA-Cluster) aufgebaut, die in Punkto Sicherheit dem neusten Stand der Technik entspricht. Das Gesamtkonzept sieht vor, dass auch in Zukunft teilnehmerstarke Studien mit etlichen tausend Teilnehmern und ressourcenintensiven Anwendungen (z.B. dem Abspielen von Videoclips) möglich sind. Um die Tauglichkeit der Studienplattform für den geplanten Einsatz (SURE) zu überprüfen wurden Bedrohungsanalysen gemäß IT-Grundschutz, sowie Tests zur Messung der Leistungsfähigkeit des Systems (Benchmarks) durchgeführt. Die Testergebnisse zeigten, dass die erstellte Plattform auch mit einer Vielzahl gleichzeitiger Nutzer zurechtkommt und den meisten kommerziellen Angeboten insbesondere in Punkto Sicherheit überlegen ist. Letztlich bleibt das entworfene System die Praxiserfahrungen noch schuldig. Vor dem Einsatz in einer großangelegten Studie wie SURE, sollte die Plattform zunächst im Rahmen einer Teststudie in kleinerem Umfang erprobt und ihre Alltagstauglichkeit evaluiert, Wünsche von Anwendern aufgenommen, sowie umgesetzt und mögliche Fehler eradiziert werden. Nach erfolgreichem Test steht einer Umsetzung des Prototypen in ein Produktivsystem, gegebenenfalls mit Unterstützung von Fördermitteln, nichts mehr im Wege

    Latenzzeitverbergung in datenparallelen Sprachen = [Latency Hiding in Dataparallel Languages]

    Get PDF
    Das ungünstige Verhältnis von Kommunikations- zu Rechenleistung fast aller Parallelrechner, das sich in Kommunikationslatenzzeiten von mehreren hundert bis tausend Prozessortaktzyklen manifestiert, verhindert in vielen Fällen die effziente Ausführung von kommunikationsintensiven feingranularen datenparallelen Programmen. Zur Lösung dieses Problems untersucht diese Arbeit Techniken zur Latenzzeitverbergung, die durch Vorladeoperationen die Kommunikationszeit des Netzwerkes verdecken. Der vorgeschlagene Ansatz VSCAP (Software Controlled Access Pipelining with Vector commands) erweitert bestehende Techniken um Vektorbefehle und kann die anfallenden Latenzzeiten für eine große Anzahl von Anwendungen fast vollständig verbergen. Meine Beiträge sind: - Modellierung von VSCAP, einer Erweiterung von SCAP mit Vektorbefehlen. - Entwurf von Konzepten, mit denen Kommunikationsaufträge in datenparallelen Programmen in Datenfließbänder des VSCAP-Verfahrens überführt werden können. - Implementierung dieser Konzepte und Integration in den Prototypübersetzer Kar-HPFn. Die Leistungen von VSCAP bei der Latenzzeitverbergung wurden durch Modellierung und Laufzeittests von 25 Programmen, darunter 3 kompletten Anwendungen, untersucht. Die Ergebnisse sind: - Nachweis der praktischen Einsetzbarkeit von VSCAP (und damit als Spezialfall auch SCAP) auf einem realen Rechner. - Berechnung des Grades der Latenzzeitverbergung von VSCAP und Bestätigung der Modellierung durch automatisch generierte Programme. - Bestätigung der Beschleunigung von VSCAP gegenüber SCAP um einen Faktor gleich der Vektorlänge L durch Modellierung und Messungen. - Erster Übersetzer auf Parallelrechnerarchitekturen mit gemeinsamem Adreßraum, der zur Kommunikation nur Vorladeoperationen einsetzt. - Nachweis der automatischen, für den Programmierer transparenten und effizienten Übersetzung von datenparallelen Applikationen in Programme, die zur Kommunikation das VSCAP-Verfahren anwenden, am Beispiel von HPF. - Vergleichbare Leistung von KarHPFn-generiertem VSCAP und der hochoptimierten Kommunikationsbibliothek auf der Cray T3E, bei dynamischen Kommunikationsmustern sogar ein mehr als 6-facher Laufzeitgewinn von VSCAP. - 3- bis mehr als 5-facher Laufzeitgewinn von KarHPFn-generiertem VSCAP gegenüber Portland Group HPF beim Test von drei Applikationen (Veltran, FIRE und PDE1) auf bis zu 128 Prozessoren mit identischen HPF-Quellen, bei Programmen mit großem Kommunikationsaufwand sogar mehr als ein Faktor 15

    Mobilfunkbasiertes Steuerungskonzept für das Flottenmanagement in Tagebauen und Minen

    Get PDF
    Die zentrale Zielstellung dieser Arbeit ist der Entwurf eines Steuerungskonzeptes für das Flottenmanagement der mobilen Technik in Tagebauen und Minen. Dies umfasst sowohl die Analyse bestehender Systeme als auch die Formulierung von allgemeinen Systemanforderungen. Basierend auf diesen Erkenntnissen wird in der Arbeit ein Ideenkatalog skizziert, der auf den folgenden abstrakten Ansatzpunkten beruht - Mobilität, Verteilung und Kooperation der mobilen Objekte. Als integraler Bestandteil des Systems wird darauf aufbauend ein angepasstes Kommunikationskonzept entworfen. Unter Beachtung der geforderten weltweiten Einsatzfähigkeit und als Basis für eine kostengünstige Entwicklung werden neuartige Ansätze der Kombination von Lösungen aus den Bereichen Lokalisierung, Kooperation, Synchronisation, Datenerfassung und Steuerung mobiler Einheiten dargelegt

    Integration von algorithmenbasierter Fehlertoleranz in grundlegende Operationen der linearen Algebra auf GPGPUs

    Get PDF
    Der Einsatz algorithmenbasierter Fehlertoleranz bietet eine Möglichkeit, auftretende Fehler bei Operationen der linearen Algebra zu erkennen, zu lokalisieren und zu korrigieren. Diese Operationen der linearen Algebra können durch den Einsatz hochoptimierter Bibliotheken mit einem großen Geschwindigkeitszuwachs gegenüber Mehrkernprozessoren auf GPGPUs ausgeführt werden. Die Integration der algorithmenbasierten Fehlertoleranz unter Verwendung dieser Bibliotheken für einige ausgewählte Operationen der linearen Algebra ist Kern dieser Arbeit. Bei der Überprüfung der Ergebnisse bezüglich aufgetretener Fehler müssen dabei Werte verglichen werden, die durch einen Rundungsfehler behaftet sind und somit nicht mit einem Test auf Gleichheit abgeprüft werden können. Deshalb werden Fehlerschwellwerte benötigt, bei deren Überschreitung ein Fehler erkannt und anschließend korrigiert werden kann. In dieser Arbeit wurden deterministische Methoden zur Fehlerschwellwertbestimmung untersucht und eine auf einer probabilistische Methode zur Abschätzung des Rundungsfehlers basierende Methode zur Fehlerschwellwertbestimmung angepasst und weiterentwickelt. Diese Methoden zur Fehlerschwellwertbestimmung wurden anhand experimenteller Untersuchungen bezüglich der Qualität im Sinne der Differenz zum gemessenen Rundungsfehler, der Fehlererkennungsraten bei Fehlerinjektion und der Performanz der Methoden bei Implementierung auf GPGPUs miteinander verglichen. Die probabilistische Methode zeichnet sich dabei durch einen näher am auftretenden Rundungsfehler liegenden Fehlerschwellwert aus, ist dadurch in der Lage einen größeren Anteil auftretender Fehler zu erkennen und zeigt eine hohe Performanz bei der Verwendung auf GPGPUs

    A pyrolysis model for the prediction of the fire propagation

    Get PDF
    Ein wesentliches Schutzziel der Landesbauordnungen ist die Verhinderung der Brandausbreitung in einem Gebäude. Weiterhin muss bei einem Brand die Rettung von Menschen und Tieren gewährleistet und wirksame Löscharbeiten möglich sein. Zur Sicherstellung dieser Schutzziele fordern die Landesbauordnungen unter anderem die Bildung von Rauchabschnitten, die Verwendung nichtbrennbarer Baustoffe in notwendigen Fluren sowie die Freihaltung notwendiger Flure von Brandlasten. In manchen Fällen können nicht alle Anforderungen erfüllt werden, sodass die Einhaltung der Schutzziele mit Hilfe von Ingenieurmethoden nachgewiesen werden muss. Das Ziel dieser Arbeit ist die Entwicklung eines Pyrolysemodells zur Prognose der Brandausbreitung auf Grundlage der physikalischen Prozesse anstelle der Verwendung von Brandausbreitungsgeschwindigkeiten oder vordefinierten Bemessungsansätzen. Dazu wird zunächst der aktuelle Stand der Forschung hinsichtlich der Beschreibung von Pyrolyse- und Verbrennungsprozessen untersucht. Der Fokus liegt auf der Modellierung der Pyrolyseprozesse von Feststoffen. In einem nächsten Schritt wird ein gekoppeltes Pyrolyse- und Wärmeleitungsmodell entwickelt und in ein existierendes Feldmodell integriert. Die feste Phase kann über einzelne Stoffe beschrieben werden, die wiederum aus einzelnen Materialkomponenten bestehen und in parallel und / oder konsekutiv stattfindenden Zersetzungsreaktionen zu weiteren Materialkomponenten oder Pyrolysegasen reagieren. Außerdem wird das Schwinden und Quellen der festen Phase über den Verlauf der Zersetzungsreaktion der einzelnen Materialkomponenten mit der Wärmeleitung gekoppelt berechnet, sodass der Abbrand verkohlender Baustoffe realitätsnah berechnet werden kann. Anhand von Testfällen wurde das Modell verifiziert. Mit Hilfe von Kleinversuchen wie der thermogravimetrischen Analyse (TGA) und Cone-Kalorimeteruntersuchungen sowie Großversuchen wurde anschließend eine Validierungsgrundlage für den Fall von Kabelbrandlasten geschaffen, für die eine adäquate Abbildung der Brandausbreitungsprozesse in besonderem Maße relevant ist. Zusätzlich wurden die Ergebnisse eines internationalen Forschungsvorhabens berücksichtigt, um einen weiteren Kabeltyp in die Validierung einzubeziehen. Die Simulation der Klein- und Großversuche zeigt abschließend, dass das entwickelte Modell in der Lage ist, die Brandausbreitung und die resultierende Wärmefreisetzungsrate für komplette Trassenaufbauten zu prognostizieren.One of the main protection goals of the federal german building codes is the prevention of fire spread from one compartment to another. Furthermore, the occupants of a building should be able to leave the building during a fire incident. To ensure this, the federal building codes do not allow combustible materials in emergency routes and exits. In some cases, the requirements of the codes are not fulfilled in detail, or existing buildings were based on older regulations which do not comply with the actual ones. In those cases, it might be useful to assess the situation using engineering methods. Modern software packages solving the fluid- and thermodynamic conservation equations allow for a detailed analysis of smoke and heat propagation as well as the ventilation boundary conditions. Currently, the actual fire as the source of the heat and mass production is defined using prescribed values describing the heat release rate as a function of the time. The pyrolysis of the combustible materials itself, as the main physical phenomena behind the fire spread, is usually not considered. The main goal of this work is the development and improvement of the pyrolysis modeling towards a better prediction of the fire spread instead of using prescribed functions. To achieve this, the current scientific knowledge of the pyrolysis phenomena in combination with the combustion of the resulting fuel gases is investigated. The focus lies on the current approaches of modeling the pyrolysis of the solid phase using numerical methods. In a next step, a coupled pyrolysis and three dimensional heat transfer model is developed and integrated into an existing CFD model. To improve the performance and acceptance of the model, the implementation is optimized to reduce computational costs on standard work stations. The implementation is finished by verification and validation of the model using specific test cases. The applicability and validation for a user case is done by a calculation of the fire spread on horizontal cable trays. Therefore, small-scale tests like thermogravimetric analysis (TGA) and cone calorimeter tests as well as large-scale tray tests are conducted. Furthermore, international test results are considered for validation and applicability too. As a result, it can be shown that the developed model is capable of predicting the most relevant fire spread parameters like the heat release rate and the spread rate in small-scale and large-scale situations

    Adaptives Caching in verteilten Informationssysteme

    Get PDF
    In dieser Arbeit stellen wir eine neuartige Methode für verteiltes Caching vor, die das Ausnutzen des aggregierten Hauptspeichers eines lokalen Rechnernetzwerkes für datenintensive Anwendungen erlaubt. Ein detailliertes Kostenmodell dient als Basis für die Bestimmung einer guten Cache-Allokation. Da im allgemeinen die Eingabegrößen für dieses Kostenmodell im Online- Fall nicht a priori bekannt sind und darüber hinaus dynamisch schwanken können, werden speziell angepaßte Protokolle zur Bestimmung und Verteilung dieser Informationen benutzt. Durch eine approximative Online-Auswertung des Kostenmodells paßt sich unsere Caching-Strategie adaptiv an die aktuelle Last an und kann dadurch Engpäße auf den Systemressourcen verhindern. Zur Vermeidung von Lastungleichgewichten wird aus dem Kostenmodell zusätzlich eine Lastverteilungsheuristik abgeleitet, die im Hintergrund zielgerichtete Migrationen von Objekten zur Balancierung des Systems durchführen kann. Sowohl die Anpassung an die aktuelle Last als auch die Vermeidung von Ungleichgewichten führt zu einer — verglichen mit bisherigen Methoden — deutlich besseren Leistungsfähigkeit unserer Heuristik. Eine Erweiterung des entwickelten Caching- Verfahrens berechnet eine Partitionierung des aggregierten Hauptspeichers, so daß Antwortzeitziele für unterschiedliche Klassen von Operationen sichergestellt werden.This dissertation presents a new method for distributed caching to exploit the aggregate memory of networks of workstations in data-intensive applications. The approach is based on a detailed cost model to compute a good cache allocation. As the input parameters for the cost model are in general a-priori unkown and possibly evolve, we use specifically designed protocols to estimate and disseminate this information. Using an approximative online evaluation of the cost model,our caching heuristics adapts automatically to evolving workloads and thus avoids bottlenecks on system resources. To prevent load imbalances we further derive a load distribution method from the cost model. This load distribution method asynchronously migrates objects from highly loaded nodes onto lightly loaded nodes. The adaptation to the current workload and the prevention of imbalances result in significant performance improvements compared to prior methods. We further present a goal-oriented extension of the developed caching method, which determines a partitioning of the aggregate cache to satisfy given response-time goals for different classes of operations
    corecore