10 research outputs found

    Systemarchitektur zur Ein- und Ausbruchserkennung in verschlüsselten Umgebungen

    Get PDF
    Das Internet hat sich mit einer beispiellosen Geschwindigkeit in den Lebensalltag integriert. Umfangreiche Dienste ermöglichen es, Bestellungen, finanzielle Transaktionen, etc. über das Netz durchzuführen. Auch traditionelle Dienste migrieren mehr und mehr in das Internet, wie bspw. Telefonie oder Fernsehen. Die finanziellen Werte, die hierbei umgesetzt werden, haben eine hohe Anziehungskraft auf Kriminelle: Angriffe im Internet sind aus einer sicheren Entfernung heraus möglich, unterschiedliches IT-Recht der verschiedenen Länder erschwert die grenzüberschreitende Strafverfolgung zusätzlich. Entsprechend hat sich in den letzten Jahren ein milliardenschwerer Untergrundmarkt im Internet etabliert. Um Systeme und Netze vor Angriffen zu schützen, befinden sich seit über 30 Jahren Verfahren zur Einbruchsdetektion in der Erforschung. Zahlreiche Systeme sind auf dem Markt verfügbar und gehören heute zu den Sicherheitsmechanismen jedes größeren Netzes. Trotz dieser Anstrengungen nimmt die Zahl von Sicherheitsvorfällen nicht ab, sondern steigt weiterhin an. Heutige Systeme sind nicht in der Lage, mit Herausforderungen wie zielgerichteten Angriffen, verschlüsselten Datenleitungen oder Innentätern umzugehen. Der Beitrag der vorliegenden Dissertation ist die Entwicklung einer Architektur zur Ein- und Ausbruchserkennung in verschlüsselten Umgebungen. Diese beinhaltet sowohl Komponenten zur Erkennung von extern durchgeführten Angriffen, als auch zur Identifikation von Innentätern. Hierbei werden statistische Methoden auf Basis einer verhaltensbasierten Detektion genutzt, so dass keine Entschlüsselung des Datenverkehrs erforderlich ist. Im Gegensatz zu bisherigen Methoden benötigt das System hierbei keine Lernphasen. Ausgehend von einem Szenario der IT-Struktur heutiger Unternehmen werden die Anforderungen an ein System zur Ein- und Ausbruchserkennung definiert. Da eine Detektion die Kenntnis entsprechender, messbarer Ansatzpunkte benötigt, erfolgt eine detaillierte Analyse einer Angriffsdurchführung. Auf dieser Basis sowie den Ergebnissen der Untersuchung des State-of-the-Art im Bereich der Ein- und Ausbruchserkennung wird identifiziert, warum heutige Systeme nicht in der Lage sind, ausgefeilte Angriffe zur erkennen. Anhand einer Betrachtung, welche Parameter bei verschlüsselten Verbindungen für eine Evaluation noch zur Verfügung stehen, werden Möglichkeiten zur Detektion von bösartigem Verhalten entwickelt. Hierauf basierend wird eine neue Architektur mit mehreren Teilmodulen zur Ein- und Ausbruchserkennung in verschlüsselten Umgebungen vorgestellt. Eine anschließende Evaluation zeigt die Funktionsfähigkeit der vorgestellten Architektur.The evolution of the Internet took place with a matchless speed over the past decades. Today, the Internet is established in numerous areas of everyday life. Purchase orders or money transfers are only two examples. The financial values which are moved over the Internet are alluring criminals. Attacks with the aid of the Internet can be executed from a safe distance, different IT laws of the countries hamper the transboundary criminal prosecution. Therefore, an underground market worth billions has been established over the past years. For the protection of systems and networks, procedures for intrusion detection are under development for more than 30 years. Numerous systems are available and are integral security components in every bigger network today. However, even with these strong efforts, the number of security incidents is steadily increasing. Todays systems are not able to cope with challenges like targeted attacks, encrypted communication and connections or the insider threat. The contribution of this thesis is the design and development of an architecture for intrusion and extrusion detection in encrypted environments. The architecture consists of components for the detection of external attacks as well as the identification of insiders. Statistical methods and behavior-based techniques are used, therefore there is no need for a deciphering of the data traffic. In contrast to existing approaches, the proposed architecture does not need a learning phase. Based on a scenario of the IT infrastructure of a company, the requirements for a system for intrusion and extrusion detection are defined. Because measuring points must be located for being able to carry out a detection, an in-depth analysis of the execution of an attack is done. Afterwards, reasons for the failure of the detection of sophisticated attacks by current systems are identified based on an evaluation of the State-of-the-Art of in- and extrusion detection. An examination of encrypted network connections is used to deduce parameters which are still available after an encryption and which can be used for a detection of malicious behavior. The identified starting points are used for the development of a new architecture consisting of multiple modules for intrusion as well as extrusion detection in encrypted environments. A subsequent evaluation verifies the efficiency of the proposed architecture

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults

    Unterstützung von Prozessen der intersektoralen Vernetzung mit medizinischen Bildern unter Berücksichtigung der Qualitätssicherung

    Get PDF
    Im Gesundheitswesen wird der elektronische Austausch von Daten zwischen professionellen Anwendern wie Ärzten, Pflegekräften oder Medizinisch-technischen Assistenten/innen sowie zwischen Ärzten und Patienten immer wichtiger. Aber dennoch ist Kollaborationssoftware in diesem Bereich nach wie vor noch nicht großflächig im Einsatz, so dass sich folgende Fragen ergeben: Welche technischen Voraussetzungen müssen geschaffen werden, um den medizinischen Workflow zu unterstützen beziehungsweise zu verbessern? Und wie können Vernetzung, Qualitätssicherung, Daten- und damit auch Patientensicherheit miteinander vereint werden, um eine bessere Behandlung zu gewährleisten? In dieser Arbeit wurden unterschiedliche Methoden zur Unterstützung von Prozessen der intersektoralen Vernetzung vor allem mit medizinischen Bildern entwickelt und implementiert. Die vorgenommenen Realisierungen fanden dabei insbesondere mit Blick auf die Qualitätssicherung statt. Durch Weiterentwicklungen im Bereich von DICOM E-Mail wurden Verfahren zur einfachen Administration von Netzwerken und automatisierten Konstanzprüfung dem @GIT-Whitepaper ‚Empfehlung für ein standardisiertes Teleradiologie Übertragungsformat‘ hinzugefügt. Die Implementierung einer Multiknotenstatistik erlaubt die zeitunabhängige Nachverfolgung eines Transfers von radiologischen Bilddaten in heterogenen Netzwerken, auch über mehrere Empfangsknoten hinweg. Neben DICOM E-Mail kommen hier verschiedene Übertragungsprotokolle zum Einsatz. Die entwickelten Verfahren zur Verwaltung von DICOM E-Mail Netzwerken wurden durch die @GIT in ein IHE-Profil überführt, von welchem schlussendlich ein Teil in einem Change Proposal als Erweiterung eines bestehenden Profils der Domäne Radiologie angenommen wurde. Im Rahmen des INFOPAT-Projekts des Universitätsklinikums Heidelberg und im Bereich der intersektoralen Vernetzung wurden zahlreiche Erweiterungen und Performanceoptimierungen bei der Entwicklung eines IHE-Adapters für Altsysteme in einem Netzwerk vorgenommen, welche es ermöglichen, auch nicht-IHE-fähige Aktoren an eine persönliche elektronische Patientenakte anzuschließen. Weiterhin wurde ein XDS-fähiger mobiler Bildbetrachter für Patienten entwickelt, der es durch ein standardisiertes Single-Sign-On erlaubt, zwischen Patientenakte, radiologischem Viewer und mobilem Bildbetrachter nahtlos zu wechseln. Um eine einfachere Kommunikation zwischen Ärzten, medizinischen Dienstleistern und Patienten zu realisieren, wurde eine bestehende Teleradiologieakte durch die Entwicklung eines konfigurierbaren Workflowmanagements sowie verschiedene Freigabe- und Exportmodule erweitert. Abschließend wurde das Monitoring-System für teleradiolgische Netzwerke weiterentwickelt, um Probleme und Engstellen bei der Kommunikation frühzeitig und proaktiv erkennen und beheben zu können. Die im Rahmen dieser Arbeit beschriebenen Weiterentwicklungen unterschiedlicher Standards im Bereich der Qualitätssicherung und Teleradiologie sowie die Softwareentwicklungen im Bereich der Telemedizin und schlussendlich der intersektoralen Vernetzung unterstützen den Arbeitsablauf der medizinischen als auch administrativen Anwender. Mit Hilfe der etablierten Lösungen kann ein reibungsloser Ablauf und das Zusammenspiel verschiedener Komponenten in heterogenen Netzwerken auch unter dem Gesichtspunkt der Qualitätssicherung gewährleistet werden. Patienten erhalten dadurch einen einfachen Zugang zu ihren Daten. Die Ergebnisse der Arbeit zeigen, dass auch heute schon ein qualitätsgesicherter und komfortabler Austausch von Bilddaten im medizinischen Umfeld ad hoc über die Grenzen von dezentralen Einrichtungen des Gesundheitswesens hinaus möglich ist. Dadurch kann die intersektorale Behandlung beschleunigt, die Behandlungsqualität verbessert und Doppeluntersuchungen vermieden werden

    Entwerfen Entwickeln Erleben 2014 – Beiträge zur virtuellen Produktentwicklung und Konstruktionstechnik: Dresden, 26.-27. Juni 2014

    Get PDF
    Die Konferenz Entwerfen – Entwickeln – Erleben bietet ein besonderes Podium zum Austausch von Wissenschaftlern und Praxisvertretern aus den zentralen Bereichen der Produktentwicklung. Der vorliegende Band enthält Beiträge der EEE2014 unter anderem zu Industrie 4.0, Cyber-Phy­sical Systems und Virtual Reality in vielfältigen Anwendungsbereichen des Maschinenbaus, zu Innovationsmanagement, Konstruktionsmetho­dik und Product Lifecycle Management sowie zu Reverse Engineering und generativen Verfahren. Die Technischen Universität Dresden und technischesdesign.org ermög­lichten in Kooperation mit der Gruppe Virtuelle Produktentwicklung der Wissenschaftlichen Gesellschaft für Produktentwicklung (WiGeP), dem Mathematisch-Physikalischen Salon der Staatlichen Kunstsammlungen Dresden und der Hochschule für Bildende Künste Dresden die fachüber­greifende Diskussion des Schwerpunkt-Themas inmitten der Dresdner Altstadt. In diesem Band sind die Beiträge zur Konstruktionstechnik und zur Virtuellen Produktentwicklung enthalten, ein weiterer Band (http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-144950, herausgegeben von Mario Linke et al.) fasst die Bei­träge zum Technischen Design zusammen.:Beschreibungsmethode für die Repräsentation cyber-physischer Produktionssysteme Daniel Strang, Nadia Galaske und Reiner Anderl 13 Industrie 4.0 und der „Faktor“ Mensch: Psychologische Herausforderungen der vierten industriellen Revolution Bettina Schleidt 27 Modell Based Systems Engineering auf einer Plattform für PLM Martin Eigner 39 Enterprise Integration als Herausforderung und Ziel im Produktlebenszyklus Michael Spranger, David Hein und Alexander Hoffmann 57 Innovation Management: Erfolgreiche Innovationen durch Einbindung aller Mitarbeiter Ulf Köster 69 Zukunft der Wertschöpfung aus Sicht des Lebenszyklusmanagement Heinz-Simon Keil 75 bee® – eine Software zur Integration von VR im Planungs- und Montageprozess Oliver Schwarz und Olaf Zupke 93 Produktmodelle als Dreh- und Angelpunkt der Entwicklung von cyberphysischen Systemen Michael Pfenning, Christian Tschirner und Andreas Uhlig 103 Umsetzung einer eigenschaftsbasierten Simulationsplanung in einem PDM-System Johannes Kößler, Jochen Reitmeier und Kristin Paetzold 113 Risikoidentifizierung zur proaktiven Qualitätsabsicherung in der Virtuellen Produktentstehung Rainer Stark, Roland Jochem, Pascal Lünnemann und Johannes Schober 127 Integration von elektrischem Energiebedarf als Planungsgröße in der Produktionsfeinplanung Detlef Gerhard 141 Lebenszyklusorientiertes Konfigurationsmanagement – Neue Anforderungen an PLM Patrick Müller, Roland Drewinski und Helmut Auler 155 Product Lifecycle Management und Dienstleistungen: Methode und Werkzeug zur Unterstützung von Dienstleistungen innerhalb des PLM-Ansatzes Christian Zinke, Lars-Peter Meyer und Frieder Swoboda 167 Wartungsprozesse dynamisch unterstützen – ein Modell für die Zukunft? Thomas Burger 177 Advanced Virtual Reality and Visualization Support for Factory Layout Planning Sebastian Pick, Sascha Gebhardt, Kai Kreisköther, Rudolf Reinhard, Hanno Voet, Christian Büscher and Torsten Kuhlen 187 Durchgängige Lösung zur Unterstützung von Wartungsprozessen durch Augmented Reality mit Smart Devices Michael Abramovici und Matthias Neges 199 Nutzung von Virtual Reality als interaktive Testumgebung in der Produktentwicklung Eckhart Wittstock, Mario Lorenz, Franziska Pürzel und Volker Wittstock 213 Prototypen mit einer Mixed-Reality-Brille erleben – Vom Entwurf zur Simulation und Visualisierung Sebastian Voigt, Martin Großer, Marius Vopel und Günter Kunze 225 Effektive Anwendung optischer 3D-Messsysteme im Produktionsprozess von Gussteilprototypen sowie beim Reverse Engineering Andreas Knoch 239 Entwicklung eines Leitfadens zur methodischen Weiterentwicklung von Bauteilen anhand von Praxisbeispielen Andreas Meyer-Eschenbach und David Rudolz 251 Untersuchung generativ gefertigter medizinischer Prüfkörper durch das Streiflicht-Scanverfahren Fabian Klink und Kevin Kuhlmann 263 Vom Ideal- zum Realmodell: Bauteile mit Fertigungsabweichungen durch automatische FE-Netzadaption simulieren Sebastian Katona, Philipp Kestel, Michael Koch und Sandro Wartzack 275 3D-Digitalisierung und Datenaufbereitung zweier Monumentalplastiken mit unterschiedlichen Verfahren – ein Praxisbericht Christine Schöne 287 Interdisziplinäre Kooperation bei der Erstellung virtueller geschichtswissenschaftlicher 3D-Rekonstruktionen Sander Münster 299 Nutzung digitaler Werkzeuge für die Umsetzung eines künstlerischen Entwurfs Wolfgang Steger, Christine Schöne, Lisa Ewald und Ulrich Eißner 313 3D-Druck von metallischen Mikrobauteilen mittels Mikro Laser Sintern Joachim Göbner und Matthias Winderlich 325 Additive Manufacturing – Integration von Fertigung und Produktentwicklung Alexander Martha, Thivakar Manoharan und Peter Köhler 331 Bionische Radien als User Defined Feature Martin Wiesner und Sándor Vajna 345 Faser-Thermoplast-Verbund: Neue Möglichkeiten zur Entwicklung von Leichtbauprodukten Maik Gude, Michael Krahl, Christian Garthaus und Michael Stegelmann 357 Grafikorientierte Darstellung verteilter Simulationsergebnisse und Entscheidungsprozesse Hans-Peter Prüfer 369 Integration der GPS in den methodischen Konstruktionsprozess nach VDI 2221 Erhard Leidich, Marko Ebermann und Sophie Gröger 383 Methodische Konstruktion eines Nachlauf Range Extenders zur Verbesserung der Reichweite von Elektrofahrzeugen Carsten Haugwitz, Kevin Kuhlmann, Jonas Crackau und Karl-Heinrich Grote 397 Methode zur kundenorientierten Validierung im Entwicklungsprozess innovativer Fahrzeugsysteme Albert Albers, Jürgen Becker, Matthias Behrendt, Oliver Sander und Fabian Schille 407 Webgestützte Konstruktionsmethodik im Einsatz: Eine erste Evaluation Marc Oellrich und Frank Mantwill 417 Ein Ansatz zur methodischen, CAD integrierten Toleranzsynthese Tim Katzwinkel, Jan Erik Heller und Jörg Feldhusen 433 Einsatz von Ontologien zur Vernetzung von Wissensdomänen in der nachhaltigen Produktentstehung am Beispiel des Sonderforschungsbereiches 1026 Rainer Stark, Wei Min Wang, Anne Pförtner und Haygazun Hayka 451 Untersuchungen von Toleranzketten im parametrischen 3D-CADSystem Stephan Husung, Axel Oberänder, Annika Geis und Christian Weber 465 3D-Aufstellpläne für komplexe Industrieanlagen Robert Bonca 477 Approximation der Wirklichkeit – Hairy root Wachstumssimulation mit 3D-Visualisierung Felix Lenk, Patrick Oberthür und Thomas Bley 485 CAD im Kontext der Industrie 4.0 Thomas Hagenreiner, Peter Köhler und Thivakar Manoharan 497 Computergestützte Wissenserhebung und visuelle Modellierung von Konfigurationsregeln für komplexe Produkte Marius Brade, Robert Bonca und Rainer Groh 509 Gestaltung und Konstruktion historischer Leuchten Peter Schulze, Hartmut Stabler, Annette Jacob und Thomas Hinz 517 Innovative Applikationen für zellulare metallische Werkstoffe für Biosensorik und Biokatalyse Anett Werner, Ralf Hauser und Thomas Bley 527 Klassifikation und Handhabung von Unsicherheiten zur entwicklungsbegleitenden Erfassung des Produktreifegrades Thomas Luft und Sandro Wartzack 535 Produkt- und Prozessdatenmodellierung im Kontext der Blechmassivumformung Thilo Breitsprecher, Andreas Meinel, Martin Thummet und Sandro Wartzack 551 Leichtbaugussteile mittels Niederdruck-Vollformgießverfahren Malchasi Aitsuradze, Jürgen Bast und Bertram Hentschel 565 Blechdickenreduktion an einem PKW-Mittelschalldämpfer mit Hilfe innovativer Optimierungsmethoden Alexander Krauß, Christoph Schleicher und Uwe Fischer 577 Mit innovativer Technologie und optimaler Auslegung zum effizienten Gesamtprozess – Integrative Produkt- und Prozessoptimierung beim Thermoformen Marcus Stein, Sascha Bach, Ronald Claus und Jens-Peter Majschak 589 Überlegungen zur digitalen Verknüpfung von Normen und standardisierten Algorithmen zu Berechnungsbaugruppen Denis Polyakov und Willi Gründer 605 Auswahl anwendungsoptimaler Antriebssysteme als Basis für die Komposition von Antriebsbaukästen Alexander Klause und Detmar Zimmer 619 Neue Konzepte zur Erstellung komplexer Konfigurationen Michael Wegner, Georg Freitag und Markus Wacker 637 Parametrische und interkonnektive Synthesemethoden zur effizienten Entwicklung neuer Mechanismen Maik Berger, Stefan Heinrich und Andreas Heine 649 Generative Fertigung – Handlungsbedarfe und entscheidungsgestützte Prüfung auf RPT-gerechte Konstruktion Alexander Arndt und Reiner Anderl 667 Sah!-Methode zur Verbesserung der Zusammenarbeit mittels der Identifikation interdisziplinärer Netzwerke Mathias Tralau, Fernando Kabisch und Frank Mantwill 681 Speed Design – Konstruieren mit Köpfchen Frank Mantwill 697 Systematische Entwicklung von Lösungskonzepten für spezifische Problemstellungen im Montageanlagenbau Dieter Fischer, Andreas Schulz, Andreas Richter und Carsten Keller 703 Über die gestalterische Phase des Konstruktionsprozesses unter dem Gesichtspunkt der objektorientierten Informatik Peter Sigalov 715 Untersuchungen der Form- und Maßabweichungen von generativ gefertigten dünnwandigen Hohlzylindern Kevin Kuhlmann, Fabian Klink, Tobias Stefaniak, Patrick Hebner und Karl-H. Grote 725 Validierung kundenorientierter funktionaler Anforderungen unter Berücksichtigung abweichungsbehafteter Geometrien und systembedingter Variationen Matthias Ehlert, Andreas Stockinger und Sandro Wartzack 743 Die Bedeutung von Prototypen für den Lernerfolg von interdisziplinären studentischen Produktentwicklungsprojekten Katharina Albrecht, Paul Gerber, Ingmar Langer, Julian Sarnes, Susanne Sprenger und André Stocker 75

    Das CampusGIS der Universität zu Köln - webgestützte Geodatendienste für raumbezogene Anwendungen

    Get PDF
    Das CampusGIS der Universität zu Köln kann als Pilotprojekt für raumbezogene Anwendungen im universitären Umfeld verstanden werden. Es ist ein webgestütztes Geographisches Informationssystem (GIS), das die Online-Suche nach Personen, Gebäuden und Einrichtungen ermöglicht und die Abfrageergebnisse um raumbezogene Informationen erweitert. Mittels Geodatendiensten verbessert es die Orientierung auf dem Universitätsgelände. Neben Standard-GIS-Anwendungen wie der Attributabfrage und sowohl inhaltlicher als auch räumlicher Selektion bietet das CampusGIS Routenberechnungen für Fußgänger und Gehbehinderte. In Kombination mit Ortsbestimmungsmethoden kann das CampusGIS-Mobil ortsbezogene Dienste, location-based services (LBS), bereitstellen. Für das CampusGIS ist dies, insbesondere in Hinblick auf die steigende Mobilität unserer Gesellschaft und der Affinität der jüngeren Generation für mobile Endgeräte unverzichtbar. Als ortsbezogenes Dienstleistungsinstrument stellt das CampusGIS außerdem technische Gebäudepläne bereit. Die Anwendung CampusGIS-3D visualisiert die Universitätsgebäude dreidimensional. Das Modul CampusRundgänge präsentiert virtuelle Rundgänge. Sie zeigen an jeweils etwa sieben bis zehn Standorten Hintergrundinformationen zu verschiedenen Themen über die Universität zu Köln. Um die zahlreichen raumbezogenen Anwendungen anbieten zu können, wurden campusrelevante Geodaten erfasst. Sie ergänzen die amtlichen Geobasisdaten. Zusammen werden sie in einer Geodatenbank verwaltet und gepflegt. Seitens der Universitätsverwaltung werden alphanumerische Daten über Personen, Gebäude und Einrichtungen in relationalen Datenbanken vorgehalten. Das CampusGIS verknüpft diese Daten mit den Geodaten. Das System ist modular konzipiert, um die bestehenden Anwendungen jederzeit erweitern zu können. Die vorliegende Arbeit beschreibt die Konzeption und Entwicklung des CampusGIS. Diese Dokumentation ist eingebettet in den wissenschaftlichen Kontext webgestützter Geographischer Informationssysteme. Nach einer Einführung werden die Grundlagen von GIS, Internet und des daraus entstehenden WebGIS aufgezeigt. Darauf aufbauend werden die mithilfe von WebGIS angebotenen raumbezogenen Dienste betrachtet. Schwerpunkte sind dabei die Einsatzmöglichkeiten raumbezogener Anwendungen im universitären Umfeld. Es folgen Informationen zur Erfassung, Speicherung und Verwaltung von campusrelevanten Geodaten. Anschließend werden die analytischen Methoden und mathematischen Algorithmen diskutiert, die zur Beantwortung der raumbezogenen Fragestellungen herangezogen werden. Außerdem wird aufgezeigt, wie die Ergebnisse visualisiert und webgestützt präsentiert werden. Nach der detaillierten Darstellung der CampusGIS-Entwicklung wird das System mit ähnlichen WebGIS anderer Universitäten verglichen und die inhaltlichen sowie methodischen Ansätze diskutiert. Abschließend erfolgt eine Bewertung des CampusGIS auf Grundlage der Diskussion

    Gefährdungslage deutscher Arztpraxen (als Teil des Gesundheitswesens und der KMU) durch Cybercrime

    Get PDF
    Begünstigt durch den rapiden Technisierungsanstieg in der Gesellschaft stehen Erpressung und Datendiebstahl zunehmend im Fokus der gut organisierten Cyberkriminellen. Besonders deutlich wird dies in der Bedrohung durch Ransomware. Patientendaten haben sich als sehr begehrt für Kriminelle herausgestellt. In dieser Arbeit galt es herauszufinden, ob deutsche Arztpraxen in besonderem Maße durch Cybercrime bedroht sind. Eine Publikationenanalyse ergab, dass Einrichtungen des Gesundheitswesens tendenziell eher gefährdet sind als diejenigen anderer Bereiche. Gründe sind meist ein zu geringes Risikobewusstsein sowie eine Mitarbeiterüberforderung aufgrund der einhergehenden Komplexitätserhöhung. Geringe Investitionen und menschliches Fehlverhalten sind die Folge. Verstärkt wird dies durch einen wirtschaftlichen Handlungsdruck. Folgen von Cybercrime können vor allem IT- und Rechtskosten sowie Reputations- oder Approbationsverlust sein. Die Gefahr kompromittierter Praxis-WLANs wurde bisher nur unzureichend wissenschaftlich untersucht. Von daher erfolgte in dieser Arbeit eine mittels Wardriving durchgeführte Datenerhebung als Langzeitstudie in der Stadt Jena sowie eine Querschnittsstudie für die dortigen Psychotherapeuten und Ärzte mit neurologischem oder psychiatrischem Fachgebiet. In Jena konnte ein positiver Trend bezüglich der Verschlüsselung festgestellt werden (Anstieg von WPA2). Dieser wurde durch eine nicht optimale Konfiguration und eine wachsende Zahl von aktiviertem WPS ( vor allem bei WPA2) wieder relativiert. Somit sind WLANs durch Brute-Force-Angriffe bedroht. Die Zielgruppe organisierte sich in 58 Praxen (19 konnten ihrem WLAN zugeordnet werden). Diese WLANs wiesen eine sehr sichere Verschlüsselung auf (über dem Niveau des Stadtgebiets). Dem entgegen stand die hohe Zahl von aktivem WPS, auch wenn oftmals hochwertige Router zum Einsatz kamen. Zusammenfassend lässt sich feststellen, dass der beste Schutz der Praxis-WLANs die Nichtidentifizierbarkeit darstellt

    nestor-Handbuch - Eine kleine Enzyklopädie der digitalen Langzeitarchivierung

    Get PDF
    Das nestor Handbuch will nach dem Konzept des „Living Document“ das derzeitige Wissen über das vielfältige und komplexe Thema der Langzeitarchivierung und Langzeitverfügbarkeit digitaler Objekte und seine unterschiedlichen Teilaspekte sammeln und über eine „kleine Enzyklopädie“ in strukturierter Form den Interessierten in deutscher Sprache zugänglich machen. Einzelne, von verschiedenen Experten erstellte Fachbeiträge gestatten einen Überblick, manchmal auch einen vertieften Einblick in die diversen Themengebiete der Langzeitarchivierung: von technischen und rechtlichen Aspekten bis hin zur Definition von Rahmenbedingungen.1 Einführung 2 Rechtliche Aspekte 3 State of the Art 4 Rahmenbedingungen für die Langzeitarchivierung digitaler Objekte 5 Geschäftsmodelle 6 Organisation 7 Das Referenzmodell OAIS - Open Archival Information System 8 Vertrauenswürdigkeit von digitalen Langzeitarchiven 9 Formate 10 Standards und Standardisierungsbemühungen 11 Hardware 12 Digitale Erhaltungsstrategien 13 Access 14 Technischer Workflow 15 Anwendungsfelder in der Praxis 16 Lernen und weitergeben – Aus- und Weiterbildungsangebote zur Langzeitarchivierun

    Autonome Autos

    Get PDF
    Verkehr ist Kultur. Er bestimmt darüber, was sich wo und auf welchen Wegen befindet, wer aufeinandertrifft und wer nicht - er bildet die Grundlage der Netzwerke, die Menschen und Dinge miteinander eingehen. Mit der Automatisierung des Verkehrs, der Etablierung von Fahrassistenzsystemen und der Entwicklung selbstfahrender Autos stehen nicht nur die Verhältnisse menschlicher und nicht-menschlicher Verkehrsteilnehmender in Frage. Nicht nur die ethischen und juristischen Grundlagen des Straßenverkehrs, sondern auch die basalen Bedingungen des Umgangs miteinander müssen neu verhandelt werden. Die Beiträger*innen des Bandes analysieren aus medien- und kulturwissenschaftlicher Perspektive die Transformationen der Mobilität, die Verkehrswende und das vielfach aufgeladene Objekt Auto
    corecore