25 research outputs found

    Fakultät Informatik (2011) / Technische Universität Dresden

    Get PDF
    Informationsbroschüre der Fakultät Informatik mit Daten und Fakten sowie einer Vorstellung ausgewählter Forschungsprojekte und Preisträger, Jahr 2011Information about the Faculty of computer science with data and facts, a presentation of selected research projects and award winners, 201

    Dual reality framework : enabling technologies for monitoring and controlling cyber-physical environments

    Get PDF
    Diese Promotionsarbeit untersucht die Thematik des Monitoring und der Steuerung von Cyber-Physischen Umgebungen (CPE). In diesem Zusammenhang wird das Konzept und die Umsetzung eines Dual Reality (DR) Frameworks präsentiert, welches sich aus zwei Komponenten zusammensetzt: dem Dual Reality Management Dashboard (DURMAD) zur interaktiven dreidimensionalen Visualisierung von CPE und dem Event Broadcasting Service (EBS), einer modularen Kommunikationsinfrastruktur. Hierbei stellt DURMAD basierend auf dem DR-Konzept den aktuellen Status der Umgebung in einem 3D-Modell visuell dar. Gleichzeitig umfasst es weitere Auswertungs- und Darstellungsformen, welche verschiedene Formen der Entscheidungsunterstützung für Manager der Umgebung bieten. Speziell entwickelte Filtermechanismen für den EBS ermöglichen eine Vorverarbeitung der Informationen vor dem Versenden bzw. nach dem Empfangen von Events. Durch offene Strukturen können externe Applikationen an das DR-Framework angeschlossen werden. Dies wird anhand von Objektgedächtnissen, semantischen Beschreibungen und Prozessmodellen präsentiert. Basierend auf einer Formalisierung von Dual Reality wird der Begriff Erweiterte Dual Reality (DR++) definiert, welcher auch die Auswirkungen von Simulationen in DR-Applikationen umfasst. Durch eine Integration des DR-Frameworks in das Innovative Retail Laboratory werden die Potenziale der erarbeiteten Konzepte anhand einer beispielhaften Implementierung in der Einzelhandelsdomäne aufgezeigt.Within the scope of this dissertation, the issues of monitoring and control of Cyber-Physical Environments (CPE) have been investigated. In this context, the concept and implementation of a Dual Reality (DR) framework is presented, consisting of two components: the Dual Reality Management Dashboard (DURMAD) for interactive three-dimensional visualization of instrumented environments and the Event Broadcasting Service (EBS), a modular communication infrastructure. DURMAD is based on the DR-concept and thus visually represents the current status of the environment in a 3D model. Simultaneously, it includes more analysis and presentation tools providing various forms of decision-making support for managers of these environments. Specially developed filter mechanisms for the EBS allow preprocessing of the information before sending or after receiving events. By means of open structures external applications can be connected to the DR framework. This is pointed out by digital object memories, semantic descriptions and process models. Based on a formalization of Dual Reality, the term Advanced Dual Reality (DR ++) is defined, which includes the impact of simulations in DR applications. By integrating the DR framework in the Innovative Retail Laboratory, the potential of the developed concepts on the basis of an exemplary implementation in the retail domain are shown

    Entwerfen Entwickeln Erleben in Produktentwicklung und Design 2019 - 1

    Get PDF
    Die Konferenz Entwerfen Entwickeln Erleben hat bereits zum vierten Mal ein einzigartiges Konferenz- und Ausstellungsformat zum Austausch zwischen Wissenschaft und Praxis in Produktentwicklung und Design angeboten. Am 27. und 28. Juni 2019 ermöglichten die Professuren Konstruktionstechnik/CAD und Technisches Design der Technischen Universität Dresden in Kooperation mit weiteren Partnern den 200 Teilnehmenden die fachübergreifende Diskussion zu den Themen • Interdisziplinärer Entwurf adaptiver Produktsysteme, • Entwickeln vernetzter Anwendungen für Industrie 4.0, • Konstruktion mit hybriden Werkstoffen und für additive Fertigungsprozesse, • Entwicklungsunterstützung durch Produktdatenmanagement und VR/AR, • Design nutzerzentriertem Erleben komplexer Produkt-Service-Systeme.:Quo vadis Digitalisierung: Die digitale Engineering-Kette und Ihre nachhaltige Wirkung auf die Wertschöpfung Heinz Simon Keil 9 Augmented Reality in der Produktvalidierung: Potenziale und Grenzen in frühen Entwicklungsphasen Jonas Reinemann, Joshua Fahl, Tobias Hirschter und Albert Albers 33 Konzept zur Verbesserung des realitätsgetreuen, visuellen Erlebens in virtuellen Umgebungen durch Eye-Tracking Benjamin Gerschütz, Marius Fechter, Benjamin Schleich und Sandro Wartzack 51 Mixed Reality Assistenzsystem zur visuellen Qualitätsprüfung mit Hilfe digitaler Produktfertigungsinformationen Stefan Adwernat und Matthias Neges 67 Ein Beitrag zur Verwendung von Technologien der Virtuellen Realität für Design-Reviews Margitta Pries, Ute Wagner, Johann Habakuk Israel und Thomas Jung 75 Eingriff in die Privatsphäre der Endanwender durch Augmented Reality-Anwendungen Matthias Neges und Jan Luca Siewert 87 Virtual Prototyping als agile Feedback-Methode für frühe Produktentwicklungsphasen Manuel Dudczig 97 aHa – Der adaptive Handgriff der Zukunft Paula Laßmann, Jonathan Kießling, Stephan Mayer, Benedikt Janny und Thomas Maier 107 Design-Education: Die Siemens HMI-Design Masterclass Oliver Gerstheimer, Romy Kniewel, Sebastian Frei und Felix Kranert 125 Nutzungsaspekte von Head-Mounted-Displays in industriellen Umgebungen Maximilian Peter Dammann, Martin Gebert und Ralph Stelzer 141 Selbstlernende Assistenzsysteme für Maschinenbediener Andre Schult, Lukas Oehm, Sebastian Carsch, Markus Windisch und Jens-Peter Majschak 159 Untersuchung der Mensch-Maschine-Interaktion bei der Werkstückspannung beim Vertikal-Drehen Volker Wittstock, Patrick Puschmann, Adrian Albero Rojas, Matthias Putz und Heinrich Mödden 173 Entwicklungsassistenz zum Entwurf Innermaschineller Verfahren für Verarbeitungsmaschinen Paul Weber, Lukas Oehm, Sebastian Carsch, Andre Schult und Jens-Peter Majschak 185 Gestaltung nutzerzentrierter Assistenzen im Produktdatenmanagement Stephan Scheele und Frank Mantwill 201 Model-Based Engineering für die Automatisierung von Validierungsaktivitäten am Beispiel Fahrerassistenzsysteme Constantin Mandel, Sebastian Lutz, Olivia Rau, Matthias Behrendt und Albert Albers 221 Das Potenzial 3D-gedruckter Gradientenwerkstoffe für pharmazeutische Applikationen Tobias Flath, Alexandra Springwald, Michaela Schulz-Siegmund, Michael C. Hacker und Peter Schulze 239 Feature-Baukasten für FDM-Druckverfahren Franz Wieck, Tim Katzwinkel und Manuel Löwer 247 Gestalten mit hybriden Materialien – Additive Fertigung für neuartige, kundenindividuelle Stichschutzbekleidung Dustin Ahrendt, Sybille Krzywinski, Enric Justo i Massot und Jens Krzywinski 265 Individuelle Produktgestaltung mittels funktionsintegrierten AM-Knoten und Profilen am Beispiel eines Batteriekastens Richard Kordaß und Christian Arved Stürmer 281 Einführung in die Produktentwicklung im Rahmen eines Schülerlabors am Beispiel des PROJECT 10|2018 Nico Herzberg, Laura Marschner und Florian Schröder 299 Einflussfaktoren in der standortverteilten Produktgenerations-entwicklung – Eine literaturbasierte Momentaufnahme Katharina Duehr, David Kopp, Benjamin Walter, Markus Spadinger und Albert Albers 309 Szenarien verbinden Gerhard Glatzel und Mathias Wiehle 327 Iterationsarten und deren Auslöser in der Frühen Phase der PGE – Produktgenerationsentwicklung Miriam Wilmsen, Markus Spadinger, Albert Albers, Cong Minh Nguyen und Jonas Heimicke 339 Building Information Modeling (BIM) für Bahn-Bauwerke – von Datenakquisition bis Virtueller Realität Markus Färber, Thomas Preidel, Markus Schlauch, Bernhard Saske, Adrian Bernhardt, Michael Reeßing, Steffen Cersowsky und Ronny Krüger 355 Effiziente Produktion und Wartung durch die Industrie 4.0 – Anwendung Hashem Badra und Jivka Ovtcharova 371 Herausforderungen klassischer Maschinenelemente im nicht-elektrischen Explosionsschutz Sabrina Herbst, Thomas Guthmann und Frank Engelmann 383 Ein hybrider Ansatz für Festigkeitsnachweise von multiskaligen Strukturen Hans-Peter Prüfer 399 Interdisziplinäre Design Methodik Martin Eigner, Thomas Dickopf und Hristo Apostolov 41

    Kollaborative Visualisierung großer, interaktiver und dynamischer 3D Szenen auf verteilten Endgeräten

    Get PDF
    Mit dem Aufkommen des Mobile Computing hat sich in den letzten Jahren ein neues Medium etabliert, welches sehr flexible Formen der Kommunikation ermöglicht. Da der Standard PC sich im mobilen Kontext oftmals als zu unhandlich erwies, wurde eine neue Generation von Geräten wie etwa Laptops, Pocket PCs und mobilen Telefonen entwickelt. Gleichzeitig stieg die Bandbreite der mobilen Netzwerke deutlich an. Heutzutage sehen wird das Versenden verschiedener Medien wie Bilder, Filme, Tonsequenzen oder Texten von und zu beliebigen Standorte in der Welt als selbstverständlich an. Obwohl wir eine 3D Wahrnehmung haben und mit einer 3D Welt interagieren, existieren auch heute noch keine befriedigenden Techniken, um 3D Grafikinformationen an mobile Endgeräte zu übertragen. Das Problem komplexer 3D Szenen liegt in ihrem enormen Daten- und Berechnungsaufwand. Noch schwieriger wird es, wenn wir durch dynamische 3D Szenen in Echtzeit navigieren möchten. Diese Arbeit stellt einen neuen Ansatz vor, um große, interaktive und dynamische 3D Szene zu repräsentieren und an entfernte Endgeräte zu versenden. Der Schlüssel liegt dabei in der Verarbeitung nur derjenigen Objekte, welche auch im Interesse eines Benutzers liegen, sowie in der genauen Anpassung der Komplexität der selektierten Objekte an die Leistungsmerkmale des Endgerätes des Benutzers

    Kollaborative Visualisierung großer, interaktiver und dynamischer 3D Szenen auf verteilten Endgeräten

    No full text
    Mit dem Aufkommen des Mobile Computing hat sich in den letzten Jahren ein neues Medium etabliert, welches sehr flexible Formen der Kommunikation ermöglicht. Da der Standard PC sich im mobilen Kontext oftmals als zu unhandlich erwies, wurde eine neue Generation von Geräten wie etwa Laptops, Pocket PCs und mobilen Telefonen entwickelt. Gleichzeitig stieg die Bandbreite der mobilen Netzwerke deutlich an. Heutzutage sehen wird das Versenden verschiedener Medien wie Bilder, Filme, Tonsequenzen oder Texten von und zu beliebigen Standorte in der Welt als selbstverständlich an. Obwohl wir eine 3D Wahrnehmung haben und mit einer 3D Welt interagieren, existieren auch heute noch keine befriedigenden Techniken, um 3D Grafikinformationen an mobile Endgeräte zu übertragen. Das Problem komplexer 3D Szenen liegt in ihrem enormen Daten- und Berechnungsaufwand. Noch schwieriger wird es, wenn wir durch dynamische 3D Szenen in Echtzeit navigieren möchten. Diese Arbeit stellt einen neuen Ansatz vor, um große, interaktive und dynamische 3D Szene zu repräsentieren und an entfernte Endgeräte zu versenden. Der Schlüssel liegt dabei in der Verarbeitung nur derjenigen Objekte, welche auch im Interesse eines Benutzers liegen, sowie in der genauen Anpassung der Komplexität der selektierten Objekte an die Leistungsmerkmale des Endgerätes des Benutzers

    Interaction Design Patterns und CSCL-Scripts fĂĽr Videolernumgebungen

    Get PDF
    In den letzten Jahren haben Lernvideos im Bereich des informellen und formellen Lernens an Bedeutung gewonnen. Inwieweit Lernende bei der Nutzung von Videos unterstützt werden und Lehrende didaktische Szenarien umsetzen können, hängt jedoch von der eingesetzten Videolernumgebung ab. Es ist Anliegen der vorliegende Arbeit, Prinzipien des User Interface Designs sowie Komponenten und Mechanismen videobasierter Lehr-Lern-Szenarien in Bezug auf Videolernumgebungen zu identifizieren, zu beschreiben und technisch zu realisieren. Das Ziel besteht darin, Gestaltungsprinzipien in Form von Interaction Design Patterns zu erarbeiten und computergestützte videobasierte Lehr-Lern-Szenarien mit Hilfe von CSCL-Scripts durch eine geeignete Spezifikation und Formalisierung zu realisieren. Für die Erarbeitung der Interaction Design Patterns wurden 121 Videolernumgebungen hinsichtlich 50 Kategorien in einer Inhaltsanalyse empirisch untersucht und dokumentiert. Unter Berücksichtigung ähnlicher Patterns aus thematisch verwandten Pattern Languages und den Erfahrungen aus der Implementierung und dem Einsatz von Videolernumgebungen entstanden 45 Interaction Design Patterns für verbreitete Lösungen für wiederkehrende Probleme bei der Gestaltung und Entwicklung von Videolernumgebungen. Diese Patterns wurden auf Pattern Konferenzen diskutiert und im Anschluss evaluiert sowie bei der Konzeption, Entwicklung und Bewertung mehrerer Videolernumgebungen angewendet. Zudem wurde das Software Framework VI-TWO vorgestellt, mit dem sich fast alle Patterns auf einfache Weise in Web-Anwendungen realisieren lassen. Zur Spezifikation videobasierter CSCL-Scripts wurden existierende videobasierte und nicht videobasierte Scripts analysiert. Im Ergebnis unterschieden sich videobasierte CSCL-Scripts von allgemeinen CSCL-Scripts vor allem hinsichtlich der mit dem Video verknüpften oder darin verankerten Aufgaben und Aktivitäten. Videos werden dabei nicht als monolithische Einheiten, sondern als zeitkontinuierliche Medien betrachtet, in denen weitere Informationen zeitgenau verankert und Lernaktivitäten stattfinden können. Außerdem ließen sich drei Typen videobasierter CSCL-Scripts identifizieren: (1) Scripts zur Analyse und Diskussion von Videoinhalten, (2) Peer Annotation Scripts einschließlich dem Peer Assessment und (3) Jigsaw-Scripts, die das problembasierte Lernen mit Hilfe von Videos ermöglichen. Unabhängig davon variiert die Komplexität der Scripts auf drei Stufen: (1) sofern voneinander abgegrenzte zeitliche Phasen von Lernaktivitäten bestehen, (2) wenn darüber hinaus die Teilnehmer innerhalb von Gruppen Aufgaben bearbeiten (intra-group) und (3) falls außerdem Aufgaben auch gruppenübergreifend bearbeitet werden (inter-group). Auf Grundlage der Spezifikation konnte ein Datenmodell und ein Modell für die nutzerseitige Modellierung von Scripts verschiedener Komplexitätsstufen sowie Typen entwickelt und in dem CSCL-System VI-LAB realisiert werden. Diese Arbeit leistet in zweifacher Hinsicht einen Beitrag zur Forschung im Bereich E-Learning. Zum einen beschreiben die Interaction Design Patterns wiederkehrende User Interface Lösungen und stellen somit ein Hilfsmittel für Designer, Software Entwickler und Lehrende bei der Gestaltung und Implementierung von Videolernumgebungen dar. Zum anderen wurden durch die Spezifikation und softwareseitige Umsetzung videobasierter CSCL-Scripts Voraussetzungen geschaffen, die den praktischen Einsatz und die weitere Untersuchung des kollaborativen Lernens mit Videos ermöglichen.:1 Einführung 19 1.1 Motivation 19 1.2 Herausforderungen und Forschungsfragen 20 1.2.1 Interaction Design Patterns 20 1.2.2 Videobasierte CSCL-Scripts 22 1.3 Kapitelübersicht und Forschungsmethoden 25 1.3.1 Kapitelübersicht 25 1.3.2 Forschungsmethoden je Kapitel 27 2 Lernen mit Videos 29 2.1 Terminologie, Einsatzfelder und Potentiale von Lernvideos 30 2.1.1 Begriffsbestimmung 30 2.1.2 Einsatzfelder und Szenarien für das Lernen mit Videos 32 2.1.3 Potentiale des Medium Video 34 2.2 Videos im Kontext kognitiver Lerntheorien 36 2.2.1 Theorie der kognitiven Last 36 2.2.2 Kognitive Theorie des Lernens mit Multimedia 38 2.3 Interaktivität audiovisueller Lernmedien 44 2.4 Lernformen 48 2.4.1 Rezeptives Lernen 49 2.4.2 Selbstgesteuertes Lernen 50 2.4.3 Kollaboratives Lernen 52 2.5 Zusammenfassung 56 3 Videolernumgebungen und Hypervideos 59 3.1 Terminologie und Modelle 60 3.1.1 Videolernumgebung 60 3.1.2 Terminologie: Video, Hypervideo und interaktives Video 62 3.1.3 Spezifikationen für Hypervideo-Dokumente 65 3.1.4 Modelle des zeitlichen Layouts 66 3.2 Human Video Interface 69 3.2.1 Gestaltungsraum von Hypervideos 70 3.2.2 Usability-Herausforderungen von Human Video Interfaces 74 3.3 Technische Herausforderungen 76 3.3.1 Download und Cache-Management / Echte Nicht-Linearität 77 3.3.2 Synchronisierung von Video und Annotationen 78 3.3.3 Adressierung und Abruf von Medienfragmenten 78 3.3.4 Deklarative Ansätze der Repräsentation von Multimedia 80 3.4 Produktion und Integration in Lernumgebungen 81 3.4.1 Produktion: Vorgehensweisen und Paradigmen 82 3.4.2 Integration in Lernumgebungen und Zusammenspiel mit Diensten im WWW 85 3.5 Zusammenfassung 87 4 Interaction Design Patterns für Videolernumgebungen 91 4.1 Einführung in Design Patterns 92 4.1.1 Design Patterns 95 4.1.2 Mustersprache 101 4.1.3 Verwandte Ansätze im Interaction Design 104 4.1.4 Verwandte Pattern Languages 106 4.2 Systematische Elaboration von Design Patterns 109 4.2.1 Stand der Forschung bzgldem Pattern Mining 110 4.2.2 Inhaltsanalyse von Videolernumgebungen 112 4.2.3 Analyse und Integration ähnlicher Muster bzwMustersprachen 128 4.2.4 Verfassen sowie Revision und Evaluation der Muster 130 4.2.5 Konstruktion der Pattern Language 135 4.3 Pattern Language für Videolernumgebungen 140 4.3.1 Struktur der Pattern Language 140 4.3.2 Angrenzende Mustersprachen 144 4.3.3 Repräsentation in einer Wissensbasis 145 4.3.4 Anwendungs- und Einsatzszenarien 148 4.3.5 Exemplarische Interaction Design Patterns 151 4.4 Zusammenfassung 168 5 Videobasierte CSCL-Scripts 171 5.1 Einführung 172 5.1.1 Hintergrund zu Scripts und CSCL-Scripts 172 5.1.2 Definition videobasierter CSCL-Scripts 175 5.1.3 Mehrwert und Potentiale 177 5.1.4 Typisierung videobasierter CSCL-Scripts 178 5.2 Spezifikation videobasierter CSCL-Scripts 184 5.2.1 Script-Komponenten 185 5.2.2 Script-Mechanismen 194 5.3 Modellierung von CSCL-Scripts 197 5.3.1 Komplexitätslevel 200 5.3.2 Verwandte Systeme und Ansätze zur Modellierung von Scripts 201 5.3.3 Konzept für eine formale Repräsentation 206 5.3.4 Konzept zur Modellierung im User Interface 209 5.4 Zusammenfassung 212 6 Realisierung von Patterns und Scripts 215 6.1 VI-TWO: JavaScript Framework für interaktive Videos 216 6.1.1 Anforderungen 217 6.1.2 Verwandte Arbeiten 219 6.1.3 Architektur von VI-TWO 222 6.1.4 Videoplayer 224 6.1.5 Videoannotationen 225 6.1.6 Makrointeraktivität in Kollektionen von Videos 229 6.1.7 Autorenwerkzeuge 232 6.2 VI-LAB: CSCL-System für videobasierte CSCL-Scripts 235 6.2.1 Anforderungen 236 6.2.2 Architektur von VI-LAB 238 6.2.3 Modellierung videobasierter CSCL-Scripts 241 6.2.4 Monitoring 244 6.3 Anwendungsbeispiele für VI-TWO und VI-LAB 246 6.3.1 Vi-Wiki 246 6.3.2 IWRM education 247 6.3.3 VI-LAB (Version 1) auf Basis von Wordpress 247 6.3.4 VI-LAB (Version 2) auf Basis von node.js 248 6.3.5 Theresienstadt explained 249 6.4 Zusammenfassung 252 7 Schlussbetrachtung 255 7.1 Beitrag der Arbeit zur Forschung 255 7.2 Kritische Würdigung 256 7.3 Ausblick 25

    Jahresbericht 2009 der Fakultät für Informatik

    Get PDF
    corecore