24 research outputs found

    Compileroptimierung und parallele Code-Generierung für zeitkritische eingebettete Multiprozessorsysteme

    Get PDF
    Durch den voranschreitenden Trend der Digitalisierung gewinnen intelligente digitale Systeme in vielen Bereichen des täglichen Lebens zunehmend an Bedeutung. Dies betrifft insbesondere auch den Bereich sicherheitskritischer Echtzeitsysteme, für deren sicheren Betrieb die Echtzeitfähigkeit nachgewiesen werden muss. Im Gegensatz zu Anwendungsfeldern ohne diese Anforderung sind effiziente Mehrkernprozessoren in Echtzeitsystemen derzeit noch kaum verbreitet. Der Hauptgrund für die bisherige Dominanz der Einzelkernprozessoren sind fehlende Methoden und Werkzeuge, um parallele Echtzeit-Software für Mehrkernprozessoren zu entwickeln und selbst im ungünstigsten Fall noch eine maximale Ausführungszeit (englisch Worst Case Execution Time, kurz WCET) garantieren zu können. In diesem Kontext besteht eines der wesentlichen Probleme darin, dass sich parallel ablaufende Software-Routinen im Hinblick auf ihre Laufzeit gegenseitig beeinflussen können. In Mehrkernprozessoren geschieht dies vor allem bei gleichzeitigen Zugriffen mehrerer Kerne auf eine gemeinsam genutzte Hardware-Ressource. Geeignete Methoden, um den Einfluss dieser als Interferenz bezeichneten Effekte bei der Software-Entwicklung präzise vorherzusagen und sichere Garantien für die Ausführungszeit abzuleiten, sind Gegenstand aktueller Forschung. Gleiches gilt für Software-Werkzeuge zur automatischen Parallelisierung, die auf harte Echtzeitanwendungen spezialisiert sind. Diese Arbeit zielt darauf ab, die Anwendbarkeit von Mehrkernprozessoren in Echtzeitsystemen durch Beiträge in den Bereichen der automatischen Software-Parallelisierung, Code-Optimierung und Hardware-Modellierung signifikant zu verbessern. Als Bestandteil einer Werkzeugkette zur automatischen Parallelisierung von sequentieller Echtzeit-Software wird in dieser Arbeit ein Compiler-Werkzeug zur WCET-optimierten parallelen Code-Generierung und ein zugehöriges paralleles Programmiermodell vorgestellt. Hierdurch können -- weitgehend ohne Zutun eines Endanwenders -- gut vorhersagbare parallele Programme erzeugt werden. Durch das Programmiermodell wird dabei sichergestellt, dass die Ausführungszeit, einschließlich der Interferenzeffekte, mit Hilfe einer statischen WCET-Analyse sicher nach oben abgeschätzt werden kann. Als Teil der Code-Generierung stellt die vorliegende Arbeit zwei Optimierungsmethoden vor, die zum einen den Kommunikations- und Synchronisationsaufwand zwischen den Prozessorkernen reduzieren und zum anderen die optimierte Allokation verteilter Speicher in heterogenen Speicherhierarchien ermöglichen. Erstere ist auf des parallele Programmiermodell abgestimmt und erlaubt die optimierte Platzierung von Kommunikations- und Synchronisationsoperationen sowie das Entfernen redundanter Synchronisation auf einer feingranularen Ebene. Die Optimierung der Speicherallokation ergänzt den Ansatz um ein formales Optimierungsmodell zur Zuweisung der Datenfelder eines generierten Programms zu den Speicherbereichen der Zielplattform. Das Modell bezieht dabei sowohl die Kosten für Interferenzeffekte als auch die Speicherhierarchie von Zielplattformen mit verteilten und heterogenen Speichern mit ein. Um die Schritte zur Generierung, Optimierung und Analyse von paralleler Echtzeit-Software weitgehend plattformunabhängig aufbauen zu können, beinhaltet die vorliegende Arbeit außerdem einen Ansatz zur generischen Modellierung von Mehrkernprozessorarchitekturen. Dieser erlaubt es, die Zielplattform mit Hilfe einer entsprechend erweiterten Architekturbeschreibungssprache (ADL) zu beschreiben, wodurch sich die darauf aufbauenden Entwicklungswerkzeuge mit überschaubarem Aufwand auf ein breites Spektrum von Hardware-Plattformen anwenden lassen. Mit dieser neuartigen Kombination erweitert die vorliegende Arbeit den Stand der Technik um einige wesentliche Bausteine, die die weitgehend automatisierte Parallelisierung von Echtzeit-Software ohne stark einschränkende Annahmen bezüglich der Struktur des Eingabeprogramms ermöglichen. Zu den weiteren Neuerungen dieser Arbeit zählen die Plattformunabhängigkeit bei der WCET-optimierten Software-Parallelisierung und die Berücksichtigung von Interferenzeffekten bei der Speicherallokation in Echtzeitsystemen. Die experimentelle Evaluation der vorgestellten Methoden und deren prototypischer Umsetzung zeigt, dass die WCET aller betrachteten Testanwendungen von der Parallelisierung profitieren kann. Auf einer Plattform mit vier Prozessorkernen konnte z.B. die WCET einer Anwendung aus dem Bereich der Bildverarbeitung durch die Parallelisierung im Vergleich zum sequentiellen Eingabeprogramm um Faktor 3,21 verbessert werden. Auch die Optimierungsansätze für Kommunikation und Speicherallokation führen größtenteils zu einer deutlichen Verbesserung der WCET. So konnten die durch Interferenzen verursachten Kosten im Zuge der Speicherallokation z.B. um bis zu 49% reduziert werden. Insgesamt haben die Ergebnisse dieser Arbeit damit das Potential, die effiziente und kostengünstige Nutzung von Mehrkernprozessoren im Bereich harter Echtzeitsysteme wesentlich voranzutreiben

    Model-based condition and process monitoring based on socio-cyber-physical systems

    Get PDF
    Die produzierende Industrie strebt im Rahmen der vierten industriellen Revolution, Industrie 4.0, die Optimierung der klassischen Zielgrößen Qualität, Kosten und Zeit sowie Ressourceneffizienz, Flexibilität, Wandlungsfähigkeit und Resilienz in globalen, volatilen Märkten an. Im Mittelpunkt steht die Entwicklung von Smart Factories, in denen sich relevante Objekte, Produktions-, Logistik- und Informationssysteme sowie der Mensch vernetzen. Cyber-physische Systeme (CPS) tragen als sensorisierte und aktorisierte, resiliente und intelligente Gesamtsysteme dazu bei, Produktionsprozesse und -maschinen sowie die Produktqualität zu kontrollieren. Vordergründig wird die technische Komplexität von Produktionssystemen und damit auch zugehöriger Instandhaltungsprozesse durch die Anforderungen an deren Wandlungsfähigkeit und den zunehmenden Automatisierungsgrad ansteigen. Heraus-forderungen bei der Entwicklung und Implementierung von CPS liegen in fehlenden Interoperabilitäts- und Referenzarchitekturkonzepten sowie der unzureichend definierten Interaktion von Mensch und CPS begründet. Sozio-cyber-physische Systeme (Sozio-CPS) fokussieren die bidirektionale Interaktion von Mensch und CPS und adressieren diese Problemstellung. Gegenstand und Zielstellung dieser Dissertationsschrift ist die Definition von Sozio-CPS in der Domäne der Zustands- und Prozessüberwachung von Smart Factories. Untersucht werden dabei Nutzungsszenarien von Sozio-CPS, die ganzheitliche Formulierung von Systemarchitekturen sowie die Validierung der entwickelten Lösungsansätze in industriellen Anwendungsszenarien. Eine erfolgreiche Umsetzung von Sozio-CPS in drei heterogenen Validierungsszenarien beweist die Korrektheit und Anwendbarkeit der Lösungsansätze.Within the scope of the fourth industrial revolution, Industry 4.0, the manufacturing industry is trying to optimize the traditional target figures of quality, costs and time as well as resource efficiency, flexibility, adaptability and resilience in volatile global markets. The focus is on the development of smart factories, in which relevant objects and humans are interconnected . Cyber-physical systems (CPS) are used as sensorized and actuatorized, resilient and intelligent overall systems to control production processes, machines and product quality . The technical complexity of production systems and their associated maintenance processes are rising due to the demands on their adaptability and the increasing automation. Challenges in the development and implementation of CPS include the lack of interoperability and reference architecture concepts as well as the insufficiently defined interaction of people and CPS. Socio-cyber-physical systems (Socio-CPS) focus on bidirectional interaction of humans and CPS to address this problem. The scope and objective of this dissertation is to define Socio-CPS in the condition and process monitoring of smart factories. This dissertation utilizes scenarios of Socio-CPS, holistically defines system architectures and validates the solutions developed in industrial applications. The successful implementation of Socio-CPS in three heterogeneous validation scenarios proves the correctness and applicability of the solutions

    Virtualisierung eingebetteter Echtzeitsysteme im Mehrkernbetrieb zur Partitionierung sicherheitsrelevanter Fahrzeugsoftware

    Get PDF
    Die Automobilindustrie verzeichnete innerhalb der letzten Jahre einen enormen Zuwachs an neuen elektrischen und elektronischen Fahrzeugfunktionen. Dies führt gleichzeitig zu einer Mehrung der Softwareumfänge in eingebetteten Systemen. Nicht-funktionale Anforderungen wie Sicherheit, Performanz, Verlässlichkeit und Wartbarkeit stellen zusätzliche Herausforderungen an die Entwicklung zukünftiger Fahrzeugsysteme dar. Um die Anzahl der Steuergeräte zu reduzieren, sollen Fahrzeugfunktionen auf gemeinsamen Integrationssteuergeräten konsolidiert werden. Systemvirtualisierung kann hierfür eine zielführende Herangehensweise darstellen, um die Softwaremigration auf Integrationssteuergeräte zu erleichtern und gleichzeitig den geforderten Isolationsansprüchen neuer Sicherheitsstandards gerecht zu werden. In dieser Arbeit wird die Partitionierung sicherheitsrelevanter Fahrzeugfunktionen auf einer gemeinsamen Hardwareplattform fokussiert. Unter Verwendung von Methoden zur Bewertung sozialer Netzwerke wird eine graphenbasierte Herangehensweise vorgestellt, um die Partitionierbarkeit von Softwarenetzen mit sicherheitsrelevanten Anteilen abschätzen zu können. Zur Realisierung der Systempartitionierung wird eine Methodik zur Auswahl der geeignetsten Kernelarchitektur eingeführt. Dabei werden aus gewählten nicht-funktionalen Eigenschaften potentielle technische Lösungskonzepte innerhalb einer Baumstruktur abgeleitet und ingenieurmäßig bewertet. Darauf aufbauend wird ein Hypervisor für eingebettete Echtzeitsysteme der Firma ETAS Ltd. evaluiert. Um die Kosten einer zusätzlichen Hypervisorschicht beurteilen zu können, werden in diesem Rahmen Laufzeitmessungen durchgeführt. Somit werden die Auswirkungen einer zusätzlichen Virtualisierungsschicht auf Fahrzeugsoftwaresysteme zur Erfüllung ausgewählter nicht-funktionaler Eigenschaften aufgezeigt. Die Anbindung virtualisierter Systeme an die Kommunikationsschnittstellen des Hypervisors stellt einen weiteren Schwerpunkt dar. Virtuelle Steuergeräte tauschen sich weiterhin über bereits implementierte Kommunikationskanäle aus und greifen auf gemeinsame Hardwareressourcen zu. Es wird somit ein Konzept eingeführt, um sicherheitsrelevante Anteile des AUTOSAR Microcontroller Abstraction Layers zu entkoppeln. Der Hypervisor selbst wird hierzu an relevanten Stellen erweitert und ein verlässliches Kommunikationskonzept implementiert. Ein Demonstratoraufbau, zur Konsolidierung von produktiver Fahrzeugsoftware auf einer gemeinsamen Hardwareplattform, finalisiert die Arbeit. Hierfür werden unabhängige Softwarestände paravirtualisiert. Als Resümee der Arbeit erhält der Leser sowohl einen technischen Überblick über den Mehrwert als auch der Kosten paravirtualisierter Fahrzeugplattformen, welche auf Kleinststeuergeräten integriert sind.Within the automotive industry, electric and electronic functionality is rapidly rising within the last few years. This fact yields an increase of software functionality of embedded systems within the car. Non-functional requirements like safety, performance, reliability or maintainability represent additional challenges for future vehicle system development. Vehicle functionality is consolidated on common hardware platforms, to reduce the amount of electronic control units. System virtualization can act as a proper approach, to ease the migration of different vehicle applications to a consolidated system and achieve additional demands for functional isolation. Within this thesis, the partitioning of safety-related automotive applications on a common hardware platform is focused. To assess the partitioning of safety-related automotive systems, methods for social network evaluation with a graph-oriented approach are proposed. For realizing the system partitioning, a decision-making model is introduced, which results in the most appropriate kernel architecture. From a chosen set of non-functional requirements, technical solutions are derived and rated from a tree structure. As a result, a hypervisor for embedded real-time systems, supplied by ETAS Ltd., is evaluated. For that purpose, timing measurements are performed to estimate the costs of virtual electronic control units. The impact of an additional virtualization layer for automotive software systems to achieve non-functional requirements is analyzed. A further main focus is the integration of virtualized systems to the communication interfaces of the hypervisor. Virtual ECUs further exchange information over already implemented communication channels and use common hardware ressources. Thus, a concept to decouple the safety-related parts of the AUTOSAR Microcontroller Abstraction Layer is introduced. The hypervisor itself will be enhanced by a reliable communication concept. A demonstrator to consolidate already productive automotive applications on a common hardware platform finalizes the work. Here, independent software parts are paravirtualized. This thesis concludes with a technical overview of the benefits and costs for integrating paravirtualized electronic control units on less capable hardware platforms

    Wissenschaft und Innovation: Wissenschaftsforschung Jahrbuch 2014

    Get PDF
    Anfänge einer neuen industriellen Entwicklung gehen von dem Modell sogenannter cyber-physischer Systeme aus, in denen Technologien des Internets (cyber) mit physischen Produktionsanlagen verbunden werden. Ziel ist eine maßgebliche Steigerung von Effizienz und Flexibilität der Produktion, vor allem eine Senkung der Preise von Produkten. In dem Maße wie neue Technik vor allem auf dem Weltmarkt nachgefragt ist, „wird doch der Erfinder ... einen so größeren Teil der erforderlich gewesenen Ausgaben schon gedeckt haben, daß er eine viel größere Reduktion im Preis seines Produktes vornehmen kann.“ Das wird auch im 21. Jahrhundert so bleiben. Neuerdings ist aber mit einem Finanzsystem zu rechnen, für deren Entwicklung nicht unbedingt die finanzielle Unterstützung technischer Innovationen im Vordergrund steht, was die Diskussion um die Fähigkeit von Regionen und Ländern befördert hat, für ihre Wirtschaft exogene Schocks erfolgreich zu verarbeiten. Der entsprechende - anfangs nur naturwissenschaftlich verwendete - Begriff „Resilienz“ erfaßt mit „wirtschaftliche Resilienz“ die Verletzlichkeit und Anpassungsfähigkeit eines wirtschaftlichen Systems. Dabei handelt es sich um die Fähigkeit der Wirtschaft auch mit finanziellen Neuheiten umzugehen und gestattet Arten der Finanzierung von Innovationen zu unterscheiden und ihre Auswirkung auf die wirtschaftliche Resilienz zu untersuchen. Die Gesellschaft für Wissenschaftsforschung hat sich diesen Fragestellungen angenommen und sie im Rahmen ihrer Jahrestagung im Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin am 28. März 2014 unter dem Thema „Wissenschaft und Innovation“ analysiert und diskutiert. Dabei ist es gelungen, theoretische Überlegungen mit historischen und aktuellen Fakten zu verbinden. Die Ergebnisse dieser Tagung werden in diesem Jahrbuch der Gesellschaft für Wissenschaftsforschung dem interessierten Leser vorgestellt.Peer Reviewe

    Jobzentrisches Monitoring in Verteilten Heterogenen Umgebungen mit Hilfe Innovativer Skalierbarer Methoden

    Get PDF
    Im Bereich des wissenschaftlichen Rechnens nimmt die Anzahl von Programmläufen (Jobs), die von einem Benutzer ausgeführt werden, immer weiter zu. Dieser Trend resultiert sowohl aus einer steigenden Anzahl an CPU-Cores, auf die ein Nutzer zugreifen kann, als auch durch den immer einfacheren Zugriff auf diese mittels Portalen, Workflow-Systemen oder Services. Gleichzeitig schränken zusätzliche Abstraktionsschichten von Grid- und Cloud-Umgebungen die Möglichkeit zur Beobachtung von Jobs ein. Eine Lösung bietet das jobzentrische Monitoring, das die Ausführung von Jobs transparent darstellen kann. Die vorliegende Dissertation zeigt zum einen Methoden mit denen eine skalierbare Infrastruktur zur Verwaltung von Monitoring-Daten im Kontext von Grid, Cloud oder HPC (High Performance Computing) realisiert werden kann. Zu diesem Zweck wird sowohl eine Aufgabenteilung unter Berücksichtigung von Aspekten wie Netzwerkbandbreite und Speicherkapazität mittels einer Strukturierung der verwendeten Server in Schichten, als auch eine dezentrale Aufbereitung und Speicherung der Daten realisiert. Zum anderen wurden drei Analyseverfahren zur automatisierten und massenhaften Auswertung der Daten entwickelt. Hierzu wurde unter anderem ein auf der Kreuzkorrelation basierender Algorithmus mit einem baumbasierten Optimierungsverfahren zur Reduzierung der Laufzeit und des Speicherbedarfs entwickelt. Diese drei Verfahren können die Anzahl der manuell zu analysierenden Jobs von vielen Tausenden, auf die wenigen, interessanten, tatsächlichen Ausreißer bei der Jobausführung reduzieren. Die Methoden und Verfahren zur massenhaften Analyse, sowie zur skalierbaren Verwaltung der jobzentrischen Monitoring-Daten, wurden entworfen, prototypisch implementiert und mittels Messungen sowie durch theoretische Analysen untersucht.An increasing number of program executions (jobs) is an ongoing trend in scientific computing. Increasing numbers of available compute cores and lower access barriers, based on portal-systems, workflow-systems, or services, drive this trend. At the same time, the abstraction layers that enable grid and cloud solutions pose challenges in observing job behaviour. Thus, observation and monitoring capabilities for large numbers of jobs are lacking. Job-centric monitoring offers a solution to present job executions in a transparent manner. This dissertation presents methods for scalable infrastructures that handle monitoring data of jobs in grid, cloud, and HPC (High Performance Computing) solutions. A layer-based organisation of servers with a distributed storage scheme enables a task sharing that respects network bandwidths and data capacities. Additionally, three proposed automatic analysis techniques enable an evaluation of huge data quantities. One of the developed algorithms is based on cross-correlation and uses a tree-based optimisation strategy to decrease both runtime and memory usage. These three methods are able to significantly reduce the number of jobs for manual analysis from many thousands to a few interesting jobs that exhibit outlier-behaviour during job execution. Contributions of this thesis include a design, a prototype implementation, and an evaluation for methods that analyse large amounts of job-data, as well for the scalable storage concept for such data

    Parallele und kooperative Simulation für eingebettete Multiprozessorsysteme

    Get PDF
    Die Entwicklung von eingebetteten Systemen wird durch die stetig steigende Anzahl und Integrationsdichte neuer Funktionen in Kombination mit einem erhöhten Interaktionsgrad zunehmend zur Herausforderung. Vor diesem Hintergrund werden in dieser Arbeit Methoden zur SystemC-basierten parallelen Simulation von Multiprozessorsystemen auf Manycore Architekturen sowie zur Verbesserung der Interoperabilität zwischen heterogenen Simulationswerkzeugen entwickelt, experimentell untersucht und bewertet

    Modelling and evaluation of load and performance control mechanisms of B-ISDN/ATM switching systems

    Get PDF
    Behandelt wird die Problematik der Last- und Leistungsregelung im Kontext der ATM-basierten Breitband-Vermittlungstechnik.Objective of this thesis are load control and performance control concepts for broadband switching systems. Focus is the services integrating network technology B-ISDN using ATM as transfer mode. The studied mechanisms and concepts are principally of generic nature. Specifically they are designed within the envisaged context of B-ISDN, due to its extensive vision with respect to service integration, Quality of Service (QoS) support and ATM bearer capabilities. Area of application is implicitly the network control plane, but interactions between user and control plane have to be considered, too. The prime scope are switching nodes between access and core network domain, i.e., B-ISDN switches which have to provide user-to-network and network-to-network signalling protocol functions. Thus, beside service distinction call type differentiation is also covered due to the considered network positioning

    Communities in New Media: Virtual Enterprises, Research Communities & Social Media Networks: 15. Workshop GeNeMe ’12 Gemeinschaften in Neuen Medien: TU Dresden, 04./05. 10. 2012

    Get PDF
    Internet-basierte Technologien wie z. B. Social Media Werkzeuge, aber auch ERP-Systeme und Wissensplattformen verändern weiterhin Form und Intensität der Zusammenarbeit in Wirtschaft, Wissenschaft und Bildung bis hin zum privaten (Zusammen-)Leben. Dabei führt die zunehmende Mobilität zu neuen Nutzungsoptionen auch für multimediale Systeme, sei es im Bereich des Gaming oder beim gemeinsamen Gestalten digitaler Produkte. Gerade für die Web 2.0 Technologien gilt: Ziel der Nutzung sind Kommunikation, Kooperation und Kollaboration. Die Nutzer suchen Unterstützung bei täglichen Routineprozessen ebenso wie in nicht alltäglichen Situationen - etwa bei der Erstellung von Inhalten - und schließen sich in Online-Fachgemeinschaften, sogenannten Communities, unterschiedlichster Ausrichtung zusammen. Im Jahr 2012 feiert die GeNeMe das 15. Jubiläum! Der Sammelband zur Tagung „Gemeinschaften in Neuen Medien“ widmet sich 2012 dem Rahmenthema „Communities in New Media: Virtual Enterprises, Research Communities & Social Media Networks“ und enthält Beiträge zu folgenden Themenfeldern: • Konzepte, Technologien und Methoden für Virtuelle Gemeinschaften (VG) & Virtuelle Organisationen (VO), • Mobile and Augmented Life, • Soziale Gemeinschaften (SG) in Neuen Medien, • Wirtschaftliche Aspekte von Gemeinschaften in Neuen Medien, • Lernen, Lehren und Forschen mit dem Web2.0. Alle in den Proceedings publizierten Beiträge wurden mit Hilfe eines anonymisierten Begutachtungsverfahrens auf Basis von mindestens 2 Gutachten aus einem breiten Angebot interessanter und qualitativ hochwertiger Beiträge zu dieser Tagung ausgewählt. Die GeNeMe‘12 richtet sich in gleichem Maße an Wissenschaftler wie auch Praktiker, die sich über den aktuellen Stand der Arbeiten auf dem Gebiet der GeNeMe informieren möchten. *** In der Online-Version ist das Adressverzeichnis (S. 337-355) nicht enthalten, vgl. Sie hierzu die Printausgabe.:Vorwort der Herausgeber S. III A Eingeladene Vorträge A.1 The Role of Creativity in Cooperative Foresight Activities in Living Labs S. 1 B KONZEPTE, TECHNOLOGIEN UND METHODEN FÜR VIRTUELLE GEMEINSCHAFTEN (VG) & VIRTUELLE ORGANISATIONEN (VO) B.1 Anonyme Kommunikation in verteilt organisierten Gitterstrukturen S. 11 B.2 Von kompetenzzellenbasierten Produktionsnetzen lernen - Eine Untersuchung am Beispiel von „Anbietergemeinschaften aus Stromerzeugern und -verbrauchern“ S. 23 B.3 Open Innovation by Opening Embedded Systems S. 33 B.4 Erarbeitung eines Workshopdesigns zur weiteren Ausarbeitung der Ergebnisse einer virtuellen Ideencommunity S. 47 B.5 Berührungssensitive Schnittstellen für Social Software in Entwicklungsprozessen S. 63 B.6 Mobile Reisebegleitung mit NFC-Unterstützung S. 67 B.7 Optimierung des IT-Managements mittels Social Media S. 79 B.8 Ausgestaltung eines Social Media Monitorings S. 91 C SOZIALE GEMEINSCHAFTEN (SG) IN NEUEN MEDIEN C.1 Formen der Kollaboration in Wissensnetzwerken S. 105 C.2 Informations- und Wissensmanagement im Nachhaltigen Landmanagement (IWM im NLM) S. 121 C.3 Barrierefreiheit durch Personalisierung und Kollaboration S. 135 C.4 Als Chef hat man nichts zu lachen – Eine Studie zur Wirkung von durch Führungspersonen genutzten Emoticons in berufsbezogenen Emails S. 145 D WIRTSCHAFTLICHE ASPEKTE D.1 The Knowledge- Based Opole Tourism Cluster (OKTW) as a Network Tool for Organizing the Space and Flow in the Opole Region S. 155 D.2 Das Projekt Q2P - Zentrale Unterstützungsangebote für den Medieneinsatz in der akademischen Weiterbildung S. 169 D.3 Erfolg im Enterprise 2.0: Selbstorganisation und Freiheit gegen vorstrukturierte Planung und Steuerung S. 173 D.4 Fluch oder Segen? – Zum Umgang mit Konflikten in Software-Implementierungsprozessen S. 181 D.5 Warum Facebook Spaß macht: Freudvolles Erleben in sozialen Netzwerkdiensten S. 193 D.6 Nutzung interaktiver Elemente in deutschen Online-Shops S. 207 E LERNEN, LEHREN UND FORSCHEN MIT DEM WEB 2.0 E.1 DialogueMaps: Ein interaktives Dialogwerkzeug für softwaregestützte Wissenslandkarten s. 217 E.2 Untersuchung der Wirksamkeit einer Lernhandlung in einem Blended-Learning-Arrangement in der universitären Ausbildung S. 229 E.3 Gestaltungsmaßnahmen zur Förderung kollaborativer Wiki-Arbeit in der Hochschullehre S. 241 E.4 Digitale Kompetenzen für Wissenschaftler: Anforderungen aus der Perspektive von ELearning und E-Science S. 253 E.5 Identifiers in e-Science platforms for the ecological sciences S. 259 E.6 The Impact of Learning Management System Usage on Cognitive and Affective Performance S. 273 E.7 Adoption, Anpassung oder Abkehr? - Eine Studie zur Nutzung von kollaborativen Web 2.0-Anwendungen durch Studierende S. 285 E.8 Die Etablierung von E-Learning-Szenarien an Gymnasien – ein Pilotprojekt in Sachsen und seine Erkenntnisse S. 299 E.9 Online-Gemeinschaften zur Studienvorbereitung: Eine empirische Studie zu computerbezogenen Einstellungen sächsischer Gymnasialschüler S. 313 E.10 Lernwegsteuerung im E-Learning - ein alter Hut? S. 32

    Extension and optimisation of a communication platform for pc-based control systems

    Get PDF
    Die vorliegende Arbeit befasst sich mit der Erweiterung und Optimierung einer Kommunikationsplattform für offene PC-basierte Steuerungssysteme für Parallelkinematiken und leistet einen Beitrag dazu, den Umsetzungsaufwand von Steuerungsapplikationen selbst in einer verteilten Umgebung zu reduzieren und gleichzeitig die Performanz und Zuverlässigkeit des Steuerungssystems zu steigern. In Gegensatz zu Seriellen Robotern bestehen Parallelkinematiken aus einer geschlossenen kinematischen Kette, bei dem der Manipulator über mehrere Führungsglieder mit den fest am Gestell montierten Antrieben verbunden ist. Begünstigt durch diese mechanische Struktur resultiert für jeden Antrieb eine gering zu bewegenden Masse pro Verfahrbewegung. Dies wiederum führt dazu, dass im Vergleich zu seriellen Robotern höhere Arbeits¬geschwin¬dig¬keiten und -beschleunigungen bei höherer Genauigkeit und Steifigkeit gefahren werden können. Neben einer Erhöhung der Performanz des Steuerungssystems liefert diese Arbeit die architekturspezifische Grundlage für die Integration von rechenaufwendigen parallelroboterspezifischen Besonderheiten in den Steuerungspfad. Weiterhin schafft diese Arbeit eine Plattform für die Implementierung und Ausführung von echtzeitfähigen verteilten Steuerungsapplikationen. Dafür wird die Middleware so erweitert, dass sie Anwenderapplikationen eine transparente Nutzung von Kommunikations¬mechanismen im verteilten System gewährleistet. Eine optimale Nutzung der verteilten Ressourcen wird durch die Integration eines Self-Managers in die Steuerungssofware erreicht. In diesem Zusammenhang wird im Rahmen dieser Arbeit eine Monitoring-Komponente in die Middleware integriert, die topologische und zeitliche Informationen über die Ausführung von Tasks im verteilten System zur Laufzeit ermittelt und dem Anwender bereitstellt.The present work covers the expansion and optimization of a communication platform designed for the implementation of an open and computer-based control system for parallel kinematics. This work helps to reduce the implementation cost of control applications and increases at the same time the performance of the control system. Unlike serial robots, the mechanical structure of a parallel kinematics consists of a closed kinematic chain. The manipulator is connected over many links to the drives mounted on the rack. Favored by this mechanical structure each drive has a reduced mass to move and therefore higher velocities and accelerations are achievable. In addition to the performance increase of the control system this work provides the architectural fundament for the integration of computationally intensive and parallel kinematics specific features in the control system. Furthermore, the present work provides a platform for the implementation and execution of real-time distributed control applications in both multi-core processors and computer network. In this context, the middleware is extended so that it ensures user applications a transparent using of communication mechanisms in the distributed systems. To ensure optimal use of the resources available in the distributed system a self-manager is integrated into the control system. The self-manager responds independently and efficiently to changes occurring in the system topology as well as to changing demands on the control. It automatically adjusts the distribution of the control modules at runtime. In order to achieve this, a monitoring component is integrated in the middleware. It determines and provides topological and temporal information about the execution of tasks in the distributed system at runtime

    Jahresbericht 2009 der Fakultät für Informatik

    Get PDF
    corecore