1,047 research outputs found

    Evaluation zentraler Kriterien von funktionellem Training fĂŒr die medizinische Trainingspraxis

    Get PDF

    Anwendungsgewahre statische Spezialisierung vormals dynamischer Systemaufrufe zur Verbesserung nichtfunktionaler Eigenschaften eingebetteter Echtzeitsysteme

    Get PDF
    Eingebettete Systeme sind aus unserem heutigen Leben nicht mehr wegzudenken. Sie sind allgegenwĂ€rtig in fast jedem Moment unseres tĂ€glichen Lebens um uns vorhanden und unterstĂŒtzen unseren Alltag. Wir erwarten von diesen Systemen gleichzeitig sowohl hohe Kosteneffizienz in Entwicklung als auch Produktion. Gleichzeitig erwarten wir, dass diese zuverlĂ€ssig arbeiten und stets erwartungsgemĂ€ĂŸ reagieren. Dies fĂŒhrt gerade bei der großen StĂŒckzahl und dem weiter steigenden Vorkommen dieser Systeme zu einem immensen Druck auf den Entwicklungsprozess neuer Systeme. WĂ€hrend ein fertiges System entsprechend der Umgebung eine festgelegte Aufgabe und damit eine festgelegte Software-Anwendung hat, die es ausfĂŒhrt, sind die fĂŒr dessen Implementierung und AusfĂŒhrung verwendeten Werkzeuge nicht speziell fĂŒr genau diese Aufgabe gedacht, sondern fĂŒr eine Vielzahl möglicher Anwendungen. Dies bedeutet, dass sie einen deutlich grĂ¶ĂŸeren Funktionsumfang und eine grĂ¶ĂŸere FlexibilitĂ€t in der Verwendung dessen ermöglichen, als von der konkreten Anwendung benötigt wird. In dieser Arbeit beschĂ€ftige ich mich mit den Echtzeitbetriebssystemen (EZBS), die als AusfĂŒhrungsgrundlage dienen. Diese stellen ein breites Spektrum an Primitiven verschiedener Systemobjektklassen dazugehöriger Interaktionsmethoden zur VerfĂŒgung, von denen eine Anwendung nur eine Teilmenge verwendet. Bei den hier betrachteten dynamisch konfigurierten Systemen werden alle Systemobjekte zur Laufzeit konfiguriert und auch ihre Interaktionen sind ausschließlich durch den Verlauf des Programmcodes bestimmt. Ein Betriebssystem muss dementsprechend jederzeit beliebige Systemaufrufe akzeptieren können, auch wenn diese von der Anwendung nicht ausgefĂŒhrt werden. Diese Freiheit verursacht pessimistische Annahmen fĂŒr mögliche Interaktionsmuster und erzwingt eine dynamische Verwaltung aller SystemzustĂ€nde und Systemobjekte. In dieser Arbeit stelle ich daher Verfahren vor, mit denen systematisch und automatisiert vormals dynamische Systemaufrufe unter Beachtung der Anforderungen einer gegebenen Anwendung statisch spezialisiert werden können, sodass sich insgesamt die nichtfunktionalen Eigenschaften des Gesamtsystems verbessern. Mittels statischer Analyse ermittle ich die von der Anwendung verwendeten Systemobjekte und deren mögliche Interaktionen. Mit diesem Wissen fĂŒhre ich in Spezialisierungen in der Phase des Systemstarts und in der Arbeitsphase des Systems zur Übersetzungszeit durch. Der Systemstart optimiere ich, indem semantisch statische Systemobjekte bereits zur Übersetzungszeit instanziiert werden. Interaktionen wĂ€hrend der Arbeitsphase optimiere ich, indem ich auf die tatsĂ€chlichen Verwendungsmuster spezialisierte Implementierungen von Systemobjekten und deren Interaktionen einsetze. Mit diesen Spezialisierungen bin ich in der Lage, sowohl Laufzeit als auch Speicherbedarf eines spezialisierten Systems zu reduzieren. Den Systemstart kann ich um bis zu 67 % beschleunigen. Bei der AusfĂŒhrungszeit eines einzelnen Systemaufrufs zur Kommunikation zweier Systemobjekte sind bis zu 43 % Reduktion möglich. Als Ergebnis dieser Arbeit kann ich zeigen, dass eine automatische anwendungsgewahre statische Spezialisierung von vormals dynamischen Systemaufrufen gewinnbringend möglich ist. Dabei kann ich das Ergebnis von Systemaufrufen zur Laufzeit vorausberechnen und damit sowohl die sonst benötigte Laufzeit reduzieren, als auch eventuell nicht mehr benötigte Systemaufrufimplementierungen im Betriebssystem einsparen. Durch den Einsatz von anwendungsangepassten Implementierungen von Systemaufrufen ist eine weitere Verbesserung gegeben. Dies ist in einem fließenden Übergang möglich, sodass diejenigen Komponenten, die die FlexibilitĂ€t der dynamischen Betriebssystemschnittstelle benötigen, diese weiterhin uneingeschrĂ€nkt zur VerfĂŒgung steht. Die funktionalen Eigenschaften und Anforderungen werden dabei unter keinen UmstĂ€nden verletzt.DFG/Sachbeihilfe im Normalverfahren/LO 1719/4-1/E

    Emulator- und kostenbasierte Analyse von Network-on-Chip

    Get PDF
    Die KomplexitĂ€t der Kommunikation auf aktuellen und zukĂŒnftigen Multi-Kern System on Chip ist mit gĂ€ngigen Kommunikationsarchitekturen wie Bussen oder Punkt-zu-Punkt Verbindungen kaum zu beherrschen. Network-on-Chip (NoC) stellen eine mögliche Lösung dieses Problems dar. Im Rahmen dieser Arbeit wurde ein modulares und parametrisierbares Network-on-Chip entwickelt. Dies unterstĂŒtze eine Vielzahl von NoC-Parametern wie zum Beispiel Topologie, Routing Algorithmus und Vermittlungstechnik. Die erstellte VHDL Bibliothek fĂŒr NoC ermöglicht die automatische Generierung von NoC-Beschreibungen in VHDL. FĂŒr die Untersuchung der Performance, FlĂ€che und Verlustleistung der modellierten NoC wurden exemplarische VLSI-Implementierungen der NoC-Komponenten mit Hilfe von Standardzellen erstellt. Zur Reduzierung der Kosten und Steigerung der Performance sind physikalisch optimierte Kernkomponenten in Kombination mit Standardzellen verwendet worden. Dies reduziert die Kosten der NoC-Implementierungen signifikant wobei die Parametrisierbarkeit erhalten bleibt. Die Kosten fĂŒr die NoC-Komponenten in AbhĂ€ngigkeit der NoC-Parameter wurden mit mathematischen Modellen beschrieben. Diese Modelle erlauben die AbschĂ€tzung der zu erwartenden Kosten schon in frĂŒhen Entwurfsphasen. Neben den Kosten, die durch ein NoC verursacht werden, ist die Bestimmung der Performance eines NoCs wichtig. Es wurden verschiedene Techniken (z.B. Simulation auf unterschiedlichen Abstraktionsebenen, Emulation auf einem FPGA) implementiert, um die Performance von NoC zu bestimmen. Die Erweiterung der NoC-Beschreibung um weitere Bibliotheken zur Simulation mit SystemC und Colored-Petri-Nets, einer Emulation auf einem FPGA und der statischen Analyse ermöglichten einen Vergleich und eine Bewertung dieser Techniken. Die Analyse-Techniken wurden den unterschiedlichen Phasen im Entwurfs-prozess von NoC zugeordnet. Durch die Vielzahl an NoC-Parametern ist der Entwurf eines optimalen NoC sehr komplex und aufwĂ€ndig. Die Erkenntnisse dieser Arbeit wurden in einer Entwurfsmethodik zusammengefĂŒhrt. Dieses Spiral-Modell ermöglicht eine effiziente, automatisierte Implementierung von NoC. Bei dem Vergleich der implementierten NoC-Komponenten mit Beispielen aus der Literatur konnte die Effizienz und LeistungsfĂ€higkeit gezeigt werden. FĂŒr Anwendungsbeispiele aus der Literatur und zufĂ€lligen Datenverkehr konnte der Entwurfsraum fĂŒr NoC erfolgreich untersucht und jeweils Pareto-optimale NoC identifiziert werden. Die Analyse des Kommunikationsverhalten eines realen Multi-Core Prozessors mit 61 Prozessorkernen und Abbildung auf den FPGA-basierten Emulator fĂŒr NoC zeigen, dass die vorgestellte Methodik grundsĂ€tzlich gut fĂŒr den Entwurf und die Analyse von NoC geeignet ist

    Integrierte Konzepte tiefer Neuronaler Netze zur monokularen Informationsgewinnung im Autonomen Fahrzeug

    Get PDF
    Tiefe Neuronale Netze im Allgemeinen und Convolutional Neural Networks (CNNs) im Speziellen konnten in den letzten Jahren in den Bereichen Maschinelles Sehen und Bildverarbeitung in verschiedensten DomĂ€nen große Erfolge erzielen. Herausforderungen bestehen dabei vor allem in der Anpassung der Methoden an domĂ€nenspezifische Tasks und die Reduktion des im Normalfall recht hohen Ressourcenbedarfs, insbesondere fĂŒr mobile Anwendungen wie das Autonome Fahren. Dort werden CNNs zur Bildverarbeitung meist fĂŒr die Gewinnung relevanter Informationen ĂŒber die Umgebung aus monokularen Kameras verwendet. Hierzu werden auf einem Kamerabild verschiedene Algorithmen zur Lösung unterschiedlicher Tasks ausgefĂŒhrt. Im Rahmen dieser Arbeit wird mit dem MultiNet-Ansatz ein Konzept zur integrierten Bearbeitung verschiedener Tasks in einem gemeinsamen CNN-Modell vorgestellt. Der Ressourcenbedarf kann so im Vergleich zu einer getrennten AusfĂŒhrung separater Modelle bei gleichbleibender QualitĂ€t der Ergebnisse deutlich reduziert werden. ZusĂ€tzlich wird ein Verfahren vorgestellt, welches bei ebenfalls gleichbleibender ErgebnisqualitĂ€t durch eine Kombination der angepassten Methoden Pruning und Knowledge Distillation den Ressourcenverbrauch eines CNN-Modells signifikant reduzieren kann. FĂŒr die DomĂ€ne des Autonomen Fahrens werden CNN-Architekturen zur allgemeinen Objektdetektion an die Anforderungen der domĂ€nenspezifischen Detektion von Objekten im Fahrzeugumfeld angepasst. Hierbei findet eine getrennte Betrachtung von statischen und dynamischen Verkehrsobjekten statt. Zur Lösung der Herausforderungen bei der Detektion von statischen Verkehrsobjekten wie Ampeln oder Verkehrsschildern wird ein Ansatz zur hierarchischen Detektion gleichartiger Objekte vorgestellt. FĂŒr die Detektion von dynamischen Verkehrsobjekten wie anderen Verkehrsteilnehmern wird ein Ansatz zur direkten 3D Detektion von Objekten in einem Kamerabild eingefĂŒhrt. Derartige AnsĂ€tze offenbaren durch ihre KomplexitĂ€t allerdings eine Herausforderung beim Training vieler CNN-Modelle. Der Fortschritt und die Konvergenz des Trainingsprozesses werden in wesentlichen Teilen durch die Zusammensetzung der verwendeten Trainingsdaten bedingt. Um den Trainingsprozess mit den jeweils verfĂŒgbaren Trainingsdaten bestmöglich durchfĂŒhren zu können, wird eine dynamische Fehlerfunktion vorgestellt, welche die einzelnen Datenpunkte angepasst an deren aktuelle Schwierigkeit im Trainingsprozess automatisch gewichtet. Eine Evaluation auf öffentlich verfĂŒgbaren DatensĂ€tzen wird fĂŒr alle im Rahmen dieser Arbeit vorgestellten Konzepte durchgefĂŒhrt
    • 

    corecore