28 research outputs found

    Schaltungsdesign mit VHDL

    Get PDF

    Transformation von Multiphysics-Modellen in einen FPGA-Entwurf für den echtzeitfähigen HiL-Test eingebetteter Systeme

    Get PDF
    Mit der vorliegenden Arbeit wird eine durchgängige Werkzeugkette von der Modellbildung physikalischer Simulationen bis zur Entwurfsautomatisierung für FPGA-basierte Echtzeitsimulationen etabliert. Modelica wurde als vielseitige, intuitive und objektorientierte Sprache zur Modellbildung ausgewählt. Die entwickelte Werkzeugkette nutzt Methoden der High-Level-Synthese, um einen Entwurf in VHDL zu generieren. Dabei können sowohl Entwürfe in Fließkomma-, als auch Festkomma-Arithmetik erzeugt werden

    Modulares Software Defined Radio

    Get PDF

    FPGA-Cluster – Anwendungsgebiete und Kommunikationsstrukturen

    Get PDF
    Romoth J. FPGA-Cluster – Anwendungsgebiete und Kommunikationsstrukturen. Bielefeld: Universität Bielefeld; 2018.Fortschritte in der Fertigungstechnik von Halbleitern in Silizium ermöglichen hohe Integrationsdichten und somit den Entwurf von leistungsstarken digitalen logikverarbeitenden Elementen. Mit Hilfe hochparalleler anpassbarer flexibler Architekturen wie im Feld programmierbare Logik-Gatter-Anordnungen (engl.: Field Programmable Gate Array, FPGA) kann eine Vielzahl an Problemstellungen gelöst werden. Aufgrund der gebotenen Parallelität ist es selbst bei den verhältnismäßig geringen Taktraten des FPGAs, die den hochspezialisierten dedizierten Schaltungen anderer Systeme gegenüberstehen, möglich, harte Echtzeitschranken bei der Lösungsberechnung einzuhalten. Darüber hinaus ist die Energieeffizienz aufgrund des proportionalen Einflusses der Taktrate auf die dynamische Verlustleistung von Schaltungen wesentlich höher. Dennoch erfordern unterschiedliche Anwendungsszenarien von FPGAs eine derart hohe Anzahl an Logikressourcen, dass nur die Bündelung mehrerer FPGAs zu einem vernetzten Cluster eine effiziente Verarbeitung gewährleistet. Im Verlauf dieser Arbeit werden die Anforderungen an eine FPGA-Cluster-Lösung herausgestellt. Anhand eines Überblicks über die typischen Anwendungsfelder rekonfigurierbarer Logiksysteme können die grundlegenden Voraussetzungen identifiziert werden, die eine universell einsetzbare FPGA-Cluster-Architektur erfüllen muss. Insbesondere an die Kommunikationsinfrastruktur zwischen den einzelnen FPGAs im Cluster werden hohe Anforderungen in Bezug auf die Flexibilität gestellt. Die Anpassbarkeit an die individuellen Anforderungen der eingesetzten Algorithmen ist somit neben der Datenrate und der Latenz ein Kernelement bei der Entwicklung des FPGA-Clusters. Zur Evaluation von Systementwürfen wird eine Modellierung erarbeitet, die einen Vergleich auf Basis der Kommunikationsstrukturen ermöglicht. Eine darüber hinausgehende Optimierung des die Verbindungen im Cluster beschreibenden Graphen führt zu einer Minimierung der Latenz von Datenübertragungen und somit zu einer Leistungssteigerung des Gesamtsystems. Die identifizierten Anforderungen an ein flexibles, modulares und skalierbares FPGA-Cluster-System werden im Rahmen der Arbeit umgesetzt, so dass der RAPTOR-XPress-FPGA-Cluster entsteht, der zudem zur Steigerung der Ressourceneffizienz auf den Mehranwenderbetrieb ausgelegt ist. Auf diese Weise lassen sich in einer Anwendung ungenutzte FPGAs parallel für andere Aufgaben verwenden. Im Zusammenspiel mehrerer Arbeiten des Fachgebiets Kognitronik und Sensorik der Universität Bielefeld ist ein Beispielaufbau mit 16 RAPTOR-XPress-Trägersystemen und 64 FPGAs mit insgesamt 44 359 680 Logikzellen-Äquivalenten und 256 GB an lokalem Arbeitsspeicher realisiert worden. Durch die Umsetzung topologieoptimierter Verbindungsstrukturen kann eine gegenüber vergleichbaren Systemen um 28% gesteigerte Logikdichte erreicht werden, die zusammen mit der erzielbaren Datenrate von 16 x 11,5 Gbit/s die Leistungsfähigkeit der Kommunikationsinfrastruktur des FPGA-Clusters verdeutlicht

    Untersuchungen zur Kostenoptimierung fĂĽr Hardware-Emulatoren durch Anwendung von Methoden der partiellen Laufzeitrekonfiguration

    Get PDF
    Der vorliegende Band der wissenschaftlichen Schriftenreihe Eingebettete Selbstorganisierende Systeme widmet sich der Optimierung von Hardware Emulatoren durch die Anwendung von Methoden der partiellen Laufzeitrekonfiguration. An aktuelle Schaltkreis- und Systementwürfe werden zunehmend divergente Anforderungen gestellt. Einer sehr kurzen Entwicklungszeit für eine schnelle Markteinführung steht, um teure und aufwändige Re-Desings zu verhindern, eine möglichst umfangreiche Testabdeckung des Entwurfs gegenüber. Um die Zeit für die Tests zu reduzieren, kommen überwiegend FPGA-basierte HW-Emulatoren zum Einsatz. Durch den Einfluss der steigenden Komplexität aktueller Entwürfe auf die Emulator-Plattform reduziert sich jedoch signifikant die Performance der Emulatoren. Die in Emulatoren eingesetzten FPGAs sind aber zunehmend partiell zur Laufzeit rekonfigurierbar. Der in der vorliegenden Arbeit umgesetzte Ansatz behandelt die Anwendung von Methoden der Laufzeitrekonfiguration auf dem Gebiet der Hardware-Emulation. Dafür ist zunächst eine Partitionierung des zu testenden Entwurfs in möglichst funktional unabhängige Systemteile notwendig. Für eine optimierte und ressourceneffiziente Platzierung der einzelnen HW-Module während der Emulation, ist ein ebenfalls auf dem FPGA platziertes Kommunikationsnetzwerk implementiert. Der vorgestellte Ansatz wird an verschiedenen Beispielen anschaulich illustriert. So kann der Leser die Mächtigkeit der entwickelten Methodik nachvollziehen und wird motiviert, das Verfahren auch auf weitere Anwendungsfälle zu übertragen.Current circuit and system designs consist a lot of gate numbers and divergent requirements. In contrast to a short development and time to market schedule, the needs for perfect test coverage and quality are rising. One approach to cover this problem is the FPGA based functional test of electronic circuits. State of the art FPGA platforms doesn't consist enough gates to support fully custom designs. The thesis catches this problem and gives some approaches to use partial dynamic reconfiguration to solve the size problem. A fully automated design flow demonstrates partial partitioning of designs, modifications to use dynamic reconfiguration and its schedule. At the end of the work, some examples demonstrates the power of the approach

    Systematic modeling and analysis of distributed automation systems

    Get PDF
    Aufgrund der verbesserten Leistungsfähigkeit und der sinkenden Kosten von Kleinrechnern werden Steuerungseinheiten heute überwiegend dezentral in Verbünden organisiert. Zwar bieten solche verteilten Systeme die notwendige Flexibilität, um die steigenden Anforderungen erfüllen zu können, sie bringen aber auch viele Herausforderungen mit sich. Während der Entwicklungsprozess verteilter Automatisierungssysteme mittels einer durchgängigen Werkzeugkette unterstützt wird, erfolgen die Analysetätigkeiten zumeist isoliert und fokussiert auf eine konkrete Problemstellung innerhalb einer Lebenszyklusphase. Schwerpunkt der vorliegenden Arbeit ist daher eine Vorgehensweise zur systematischen und vereinheitlichten Analyse von verteilten Automatisierungssystemen. Die Anwendung der erarbeiteten Methodik erfolgt mittels strukturierter Modellierung und Modellausführung am Beispiel eines verteilten Gebäudeautomatisierungssystems. Ein wesentlicher Bestandteil des Vorgehens ist die Bereitstellung einer verständlichen und gleichzeitig detaillierten Beschreibung des zu analysierenden Systems über ein Systemmodell. Das Modell dient der Wissensrepräsentation und stellt die Basis für nachfolgende Analysen zur Ermittlung (nicht-)funktionaler Eigenschaften dar, indem es das Fundament weiterführender Analysemodelle skizziert. Die ausführbaren Modelle werden im weiteren Verlauf der Arbeit vorgestellt und mathematisch beschrieben. Die nach deren Ausführung der Modelle gewonnenen Analyseergebnisse werden dargestellt und zur Wissensanreicherung in das wissensbeschreibende Systemmodell zurückgeführt. Nichtfunktionale Eigenschaften wurden u.a. mit Hilfe von Simulationsmodellen am Beispiel folgender Problemstellungen aus der Entwurfsphase analysiert: • Eine mögliche Degradation der Signalqualität eines maximal ausgedehnten Bitübertragungssystems wurde untersucht und bewertet. • Die durch physikalisch bedingte Kommunikationsprozesse zwischen verteilten Gerätekomponenten und durch Zyklusübergänge zwischen verteilten Programmkomponenten verursachten Verzögerungszeiten wurden bestimmt. Weiterhin wurden für zwei Beispielsysteme die Eigenschaften der Beobachtbarkeit und der Steuerbarkeit ermittelt, wodurch die Grundlage für eine abschließende Online-Analyse geschaffen wurde. Eine Petrinetzumgebung, die eine direkte Anbindung an ein Realsystem erlaubt und damit eine Testausführung während der Inbetriebnahme bzw. eine Laufzeitanalyse im operativen Betrieb des Systems ermöglicht, wird vorgestellt.Today’s control systems are organized more and more in a decentralized way due to the improved performance properties and the declining costs of microprocessors. Distributed systems offer the flexibility to handle constantly increasing requirements. However, they also pose new challenges. A connected chain of tools supports the development process of a distributed automation system, while the analysis steps are performed separately. Thus, each analysis step focus only on one concrete problem within only one phase of the system live cycle. Therefore, the focus of the present work is on an approach for a systematic and unified analysis concept of distributed automation systems. The proposed concept is exemplary applied to a distributed building automation system by structured modeling and model execution. The essential part of the concept is the development of a system model, which provides an understandable and at once a detailed description of the system to be analyzed. The system model is useful for knowledge representation and provides the basis for the development of executable models by their mathematically description. The executable models can be used in further analysis processes. With their execution some identified (non-)functional characteristics were established for a distributed building automation system. Within the meaning of an accumulation of knowledge, the analysis results will be added to the system model. For the following typical problems, listed in relation to the development phase of a distributed automation system, some non-functional properties were analyzed by means of simulation models: • The signal distortion in maximum expanded physical layer systems was examined and evaluated. • The delay due to communication processes between distributed hardware devices and cycle transitions between distributed application programs were determined. Furthermore, the observability and controllability of two example systems are analyzed. Both properties are relevant to the preparation of a concept for an online analysis. For the final online analysis a framework is presented, which allows a direct connection of an Petri net with a real automation system. Based on this framework, an execution of a test case in the phase of the commissioning phase or a monitoring of runtimes during operation phase is possible

    Realisierungsmethodik von applikationsspezifischen Softcore FPGA-Lösungen: in Abhänigkeit von algorithmischen Anforderungen im Einsatzgebiet eingebetteter Systeme

    Get PDF
    Die vorliegende Dissertation befasst sich mit Prinzipien, Methodiken, Techniken und Realisierungen zur systematischen Entwicklung von komplexen eingebetteten Systemen unter Verwendung von Softcore Prozessoren. Die adressierte Aufgabendomäne ist vor allem die echtzeitkritische Daten- und Bildverarbeitung. Notwendig sind neue Lösungen aufgrund immer leistungsfähigerer eingebetteter Systeme, mit deren Hilfe Aufgabenfelder bedient werden können, die bisher mit diesen Systemen nicht umsetzbar waren. Aufbauend auf den Darstellungen bereits existierender Modelle und Verfahren, wie z. B. dem V-Modell oder dem Hardware-Software Co-Design, wird eine spezielle Realisierungsmethodik für applikationsspezifische Softcore FPGA-Lösungen in Abhängigkeit von algorithmischen Anforderungen in der Aufgabendomäne erarbeitet. In diesem Zusammenhang wird eine Softcore-Bibliothek mit an diese Domäne angepassten Eigenschaften konzipiert und umgesetzt. Das dabei verwendete modellbasierte Vorgehen ermöglicht durch eine hierarchische Beschreibung und Validierung eine zeit- und kosteneffiziente Entwicklung komplexer Systeme. Für jede Abstraktionsebene werden Modelle vorgestellt, die jeweils auf dieser alle notwendigen Anforderungen zur frühzeitigen Fehlererkennung und Fehlervermeidung sowie eine automatisierte Codegenerierung und Optimierungen sinnvoll umsetzen. Durch gezielte Festlegung einzuhaltender Kriterien und Entwicklungsschritte wird dabei in jeder Komponente der Toolchain eine bestmögliche Kombination von zeit- und kosteneffizienter Entwicklung mit der Sicherstellung der Einhaltung harter Echtzeiteigenschaften sowie einer Maximierung der Wiederverwendbarkeit, erreicht. Dabei spielt die Anpassbarkeit der eingebetteten Systeme mit Hilfe von partieller Rekonfiguration, mit der das dynamische Austauschen von Teilen des Softcores oder sogar ganzer Softcore Prozessoren zur Laufzeit ermöglicht wird, eine wichtige Rolle. Es erfolgen ein praktischer Nachweis der Funktionalität der erarbeiteten Modelle sowie ausführliche Experimente über die zeitlichen Anforderungen bei der partiellen Rekonfiguration von Softcore Prozessoren. Die praktischen Ergebnisse der Arbeit zeigen deutlich die Effizienz der Entwicklung von Lösungen mit der konzipierten und umgesetzten Toolchain sowie die Relevanz und Einsetzbarkeit der partiellen Rekonfiguration in diesem Gebiet.This dissertation focuses on principles, methods, techniques and realizations for the systematic development of complex embedded systems using softcore processors. The addressed domain is primarily real-time-critical data and image processing. New solutions are needed due to the increasing performance of embedded systems, allowing for a range of applications that were previously not solvable with these systems. Building on the concepts of already existing models and methods, e.g. the V-model or hardware-software-co-design, a special realization methodology for application-specific softcore FPGA solutions is developed, in conjunction with algorithmic requirements in the addressed domain. In this context, a softcore library with characteristics tailored to this domain is designed and implemented. Through a hierarchical description and validation, the model-based approach used in this thesis enables the time- and cost-efficient development of complex systems. For each abstraction level, models are presented that provide all necessary requisites for early error detection and prevention, as well as mostly automated code generation and code optimization. By defining relevant criteria and development steps, a parsimonious development with respect to time and cost is achieved in each component of the toolchain. This ensures strict adherence to the hard real-time properties and maximizes the reusability of the modules implemented for a specific project. The adaptability of the embedded systems through using partial reconfiguration plays an important role. Partial reconfiguration enables dynamic replacement of parts of the softcore or even entire softcore processors at runtime. A practical evaluation of the functionality of the developed models as well an extensive array of experiments concerning the time requirements for the partial reconfiguration of softcore processors are presented. The practical results of this thesis clearly demonstrate the efficiency of developing solutions with the designed and realized toolchain, as well as the relevance and applicability of partial reconfiguration in the addressed domain

    Hardware-Debugging durch die Kombination von Emulation und Simulation

    Get PDF
    '...Zugriffsfehler im Modul xyz...' - solche oder ähnliche Fehlermeldungen sehen Benutzer von Computern meist dann, wenn sie versuchen mit einem Programm Operationen auszuführen, die fehlerhaft programmiert wurden. Die Ursachen für derartige Fehler sind dabei recht vielfältig. Oftmals sind sie bereits in der benutzten Programmiersprache zu suchen, dazu kommen zusätzlich Fehler in den Compilern, Beschränkungen in dem Betriebssystem sowie Seiteneffekte anderer Programme, wie z.B. falsches Speichermanagement. Angeführt wird die Liste möglicher Fehlerquellen allerdings vom Menschen selbst. Wobei auch hier noch zu unterscheiden ist, ob der Mensch einen Fehler aus Unwissenheit gemacht hat, oder ob er dessen Relevanz einfach unterschätzt hat. In beiden Fällen wird es immer schwer sein in einem Endprodukt die genaue Ursache eines Fehlverhaltens zu lokalisieren. Ähnlich wie es zu Problemen bei der Erstellung von Software kommen kann, treten natürlich auch während der Entwicklung einer Schaltung grundlegende Schwierigkeiten auf..

    Informatikdidaktische Diskussion ĂĽber das Design eingebetteter Systeme

    Get PDF
    Die Ausbildung künftiger Entwickler eingebetteter Systeme ist heute geprägt von einer subjektiven, kulturspezifischen Gestaltung von Lehr-Lernprozessen, welche die Ergebnisse der Kompetenzforschung zumeist nicht berücksichtigen. Es besteht Konsens, dass in Kompetenzmodellen strukturierte Kompetenzen –kognitive Fähigkeiten und Fertigkeiten, um bestimmte Probleme zu lösen –notwendig sind, um zwischen abstrakten Bildungszielen und konkreten Lehr-Lernprozessen zu vermitteln. Damit stellen die Erforschung von Kompetenzmodellen und Pfaden der Kompetenzaneignung grundlegende Forschungsbedarfe zur Hochschuldidaktik der technischen Informatik dar. In dieser Arbeit werden Konzepte zur theoretischen Fundierung von Laborpraktika der technischen Informatik entwickelt, welche auf Ergebnissen des von der Deutschen Forschungsgemeinschaft geförderten Projektes Kompetenzentwicklung mit eingebetteten Mikro- und Nanosystemen (KOMINA) aufbauen. In der vorliegenden Arbeit wird das Verständnis von eingebetteten Systemen als Teil informatischer Curricula insofern erweitert, als dass sich diese Systeme als Lerngegenstand eignen, um Kompetenzen verschiedener Informatikdisziplinen zu fördern und damit nicht auf die technische Informatik beschränkt sind. Eine Taxonomie zur Vergleichbarkeit fachdidaktischer Publikationen zu eingebetteten Systemen wird weiterentwickelt und angewandt, um institutionelle Besonderheiten sowie die Vielseitigkeit des Praxisfeldes zu erfassen. Forschungsgegenstand ist das im Rahmen von KOMINA entwickelte Entwurfs- und Anwendungspraktikum für eingebettete Systeme. Zielgruppe sind Studierende der Informatik. Es werden typische Lernhürden identifiziert, wodurch neue Erkenntnisse, über die formative Evaluation des unter Beteiligung des Autors entwickelten und durchgeführten Praktikums hinaus, gewonnen werden. Diese Erkenntnisse begründen die Notwendigkeit neuer didaktischer Konzepte und lernförderlicher Software unter Berücksichtigung institutioneller Besonderheiten sowie zielgruppenspezifischer Vorkenntnisse. Kognitive Strukturen als Komponente didaktischer Systeme werden in diesem Forschungsprojekt erforscht. Sie dienen als Basis für die informatikdidaktische Verfeinerung des in KOMINA empirisch evaluierten Kompetenzstrukturmodells für das Entwickeln eingebetteter Mikro- und Nanosysteme. Bislang wurden Erarbeitungsreihenfolgen informatorischer Fachkonzepte in didaktischen Systemen betrachtet, welche drei Funktionen besitzen. Die Orientierung der Lernenden im Fachgebiet, die Organisation zur Planung von Lehr-Lernprozessen sowie die Diskussion didaktischer Entscheidungen. In diesem Beitrag zur Grundlagenforschung zur Hochschuldidaktik der technischen Informatik steht die Diskussion didaktischer Entscheidungen bei der Gestaltung von Lehr-Lernprozessen und Pfaden der Kompetenzaneignung im Vordergrund. Deshalb werden die Anforderungen an die Darstellung kognitiver Strukturen – Ausdrucksstärke, Übersichtlichkeit und Nachvollziehbarkeit – zugunsten der Diskussion didaktischer Entscheidungen angepasst. Der Autor stellt Forschern zur Hochschuldidaktik der technischen Informatik Konzepte bereit, die es ermöglichen Fachkonzepte und Lehr-Lernprozesse zu analysieren sowie durch Anpassung an institutionelle Besonderheiten theoretisch fundiert zu gestalten. Dies sind insbesondere eine Taxonomie zur Identifikation von Lernhürden, die Methodik zur Ausdifferenzierung von Kompetenzen mit Bezug zu den identifizierten Lernhürden, die Visualisierung kognitiver Strukturen mit diesen Kompetenzen im Zentrum sowie die in der Hauptverantwortung des Autors entwickelte lernunterstützende Software Explorative Learning and Visualization Environment. Diese dient als Beispiel für den Einsatz von Simulationen in Laborpraktika der technischen Informatik. Es wird damit exemplarisch gezeigt, wie die informatikdidaktische Verfeinerung des Kompetenzstrukturmodells in Verbindung mit kognitiven Strukturen und lernförderlicher Software zur Überwindung der mithilfe der entwickelten Taxonomie identifizierten Lernhürden eingesetzt werden können.Today, the education of future developers of embedded systems is characterized by a subjective, culture-specific design of teaching and learning processes. This design, mostly, does not take the results of research on competences into account. There is a consensus that competences – cognitive abilities and skills used to solve specific problems – and competence models are needed to mediate between abstract and concrete educational goals of teaching and learning processes. Therewith, the exploration of competence models and paths of competence acquisition are fundamental research needs for didactics of computer engineering at university. Within this work, based on the results of the project competence development with embedded micro- and nanosystems (KOMINA) funded by the German Research Foundation, approaches for a theoretical foundation of laboratory courses of computer engineering have been developed. Within this thesis, the understanding of embedded systems as a part of computer science curricula has been broadened since it is not limited to computer engineering. While these systems are also suitable as learning objects to promote competences within various computer science disciplines. A taxonomy to foster the comparability of research on didactics of computer engineering is further developed and applied in order to conceive institutional particularities and the versatility of the practice field. The design and application laboratory for embedded systems, developed in the context of KOMINA, is the object of research. Students of computer science are the target group. In addition to the formative evaluation of the developed laboratory the taxonomy enables the identification of typical learning barriers. These findings justify the need for new educational concepts as well as learning software, taking institutional particularities and target group specific knowledge into account. Cognitive structures as a component of Didactic Systems are investigated. As they serve as a basis for the refinement of the empirically evaluated competence structure model for the development of embedded micro- and nanosystems. So far, the sequences of teaching units have been considered in Didactic Systems, which posses three functions. The orientation of the learner in the topic, the organization of the planning of teaching and learning processes as well as the discussion of didactic decisions. In this work, regarding the contribution to basic research on didactics of computer engineering at university, the discussion of didactic decisions in the design of educational processes and paths of competence acquisition has priority. Therefore, the demands on the representation of cognitive structures – expressiveness, clarity and comprehensibility – are adjusted in favor of the discussion of didactic decisions. The author provides concepts which allow researchers to analyze technical concepts as well as to develop educational processes in a theoretically established manner. These are, in particular, a taxonomy to identify learning barriers, the methodology for the differentiation of competences related to the identified learning hurdles, and the visualization of cognitive structures with these competences at center. Additionally, the learning software Exploratory Learning and Visualization Environment, that has been developed with the author’s responsibility, is presented. This software serves as an example for the use of simulations in laboratory courses of computer engineering. Thus, the combination of the refinement of the competence structure model in conjunction with cognitive structures in addition to learning software, which can be applied to overcome the identified learning hurdles, is shown as an example
    corecore