13 research outputs found

    Entwurf eingebetteter Systeme: Ausführbare Modelle und Fehlersuche

    Get PDF
    Graphische Modelle können mit Hilfe modellgetriebener Ansätze als Programmiersprachen für eingebettete Systeme genutzt werden. Die Arbeit schließt vorhandene Lücken und liefert einen Beitrag zur Zustandsvisualisierung während der Laufzeit zum Zweck der Fehlersuche in solchen Modellen. Dieser resultiert in der flexiblen Debugging-Architektur ModelScope. Die Leistungsfähigkeit von ModelScope wird durch Anbindung unterschiedlicher Modellierungsparadigmen und Ausführungsplattformen validiert

    HW/SW Co-Design Framework für Hochgeschwindigkeits-OFDM Signalverarbeitung

    Get PDF
    Im Rahmen dieser Arbeit wurde ein HW/SW Co-Design Framework zur Erstellung angepasster Multiprozessor System-on-Chips entwickelt, womit sich für moderne OFDM-Systeme neue Kompromisse zwischen Leistungsfähigkeit und Flexibilität erzielen lassen. Anhand unterschiedlicher Experimente zur Hochgeschwindigkeits-OFDM Übertragung wurde die Funktionalität der Systeme nachgewiesen sowie Datenraten im Gb/s-Bereich erzielt, was bisher lediglich unflexiblen, dedizierten Schaltkreisen vorbehalten war

    Algorithmen, Architekturen und Technologie der optoelektronischen Rechentechnik

    Get PDF
    Der Einsatz optischer Verbindungen in der Rechentechnik verspricht viele der heute bei der Kommunikation zwischen Leiterplatten und zwischen integrierten Schaltkreisen auftretende Engpässe zu lösen. Optische Verbindungen moderaler Parallelität (10-20 Kanäle) zwischen Baugruppen sind, wie die Ergebnisse dieser Arbeit zeigen, mittlerweile technisch machbar. Die effiziente Nutzung optischer Verbindungen im Bereich chip-to-chip zum Aufbau eines 3-dimensionalen optoelektronischen VLSI (3-D O E-VLSI) erfordert dagegen wesentlich stärkere Eingriffe in die Architektur derzeitiger VLSI-Systeme. Aufgabe der Informatik ist einerseits die Entwicklung geeigneter Architekturen und zugehöriger Algorithmen und andererseits der Nachweis der hardwaretechnischen Machbarkeit der entwickelten Architekturkonzepte. In der Arbeit werden eine Reihe von Architekturvorschlägen unterbreitet, die weitgehend bis auf die Hardwareebene spezifiziert sind und teilweise in ersten Demonstrator- und Testschaltkreisen realisiert wurden. Dies betrifft ein superskalares aus Superpipelinestufen aufgebautes optoelektronisches 3-D Rechenwerk für Ganzzahlarithmetik, einen binären neuronalen Assoziativspeicher, figurierbare Hardwarestrukturen, eine 3-D Architektur für alle Prozessoren, systolische Addierer und ein Architekturkonzept für einen digitalen optoelektronischen Bildverarbeitungsprozessor. Durch theoretische Vergleiche wird der Nachweis erbracht, daß für die genannten Architekturen durch den Einsatz eines hochdichten optischen Verbindungssystems Steigerungen der Durchsatzrate von 1-3 Größenordnungen gegenüber rein-elektronischen Systemen möglich sind. Für den Assoziativspeicher, die rekonfigurierbare Hardware und das 3-D Rechenwerk für Ganzzahlarithmetik wurden erste einfache OE-VLSI-Schaltkreise auf der Basis optischer Modulatoren und PN-Detektoren realisiert. Da der Entwurf solcher Systeme neue rechnergestützte Entwurfssysteme erfordert, werden ferner die im Rahmen der Arbeit durchgeführten Entwicklungen für ein Simulations- und Synthesewerkzeug für 3-D OE-VLSI-Systeme dargestellt

    FPGA-Cluster – Anwendungsgebiete und Kommunikationsstrukturen

    Get PDF
    Romoth J. FPGA-Cluster – Anwendungsgebiete und Kommunikationsstrukturen. Bielefeld: Universität Bielefeld; 2018.Fortschritte in der Fertigungstechnik von Halbleitern in Silizium ermöglichen hohe Integrationsdichten und somit den Entwurf von leistungsstarken digitalen logikverarbeitenden Elementen. Mit Hilfe hochparalleler anpassbarer flexibler Architekturen wie im Feld programmierbare Logik-Gatter-Anordnungen (engl.: Field Programmable Gate Array, FPGA) kann eine Vielzahl an Problemstellungen gelöst werden. Aufgrund der gebotenen Parallelität ist es selbst bei den verhältnismäßig geringen Taktraten des FPGAs, die den hochspezialisierten dedizierten Schaltungen anderer Systeme gegenüberstehen, möglich, harte Echtzeitschranken bei der Lösungsberechnung einzuhalten. Darüber hinaus ist die Energieeffizienz aufgrund des proportionalen Einflusses der Taktrate auf die dynamische Verlustleistung von Schaltungen wesentlich höher. Dennoch erfordern unterschiedliche Anwendungsszenarien von FPGAs eine derart hohe Anzahl an Logikressourcen, dass nur die Bündelung mehrerer FPGAs zu einem vernetzten Cluster eine effiziente Verarbeitung gewährleistet. Im Verlauf dieser Arbeit werden die Anforderungen an eine FPGA-Cluster-Lösung herausgestellt. Anhand eines Überblicks über die typischen Anwendungsfelder rekonfigurierbarer Logiksysteme können die grundlegenden Voraussetzungen identifiziert werden, die eine universell einsetzbare FPGA-Cluster-Architektur erfüllen muss. Insbesondere an die Kommunikationsinfrastruktur zwischen den einzelnen FPGAs im Cluster werden hohe Anforderungen in Bezug auf die Flexibilität gestellt. Die Anpassbarkeit an die individuellen Anforderungen der eingesetzten Algorithmen ist somit neben der Datenrate und der Latenz ein Kernelement bei der Entwicklung des FPGA-Clusters. Zur Evaluation von Systementwürfen wird eine Modellierung erarbeitet, die einen Vergleich auf Basis der Kommunikationsstrukturen ermöglicht. Eine darüber hinausgehende Optimierung des die Verbindungen im Cluster beschreibenden Graphen führt zu einer Minimierung der Latenz von Datenübertragungen und somit zu einer Leistungssteigerung des Gesamtsystems. Die identifizierten Anforderungen an ein flexibles, modulares und skalierbares FPGA-Cluster-System werden im Rahmen der Arbeit umgesetzt, so dass der RAPTOR-XPress-FPGA-Cluster entsteht, der zudem zur Steigerung der Ressourceneffizienz auf den Mehranwenderbetrieb ausgelegt ist. Auf diese Weise lassen sich in einer Anwendung ungenutzte FPGAs parallel für andere Aufgaben verwenden. Im Zusammenspiel mehrerer Arbeiten des Fachgebiets Kognitronik und Sensorik der Universität Bielefeld ist ein Beispielaufbau mit 16 RAPTOR-XPress-Trägersystemen und 64 FPGAs mit insgesamt 44 359 680 Logikzellen-Äquivalenten und 256 GB an lokalem Arbeitsspeicher realisiert worden. Durch die Umsetzung topologieoptimierter Verbindungsstrukturen kann eine gegenüber vergleichbaren Systemen um 28% gesteigerte Logikdichte erreicht werden, die zusammen mit der erzielbaren Datenrate von 16 x 11,5 Gbit/s die Leistungsfähigkeit der Kommunikationsinfrastruktur des FPGA-Clusters verdeutlicht

    Die Preisgabe sensibler Daten im Internet

    Get PDF
    Im Zuge dieser Magisterarbeit sollte der Frage nachgegangen werden, ob diejenigen Daten, die wir freiwillig im Internet hinterlassen bzw. veröffentlichen, spezifischere Formen von Überwachung zulassen. Dies wird mittels zweierlei Methoden bewerkstelligt. Auf der einen Seite soll eine umfassende Literaturrecherche und -analyse theoretische und rechtliche Grundlagen liefern, auf der anderen Seite soll eine empirische Erhebung in Form von qualitativen ExpertInneninterviews helfen, die konkretisierten Forschungsfragen zu beantworten, praxisorientierte Ansätze einzubeziehen, speziellere Aspekte zu beleuchten und das Material zu ergänzen. Nach der Einleitung in das Thema rücken zunächst grundlegende Begriffe in den Mittelpunkt. Die Dimensionen der Daten und der Privatsphäre werden charakterisiert und historisch sowie philosophisch erörtert, um danach die Preisgabe von Daten und dahinterliegende Motive zu deuten und mit Fallbeispielen zu versehen. Ein kommunikationswissenschaftlicher Kontext wird hergestellt, wenn die partizipativen Elemente des Mediums Internet und ihre Auswirkungen auf private Rückzugsgebiete erläutert werden. Rechtliche Aspekte fließen immer wieder ein, um die Normen im Umgang mit Datenschutz und Privatsphäre zu verstehen. Im Folgenden wird die Dimension der Überwachung aus verschiedenen Perspektiven unter die Lupe genommen. Ist erst eine sinnvolle Definition gefunden, können Theorien zur Überwachungsgesellschaft und dem selbstdisziplinierenden, leistungssteigernden Panoptismus eingebracht werden. Eng verbunden mit einer Technologie werden auch die technischen, medialen Artefakte der Überwachung einbezogen. Um später den eventuellen Zugriff seitens des Staats und wirtschaftlicher Unternehmen auf freiwillig veröffentlichte Daten zu überprüfen, rücken staatliche und wirtschaftliche Überwachung in den Fokus. Erst dann werden die Vorteile, Gefahren und etwaige Auswege aus Problemsituationen beschrieben. Die qualitativen ExpertInneninterviews werden in Form von problemzentrierten Leitfadeninterviews durchgeführt. Die Ergebnisse der empirischen Untersuchung besagen in Bezug auf die Hauptforschungsfrage, dass freiwillig preisgegebene Daten eine optimale Ergänzung zu anderen Formen der Datenerhebung darstellen. Da für die Verwendung bereitwillig veröffentlichte Daten keine Zustimmung erforderlich ist und sie derzeit auch keiner Zweckbindung unterliegen, stellen diese echten und genauen Daten gerade für Unternehmen einen profitablen Nutzen dar, um Marketingzwecken nachgehen zu können und Profile der KundInnen zu schärfen. Auf staatlicher Seite sieht das Unterfangen etwas problematischer aus, da die Behörden einen Rechtfertigungsgrund brauchen, um auf solche Daten zugreifen zu können. Um einen bestimmten Sachverhalt zu prüfen, ziehen aber vor allem Sicherheitsbehörden und Geheimdienste Informationen aus der „Public Intelligence“ heran. Gerade Netzwerkstrukturen lassen sich durch die Social Networks besonders gut skizzieren. Die größten Gefahren auf individueller Ebene sind, dass die Privatsphäre der Personen unbemerkt oder auch bewusst eingeschränkt wird, und diesen Nachteile widerfahren können, wenn Informationen in falsche Hände geraten. Gesellschaftlich gesehen liegen Gefahren einer Überwachung darin, dass sie in eine Verhaltensanpassung und -änderung mündet, die sich bei den Betroffenen aufgrund der potentiellen Möglichkeit, überwacht zu werden, einschleicht. Dies zieht Freiheitseinschränkungen nach sich, die einer liberalen, demokratischen Gesellschaft widersprechen. Zusätzlich kommt es zur Beweislastumkehr und zu einer gewissen Ironiefreiheit. Viele Beispiele belegen auch, dass Daten oft verloren gehen und missbraucht werden. In Diktaturen erschwert Überwachung Versuche, gegen die Machthabenden anzukämpfen.In this final thesis for M.A. degree it should be investigated whether the data we expose voluntarily on the internet, allows more specifically forms of surveillance. This will be shown by two different methods. On the one hand, the theoretical and legal foundations are provided by an extensive research and analysis of literature, on the other hand an empirical survey of qualitative interviews of experts should help to answer the substantiate research questions and to include practice orientated approaches. Furthermore it should be used to examine more specific aspects and to complete the material. The introduction into the topic is followed by the description of basic terms. The dimension of data and privacy will be characterized and argued historically and philosophically in order to indicate the motives behind the exposure of data. This will be underlined by case studies. The participative elements of the medium internet and the impact on private shelters reveal the context of communication studies. In the course of this work, legal aspects are consistently a vital necessity to understand the norms in association with data protection and privacy. Furthermore the dimension of surveillance will be examined from different perspectives. Firstly, there has to be found a useful definition. Then theories of our monitoring society and of self-disciplined, performance enhancing panopticism can be introduced. In addition, the technical, medial artefacts of surveillance are included closely linked to a technology. In order to validate the possible access of the state and economic enterprises to voluntarily published data, the focus will be on state-run and economic surveillance. The advantages, dangers and some resorts out of problem-situations can then be described. The qualitative interviews of the experts are implemented in the form of problem-centered guided interviews. In relation to the main research question the results of the empirical investigation indicate that voluntarily exposed data are an ideal amendment to other forms of data collection. Due to the fact that there is no affirmation needed for willingly published data and that it is not underlying any appropriation, this real and exact data is particularly for enterprises a profitable benefit in order to use it for marketing purposes and to sharpen the profiles of customers. Regarding the state, the access to such data is somewhat limited as the authorities need a warrant reason. As a matter of fact security agencies and the secret service often use information from “Public Intelligence” in order to examine a certain issue. Social networks are especially useful to outline network structures. For individuals the major dangers are that their privacy is restricted unnoticed or even deliberately and disadvantages may occur when their data is falling into false hands. Dangers of surveillance for society in general are adaption and change of behaviour which is caused by the potential opportunity to be monitored. Consequently, this results in a restriction of freedom which contradicts to a liberal, democratic society. Furthermore it generates a shifting of the burden of proof and a certain freedom of irony. Numerous examples allocate that data is often lost or abused. In dictatorships, surveillance complicates attempts to fight against the ruler

    Modulare, verteilte Hardware-Software-Architektur für humanoide Roboter

    Get PDF
    Humanoide Roboter sind hochkomplexe Systeme. Sie zeichnen sich durch ein sehr heterogenes Sensor- und Aktorsystem aus, welches wiederum sehr hohe und breit gefächerte Anforderungen an die verwendete Architektur stellt. Es wird sowohl der Entwurf einer funktionalen Steuerungsarchitektur, das verwendete Softwarerahmenwerk als auch die Abbildung auf eine dezidierte Hardwarearchitektur beschrieben

    Modulare, verteilte Hardware-Software-Architektur für humanoide Roboter

    Get PDF
    Humanoide Roboter sind hochkomplexe Systeme. Sie zeichnen sich durch ein sehr heterogenes Sensor- und Aktorsystem aus, welches wiederum sehr hohe und breit gefächerte Anforderungen an die verwendete Architektur stellt. Es wird sowohl der Entwurf einer funktionalen Steuerungsarchitektur, das verwendete Softwarerahmenwerk als auch die Abbildung auf eine dezidierte Hardwarearchitektur beschrieben
    corecore