16 research outputs found

    Journal of Applied Hydrography

    Get PDF
    Fokusthema: Habitatkartierun

    Berlin-Brandenburger Beitraege zur Bildungsforschung 2022

    Get PDF
    Die Reihe »Berlin-Brandenburger Beiträge zur Bildungsforschung« bietet ein Forum zur Veröffentlichung von Studien aus der empirischen Bildungsforschung. Der Fokus liegt auf Arbeiten mit besonderem Bezug zum Raum Berlin und Brandenburg. Dabei finden qualitative und quantitative Zugänge gleichermaßen Berücksichtigung

    Transklassische maschinelle Systeme : Ein Beitrag zur inhaltlichen Bestimmung von Luhmanns "Unbestimmtheitsstelle" für "Computer"

    Get PDF
    Ziel dieser Arbeit ist es, eine partikulare und in ihrem Zugang originäre (technik-)philosophische Präzisierung, wenn nicht gar punktuelle Fortschreibung der Systemtheorie nach Niklas Luhmann vorzulegen. Den Ausgangspunkt bildet die von Luhmann in seiner Theoriearchitektur ausdrücklich offengehaltene Unbestimmtheitsstelle für Computer und deren potentielle strukturelle Kopplung mit anderen Systemen, namentlich mit Kommunikations- und Bewusstseinssystemen. Aus Gründen der Komplexitätsreduktion richtet sich der Fokus in dieser Arbeit auf die strukturellen Kopplungen mit Kommunikationssystemen. Besondere Berücksichtigung findet Luhmanns expliziter Rückgriff auf Gotthard Günthers Konzept der trans-klassischen Maschine. Als Ergebnis zeigt sich, dass Luhmanns Entscheidung, mit Bezug auf Computer im Rückgriff auf Günther von transklassischen Maschinen zu schreiben, dann gerechtfertigt ist, wenn mit 'Computer' ‚intelligente‘, d. h. kontextsensitive (oder: adaptive), auf maschinellem Lernen basierende Systeme bezeichnet werden. Für sie wird in dieser Arbeit der Terminus 'transklassische maschinelle Systeme' gewählt und in den systemtheoretischen Kontext eingeführt. Im Weiteren wird deutlich, dass geschriebene formale Sprache, kurz: formale Schrift, als grundlegendes Medium der strukturellen Kopplung von sozialen Systemen (Kommunikationssystemen) und transklassischen maschinellen Systemen fungiert. Besonders erwähnenswert: Transklassische maschinelle Systeme operieren nicht gänzlich ohne Sinngebrauch (Luhmann), sondern verfügen über begrenzte Wahlmöglichkeiten, innerhalb derer sie proto-kontingent zu selegieren vermögen. Offensichtlich ist, dass Luhmann, nicht zuletzt zeithistorisch bedingt, in seinen Ausführungen von digital operierenden Computern bzw. Systemen ausgeht. Mit seinem Rückgriff auf Günthers Konzept der trans-klassischen Maschine zur Kennzeichnung von Computern, ebnet er, so die These, für die soziologische Systemtheorie den Weg für eine weitere Öffnung, d. h. für den unmittelbaren theoretischen bzw. diskursiven Anschluss an die nächste Computergeneration des Quantencomputings. Die hier vorliegende Arbeit bezieht sich auf kontextsensitive digitale Computersysteme. Nicht auszuschließen ist, dass sich wesentliche Erkenntnisse – dank ihres Abstraktionsgrades – auch auf künftige bzw. sich in der Entwicklung befindliche Systeme, wie etwa Quantencomputer, übertragen lassen. Schlüsselwörter (Keywords): Systemtheorie (Luhmann), Computer, transklassische maschinelle Systeme, trans-klassische Maschine (Günther), Unbestimmtheitsstelle (Luhmann), Sinn (Luhmann), Technik (Luhmann), strukturelle Kopplung (Maturana; Luhmann), formale Schriften, operative Schriften (Krämer), autooperative Schrift (Grube), menschliche und maschinelle Schreibe (Mahr), Programmcodes, technisierte Sinn-Form, Proto-Sinn (Lorentzen), Proto-Kontingenz, proto-kontingente Selektione

    Three-Dimensional Processing-In-Memory-Architectures: A Holistic Tool For Modeling And Simulation

    Get PDF
    Die gemeinhin als Memory Wall bekannte, sich stetig weitende Leistungslücke zwischen Prozessor- und Speicherarchitekturen erfordert neue Konzepte, um weiterhin eine Skalierung der Rechenleistung zu ermöglichen. Da Speicher als die Beschränkung innerhalb einer Von-Neumann-Architektur identifiziert wurden, widmet sich die Arbeit dieser Problemstellung. Obgleich dreidimensionale Speicher zu einer Linderung der Memory Wall beitragen können, sind diese alleinig für die zukünftige Skalierung ungenügend. Aufgrund höherer Effizienzen stellt die Integration von Rechenkapazität in den Speicher (Processing-In-Memory, PIM) ein vielversprechender Ausweg dar, jedoch existiert ein Mangel an PIM-Simulationsmodellen. Daher wurde ein flexibles Simulationswerkzeug für dreidimensionale Speicherstapel geschaffen, welches zur Modellierung von dreidimensionalen PIM erweitert wurde. Dieses kann Speicherstapel wie etwa Hybrid Memory Cube standardkonform simulieren und bietet zugleich eine hohe Genauigkeit indem auf elementaren Datenpaketen in Kombination mit dem Hardware validierten Simulator BOBSim modelliert wird. Ein eigens entworfener Simulationstaktbaum ermöglicht zugleich eine schnelle Ausführung. Messungen weisen im funktionalen Modus eine 100-fache Beschleunigung auf, wohingegen eine Verdoppelung der Ausführungsgeschwindigkeit mit Taktgenauigkeit erzielt wird. Anhand eines eigens implementierten, binärkompatiblen GPU-Beschleunigers wird die Modellierung einer vollständig dreidimensionalen PIM-Architektur demonstriert. Dabei orientieren sich die maximalen Hardwareressourcen an einem PIM-Beschleuniger aus der Literatur. Evaluiert wird einerseits das GPU-Simulationsmodell eigenständig, andererseits als PIM-Verbund jeweils mit Hilfe einer repräsentativ gewählten, speicherbeschränkten geophysikalischen Bildverarbeitung. Bei alleiniger Betrachtung des GPU-Simulationsmodells weist dieses eine signifikant gesteigerte Simulationsgeschwindigkeit auf, bei gleichzeitiger Abweichung von 6% gegenüber dem Verilator-Modell. Nachfolgend werden innerhalb dieser Arbeit unterschiedliche Konfigurationen des integrierten PIM-Beschleunigers evaluiert. Je nach gewählter Konfiguration kann der genutzte Algorithmus entweder bis zu 140GFLOPS an tatsächlicher Rechenleistung abrufen oder eine maximale Recheneffizienz von synthetisch 30% bzw. real 24,5% erzielen. Letzteres stellt eine Verdopplung des Stands der Technik dar. Eine anknüpfende Diskussion erläutert eingehend die Resultate.The steadily widening performance gap between processor- and memory-architectures - commonly known as the Memory Wall - requires novel concepts to achieve further scaling in processing performance. As memories were identified as the limitation within a Von-Neumann-architecture, this work addresses this constraining issue. Although three-dimensional memories alleviate the effects of the Memory Wall, the sole utilization of such memories would be insufficient. Due to higher efficiencies, the integration of processing capacity into memories (so-called Processing-In-Memory, PIM) depicts a promising alternative. However, a lack of PIM simulation models still remains. As a consequence, a flexible simulation tool for three-dimensional stacked memories was established, which was extended for modeling three-dimensional PIM architectures. This tool can simulate stacked memories such as Hybrid Memory Cube standard-compliant and simultaneously offers high accuracy by modeling on elementary data packets (FLIT) in combination with the hardware validated BOBSim simulator. To this, a specifically designed simulation clock tree enables an rapid simulation execution. A 100x speed up in simulation execution can be measured while utilizing the functional mode, whereas a 2x speed up is achieved during clock-cycle accuracy mode. With the aid of a specifically implemented, binary compatible GPU accelerator and the established tool, the modeling of a holistic three-dimensional PIM architecture is demonstrated within this work. Hardware resources used were constrained by a PIM architecture from literature. A representative, memory-bound, geophysical imaging algorithm was leveraged to evaluate the GPU model as well as the compound PIM simulation model. The sole GPU simulation model depicts a significantly improved simulation performance with a deviation of 6% compared to a Verilator model. Subsequently, various PIM accelerator configurations with the integrated GPU model were evaluated. Depending on the chosen PIM configuration, the utilized algorithm achieves 140GFLOPS of processing performance or a maximum computing efficiency of synthetically 30% or realistically 24.5%. The latter depicts a 2x improvement compared to state-of-the-art. A following discussion showcases the results in depth

    Jahresbericht 2010 / Institut für Angewandte Informatik (KIT Scientific Reports ; 7601)

    Get PDF
    Das Institut für Angewandte Informatik (IAI) ist eine Organisationseinheit des Karlsruher Instituts für Technologie (KIT), Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft. Das Institut betreibt Forschung und Entwicklung auf dem Gebiet innovativer, anwendungsorientierter Informations-, Automatisierungs- und Systemtechnik

    Jahresbericht 2009 der Fakultät für Informatik

    Get PDF

    Lernen, Lehren und Forschen in einer digital geprägten Welt. Gesellschaft für Didaktik der Chemie und Physik. Jahrestagung in Aachen 2022

    Full text link
    Die Tagung der Gesellschaft für Didaktik der Chemie und Physik (GDCP) fand vom 12. bis zum 15. September 2022 an der RWTH Aachen statt. Der vorliegende Band umfasst die ausgearbeiteten Beiträge der Teilnehmenden zum Thema: "Lernen, Lehren und Forschen in der digital geprägten Welt"

    Ansichtsbasierte 6 DoF Objekterkennung mit lokalen kovarianten Regionen

    Get PDF
    Diese Arbeit präsentiert einen neuen Ansatz zur Detektion und Lokalisation von Objekten, welcher die lokale Deformation korrespondierender, kovarianter Regionen nutzt, um die 6 Freiheitsgrade (DoF) einer Starrkörpertransformation zwischen einer Menge registrierter Modell- und Kameraansichten zu schätzen. Dazu werden Algorithmen entworfen, die es erlauben, aus jeder einzelnen Regionenkorrespondenz eine unabhängige 6 DoF Lagehypothese abzuleiten, falls die Oberflächennormale und Tiefe eines Regionenzentrums bekannt ist. Cluster dieser lokalen Hypothesen werden als grobe Lokalisierung und robuste Segmentierung bzw. Ausreißereliminierung für eine nachfolgende globale Lageerkennung genutzt. Dieses Vorgehen erlaubt eine integrierte Verarbeitung aller vorhandener Modell- und Kameraansichten und erlaubt die Fusion unterschiedlicher kovarianter Regionentypen, inkl. Regionen auf Basis von Tiefenbildern. Die nachfolgende Auswertung ermittelt die 6 DoF Objektlage, welche am besten den 2D-3D oder 3D-3D Korrespondenzen der Regionenzentren innerhalb eines Clusters entspricht. Die Kombination von lokaler und globaler Auswertung erlaubt selbst bei starken Beleuchtungsstörungen, großen Blickwinkeländerungen, Verdeckungen, Mehrdeutigkeiten und komplexen Szenen eine akkurate und robuste Lokalisation. Dies wurde anhand 6 Bauteilen und ausführlichen Experimenten verifiziert, wobei Genauigkeiten der Lage unter 1mm und 1° erreicht werden konnten. Nahezu alle Algorithmen sind fein granular parallelisierbar und ermöglichen daher eine Auswertezeit auf moderner Hardware unter 0.4s. Das Einlernen eines Objektmodells erfolgt mit Hilfe eines Industrieroboters und einer darauf montierten Stereokamera vollständig autonom
    corecore