495 research outputs found
Die Fülle des Konkreten am Skelett des Formalen
Softwaresysteme sind eine effektive technische Strategie zur Herstellung erfundener Wirklichkeiten. In unserer digitalen Kultur handeln programmierte Systeme bereits in beträchtlichem Maße anstelle von Menschen. Dabei gelingt wechselseitiges Aufeinander-‐ Reagieren von Menschen und programmgesteuerten Apparaturen nur dort, wo Software und Anwender sich auf einen gemeinsamen, oft unsichtbaren Kontext beziehen. Noch weiß die Apparatur nichts von ihrem Tun, es werden lediglich externe Ereignisse registriert und diese mit inneren Zuständen zu Antworten und Reaktionen verrechnet. Die elektronische Hardware fungiert dabei als Substrat und offenes Gefäß, das unterschiedliche Programme aufnehmen und so unterschiedliche Logiken der Interaktion realisieren kann. Im Programm selbst finden wir nur ein Spiel von Zeichen, das Größen und Symbole nach festen Regeln in Beziehung setzt und das Ergebnis in den Displays anzeigt oder mit Hilfe von Aktoren in Handlungen übersetzt. Wie aber halten die Zeichen die Verbindung zur Welt? Oder andersherum: Wie kommt ein Stück Welt in die Maschine? Am Beispiel der Geometrie wird in groben Zügen nachvollzogen, welche Abstraktionen, Idealisierungen und Modellvorstellungen im Spiel sind, bis geometrische Primitive als manipulierbare Objekte im Computer zur Verfügung stehen. Die verschiedenen Abstraktionsebenen, vom Anwendungsmodell über verschiedene formale Spezifikations-‐ und Softwareebenen bis zum binären Prozessorbefehl sind ein gut untersuchtes Feld im Software-‐Engineering. Doch die Quantifizierung und Formalisierung markiert nur den Weg in die Maschine und damit nur die Hälfte der Strecke. Im Vollzug des Rechnens findet eine Konkretisierung und Rekontextualisierung des Formalen statt. Zeichen werden rücktransformiert in Kontingenz und wahrnehmbare Qualität. Während im Zuge der Abstraktion eine radikale Säuberung des modellierten Weltausschnitts erfolgt die alles Sinnliche entfernt, sehen wir beim Prozessieren der Algorithmen die Umkehrung. Das nackte Skelett wird wieder angereichert und die ganze Fülle an Gedanken, Gefühlen und Interpretationsmöglichkeiten entfaltet sich aufs Neue. Doch wird nicht zurückgepackt was ehemals weggenommen wurde, sondern Anderes, das sich aus unterschiedlichen Quellen speist. Hier, in den Leerstellen der formalen Beschreibungen, nisten wesentliche Anteile des Reichtums, der Vielfalt und Qualität des Digitalen. Das Formale und das Konkrete dürfen aber nicht als Widersacher im Ringen um Fülle und Ästhetik betrachtet werden, sie bilden ein kraftvolles Gespann. Kluger Umgang könnte darin bestehen, die prinzipiellen Grenzen und Möglichkeiten des Formalen zu kennen, sich der instrumentellen Vernunft aber nicht auszuliefern, sondern sie in ihrer Wechselwirkung mit dem Konkreten zu untersuchen und fruchtbar zu machen.Quantification, formalization, and functionalization of our lifeworld are marking the way of the concrete into the machine. But in the process of calculation the phenomenons and contingencies come back. Here we consider this dependencies on the real world
Gewinnung von Tiefenkarten aus Fokusserien
In der vorliegenden Arbeit werden Verfahren zur Tiefenschätzung aus Fokusserien einer genauen Analyse unterzogen. Mögliche Fehlerquellen werden ausgehend vom optischen Abbildungsprozess bis hin zu den digitalen Bildverarbeitungsalgorithmen eingehend untersucht. Anhand der zu Grunde liegenden physikalischen Prinzipien werden die Fokus-Verfahren mit anderen optischen 3D-Meßtechniken verglichen und entsprechend eingeordnet. Allen bisherigen Verfahren zur Tiefenschätzung aus Fokusserien ist gemein, daß der optische Aufbau aus einer speziellen skalierungsfreien, der sogenannten telezentischen Optik bestehen muß. Andernfalls sind die sonst entstehenden Skalierungseffekte in einem zusätzlichen, fehlerbehafteten Schritt zu korrigieren. Ein im Rahmen dieser Arbeit entwickeltes neuartiges Verfahren zur simultanen Tiefen- und Bewegungsschätzung räumt diese gravierenden Limitierungen erfolgreich aus. Dazu wird die Fokusserie als Diffusionsprozess mit einer linearen, partiellen Differentialgleichung beschrieben. Die diesen Prozess beschreibenden Parameter werden mittels einer Total Least Squares Methode direkt aus der Fokusserie geschätzt. Die Tiefeninformation der Szene wird aus der gemessenen Diffusionskonstante errechnet. Abschließend werden alle vorgestellten Verfahren der Tiefenbestimmung an synthetischen und realen Fokusserien erprobt
Verfahren zur Analyse von Ähnlichkeit im Ortsbereich
The increasing use of high-resolution image sensors in both stationary and
mobile applications require improved image recognition algorithms. The Hausdorff
distance is a measure of the likeness of two sets of points, and can be used to
determine the resemblance of two sets of image points. However, is not widely
used. Therefore, this dissertation deals with a method of using the Hausdorff
distance to determine the resemblance of image regions. We introduce a suitable
model to describe linear deviations. We show how to compensate for these linear
deviations and use a probability distribution for their classification. We give
bounds for the non-linear deviations and minimize noise.
Our starting point is the mathematical description of the mentioned criterion
for deviation. We calculate deviation of pairs of image points and encode it in
a three-dimensional vector field. This vector field also contains the directions
in which differences are decreasing. Using this information we obtain a
probability density function which gives a measure of similarity. We interpret
transformation of distances as a stochastic vector process. This opens up new
directions for compensating for geometric displacements of image regions.
We then use our deviation model in a control loop to minimize linear
deformations. Our filter proves robust with respect to Gaussian noise. We show
equivalence of the metrics and for Gaussian noise. This is the main
prerequisite for hardwired speed improvements, and we use it in the design of a
distance processor.
With the help of our distance processor we show that our control loop is stable.
When using the directional information in the distance vector field we observe
an increase of the correlation of image regions in question. A correction
transformation greatly reduces sensitivity to noise of the Hausdorff distance.
Our resource-friendly VHDL design allows the real-time calculation of distance
vector fields with current FPGAs. The stability of our control loop improves
when we include neighboring regions to evaluate the likeness of image regions.
This is particularly true when comparing faces.Aus der zunehmenden Nutzung von hochauflösenden Bildsensoren in stationären sowie mobilen Anwendungsbereichen erwachsen neue Anforderungen an die Algorithmen der Bilderkennnung. Eines der ursprünglichsten Kriterien zur Beurteilung der Ähnlichkeit von Bildpunkten als Mengen findet aber nur wenig Beachtung, die Hausdorff-Distanz. Daher behandelt die vorliegende Arbeit ein
Verfahren zum Einsatz dieses Abstandsmaßes. Die Darlegungen umfassen die Einführung eines geeigneten Modells zur Beschreibung von linearen Abweichungen, deren Kompensation und Beurteilung anhand zugehöriger Wahrscheinlichkeitsverteilungen.
Ausgangspunkt dieser Arbeit sind die mathematische Beschreibung des genannten Kriteriums und die Berechnung einer Abweichungsinformation, die als dreidimensionales Distanzvektorfeld auch die Richtung zur Verringerung der Unterschiede enthält. Sie bilden die Grundlage für die Darstellungsformen der Häufigkeitsverteilungen und Wahrscheinlichkeitsdichten, anhand derer die Entscheidungen in Bezug auf Ähnlichkeit gefällt werden. Die Interpretation der
Distanztransformation als vektorieller Zufallsprozeß eröffnet völlig neue Möglichkeiten zur Kompensation von geometrischem Versatz der Bildinhalte.
Unter Nutzung des eingeführten Abweichungsmodells erfolgt die Anwendung einer Regelschleife zur Minimierung der linearen Deformation. Gleichzeit erweist sich das Filtersystem als unempfindlich gegenüber normalverteilten Störsignalen. Die
Zulässigkeit einer gewissen Gleichberechtigung der Metriken und für
normalverteiles Rauschen wird gezeigt. Daraus ergibt sich die wesentliche Voraussetzung für den Einsatz von schaltungstechnischen Beschleunigungsmaßnahmen, die im Entwurf eines Distanzprozessors münden.
Mit der Unterstützung des Distanzprozessors gelingt der Nachweis der Stabilität der Regelschleife. Gleichzeitig ist eine Erhöhung des Korrelationsfaktors der betrachteten Bildausschnitte unter Nutzung der Richtungsinformation des Distanzvektorfeldes zu beobachten. Die Einbeziehung der Nachbarschaftsregionen in die Beurteilung der Ähnlichkeit zur Korrektur von Verformungen erzielt besonders beim Vergleich von Gesichtern hervorragende Ergebnisse in Bezug auf
Stabilität der Regelschleife und Erhöhung der Aussagekraft der
Häufigkeitsverteilungen
Automatische Registrierung adaptiver Modelle zur Typerkennung technischer Objekte [online]
Anwendungen der Bildanalyse werden in zunehmendem Maße unter Verwendung dreidimensionaler Modelle realisiert und fusionieren auf diese Weise Methoden der Computergrafik und der Bildauswertung. Mit dem Ziel der automatischen Erfassung dynamischer Szenenaktivitäten ist in den letzten Jahren ein vermehrter Einsatz adaptiver Modelle zu beobachten.
In der vorliegenden Arbeit wird ein neu entwickeltes Verfahren zur automatischen Konstruktion adaptiver Modelle für technische Objekte vorgestellt. Ferner werden Module zur automatischen Anpassung dieser adaptiven Modelle an Grauwertbilder beschrieben, die durch Synthese-Analyse-Iterationen die Brücke zur Bildanalyse schlagen. Die zentrale Stärke der vorgestellten Komponenten liegt darin, dass sie aus Einzelbildern dreidimensionale Rekonstruktionen für unbekannte Objektvarianten liefern. Wie experimentell gezeigt wird, sind diese Rekonstruktionen geometrisch genauer als handelsübliche Modelle.
Die Leistungsfähigkeit der entwickelten Verfahren wird am Beispiel der Flugzeugtypisierung gezeigt. Darüber hinaus wird die Anwendbarkeit der Module zur Lageschätzung demonstriert
Ein Beitrag zur Entwicklung von Methoden zur Stereoanalyse und Bildsynthese im Anwendungskontext der Videokommunikation
This thesis contributes to the research area of stereo vision and view
synthesis in the field of private video communication. During private video
communication eye contact between the participants is typically lost due to
the different placement of the camera and the video window. The goal of
this thesis is to re-establish the eye contact by synthesizing of the view
of a virtual camera such that the virtual camera faces towards the
participant.
The thesis firstly sketches the positive effect of eye contact in video
communication. An in-depth review of mathematical foundations in the fields
of stereo vision and view synthesis follows. On this foundation the thesis
comprehensively covers the state of the art of image based rendering and
particularly of eye-gaze correction via 3D-analysis and synthesis.In the
first step of the method development the thesis establishes a model of
quality factors which determines decisions about camera placement and
recording system. Measurements with respect to synchronization and data
storage are presented. Local and global algorithms for stereo vision are
analyzed and adapted. The thesis contributes to the field of stereo vision
algorithms by means of development and combination of different cost
functions, consistency based inpainting, spatial and temporal smoothing and
segmentation with respect to the use case of private video communication.
Using the extracted disparity map, two approaches for view synthesis -
trifocal transfer and 3D warping - are employed and extended. One important
contribution of the thesis is a contour-based inpainting algorithm as well
as point base image smoothing techniques.
Two comprehensive subjective studies prove the assumption that eye contact
can be re-established by the proposed system. They demonstrate the well
perceived eye-contact as well as the significantly improved acceptance of
quality due to the developed methods compared to the initial situation. The
thesis finally discusses the results, followed by a qualitative comparison
to the state of the art.Die vorliegende Arbeit leistet einen Beitrag zum Forschungsbereich der
Stereoanalyse und Bildsynthese im speziellen Kontext der privaten
Videokommunikation. Bei der privaten Videokommunikation geht durch die
unterschiedliche Positionierung der Kamera und des Videofensters
typischerweise der Blickkontakt zwischen den Kommunikationsteilnehmern
verloren. Ziel dieser Arbeit ist die Wiederherstellung des Blickkontaktes
mittels der Synthese einer virtuellen Kameraansicht, die in Blickrichtung
der Kommunizierenden ausgerichtet ist.
Die Arbeit umreißt zunächst den positiven Einfluss des Blickkontaktes in
der Videokommunikation. Anschließend wird eine tiefgehende Betrachtung der
notwendigen technischen Grundlagen im Bereich Stereoanalyse und
Bildsynthese durchgeführt. Aufbauend auf diesen Grundlagen wird der der
Stand der Technik im Bereich des bildbasierten Renderings im Allgemeinen
sowie der Blickkorrektur mittels 3D-Analyse und -synthese im Speziellen
umfassend behandelt.
Zunächst wird ein Modell von Qualitätsparametern entwickelt, welches die
Entscheidungen hinsichtlich Kameraanordnung und Aufnahmesystem
determiniert. Notwendige Messungen hinsichtlich Synchronizität und
Datenspeicherung werden präsentiert. Im Bereich der Algorithmen der
Stereoanalyse werden etablierte lokale und globale Algorithmen analysiert
und adaptiert. Verschiedene Kostenmaße, konsistenzbasiertes Füllen,
zeitliche und örtliche Glättung sowie eine abschließende Segmentierung
werden hinsichtlich des konkreten Anwendungsfalls der Blickkorrektur in der
privaten Videokommunikation entwickelt. Darauf aufbauend werden die beiden
Syntheseverfahren des trifokalen Transfers sowie des 3D-Warpings weiter
entwickelt. Ein wichtiger Beitrag der Arbeit ist ein konturbasiertes
Füllverfahren sowie Maßnahmen im Bereich der Punktglättung.
Zwei umfangreiche Experimente mit zahlreichen Probanden bestätigen die
Korrektheit der Annahme, dass Blickkontakt durch das vorgestellte Verfahren
hergestellt werden kann. Sie demonstrieren sowohl die sehr gute Wahrnehmung
des Augenkontaktes als auch die signifikante Verbesserung der Akzeptanz und
subjektiven Qualitätswahrnehmung durch die entwickelten Algorithmen im
Vergleich zum Ausgangspunkt der Arbeit. Eine qualitativer Vergleich mit dem
Stand der Technik und eine Diskussion der Ergebnisse, gepaart mit einem
Ausblick in die Zukunft des behandelten Forschungsgebietes, schließen die
Arbeit ab
Kombinatorischer laserinduzierter Vorwärtstransfer zur Herstellung von biomolekularen Mikroarrays
In dieser Arbeit wurde der laserinduzierte Vorwärtstransfer (LIFT) für die kombinatorische Herstellung von biomolekularen Arrays, insbesondere Peptidarrays, adaptiert. Die ablaufenden physikalischen Vorgänge wurden aufgeklärt, der Prozess systematisch untersucht und optimiert, ein Demonstrator für Kooperationspartner nutzbar gemacht und Anwendungsbeispiele für die besonderen Möglichkeiten des Verfahrens gezeigt
10. Kolloquium Getriebetechnik: Technische Universität Ilmenau, 11. - 13. September 2013
In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen – das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.This conference volume contains the contributions of the 10th "Kolloquium Getriebetechnik" 2013 in Ilmenau. Mechanisms for weaving and braiding machines, for boards and chairs, a hammering mechanism for an upcoming mission to Mars, robotic systems for human-machine interfaces, a mechanism in a large telescope or precision instrument, a simple spring clip and compliant actuators and mechanisms – these are just a few of the interesting systems that can be found in this volume
Freiform-Optiken im Nahfeld von LEDs
Diese Arbeit beschäftigt sich mit dem Entwurfsprozess kompakter und effizienter optischer Systeme für die Allgemeinbeleuchtung. Im Vordergrund stehen dabei automatisierte Verfahren zum Design von Freiform-Optiken für Licht emittierende Dioden (LEDs). Als zentrales Ergebnis erweist sich die Methode der Optimierung mit Freiform-Deformation (OFFD), die schnelle und flexible Entwürfe für unterschiedliche Anwendungen erlaubt
- …