668 research outputs found
Verfahren zur verbesserten Approximation von Lichtverteilungen in der fotorealistischen Bildsynthese
Gegenstand der fotorealistischen Bildsynthese ist die Erzeugung realistisch wirkender Rasterbilder aus dreidimensionalen Szenen durch die Berechnung von Lichtverteilungen. Grundlage der Berechnung ist die Bildsynthesegleichung von Kajiya, als deren Lösung sich die gesuchte Lichtverteilung ergibt. Die Bildsynthesegleichung ist im allgemeinen nicht analytisch lösbar. Zur nĂ€herungsweisen Lösung sind im wesentlichen zwei Vorgehensweisen bekannt: Monte Carlo-Abtastverfahren und Finite-Elemente-Verfahren.In dieser Arbeit wird eine Verbesserung von Monte Carlo-Strahlverfolgung entwickelt, die bei gegebener Stichprobenanzahl Bilder signifikant besserer QualitĂ€t als bisher bekannte Verfahren liefert. Dies wird durch den Einsatz adaptiver hierarchischer Dichtefunktionen erreicht. Aus den Abtastungen der Strahlverfolgung werden als Nebenprodukt Approximationen des Integranden bestimmt, aus denen verbesserte Dichtefunktionen gewonnen werden, die zu einer Effizienzsteigerung des Monte Carlo-Integrationsverfahrens fĂŒhren.FĂŒr die Berechnung von Bildern fĂŒr den Fall der uniformen diffusen Reflexion (Radiosity-Berechnung) nach dem klassischen Finite-Elemente-Ansatz mit konstanten Basisfunktionen werden eine Reihe von Interpolationsverfahren fĂŒr die resultierende Radiosity-Funktion zur Verbesserung der visuellen Bilddarstellung angegeben. Diese basieren insbesondere auf Verfahren fĂŒr die Streudateninterpolation. Durch empirische Analyse wird eine Bewertung der untersuchten Verfahren durchgefĂŒhrt.FĂŒr die Implementierung und Analyse der Verfahren wurde eine Software-Architektur entwickelt. Designziele waren die Entwicklung einer flexibel Ă€nderbaren und erweiterbaren Testumgebung sowie die Ermöglichung der vergleichbaren empirischen Effizienzanalyse verschiedener Lösungsverfahren, indem soweit wie möglich dieselbe Implementierungsbasis genutzt wird und nur in wirklich unterschiedlichen Teilen unterschiedliche Algorithmen und deren Implementierung zum Einsatz kommen
Development of an instrument for evaluation of interferograms
A system for the evaluation of interference patterns was evaluated. A picture analysis system based on a computer with a television digitizer was used for digitizing and processing interferograms
Methods for constraint-based conceptual free-form surface design
Zusammenfassung
Der constraint-basierte Entwurf von Freiformflâchen ist eine mâchtige Methode im
Computer gestïżœtzten Entwurf. Bekannte Realisierungen beschrânken sich jedoch meist
auf Interpolation von Rand- und isoparametrischen Kurven. In diesem Zusammenhang
sind die sog. "Multi-patch" Methoden die am weitesten verbreitete Vorgehensweise. Hier
versucht man Flâchenverbânde aus einem Netz von dreidimensionalen Kurven (oft
gemischt mit unstrukturierten Punktewolken) derart zu generieren, dass die Kurven und
Punkte von den Flâchen interpoliert werden. Die Kurven werden als Rânder von
rechteckigen oder dreieckigen bi-polynomialen oder polynomialen Flâchen betrachtet.
Unter dieser Einschrânkung leidet die Flexibilitât des Verfahrens. In dieser Dissertation
schlagen wir vor, beliebige, d.h. auch nicht iso-parametrische, Kurven zu verwenden.
Dadurch ergeben sich folgende Vorteile: Erstens kann so beispielsweise eine B-spline
Flâche entlang einer benutzerdefinierten Kurve verformt werden wâhrend andere Kurven
oder Punkte fixiert sind. Zweitens, kann eine B-spline Flâche Kurven interpolieren, die sich
nicht auf iso-parametrische Linien der Flâche abbilden lassen. Wir behandeln drei Arten
von Constraints: Inzidenz einer beliebigen Kurve auf einer B-spline Flâche, Fixieren von
Flâchennormalen entlang einer beliebigen Kurve (dieser Constraint dient zur Herstellung
von tangentialen ĆĄbergângen zwischen zwei Flâchen) und die sog. Variational
Constrains. Letztere dienen unter anderem zur Optimierung der physikalischen und
optischen Eigenschaften der Flâchen. Es handelt sich hierbei um die Gausschen
Normalgleichungen der Flâchenfunktionale zweiter Ordnung, wie sie in der Literatur
bekannt sind.
Die Dissertation gliedert sich in zwei Teile. Der erste Teil befasst sich mit der Aufstellung
der linearen Gleichungssysteme, welche die oben erwâhnten Constraints reprâsentieren.
Der zweite Teil behandelt Methoden zum Lâsen dieser Gleichungssysteme. Der Kern des
ersten Teiles ist die Erweiterung und Generalisierung des auf Polarformen (Blossoms)
basierenden Algorithmus fïżœr Verkettung von Polynomen auf Bezier und B-spline Basis:
Gegeben sei eine B-spline Flâche und eine B-spline Kurve im Parameterraum der Flâche.
Wir zeigen, dass die Kontrollpunkte der dreidimensionalen Flâchenkurve, welche als
polynomiale Verkettung der beiden definiert ist, durch eine im Voraus berechenbare
lineare Tranformation (eine Matrix) der Flâchenkontrollpunkte ausgedrïżœckt werden
kânnen. Dadurch kânnen Inzidenzbeziehungen zwischen Kurven und Flâchen exakt und
auf eine sehr elegante und kompakte Art definiert werden. Im Vergleich zu den bekannten
Methoden ist diese Vorgehensweise effizienter, numerisch stabiler und erhâht nicht die
Konditionszahl der zu lâsenden linearen Gleichungen. Die Effizienz wird erreicht durch
Verwendung von eigens dafïżœr entwickelten Datenstrukturen und sorgfâltige Analyse von
kombinatorischen Eigenschaften von Polarformen. Die Gleichungen zur Definition von
Tangentialitâts- und Variational Constraints werden als Anwendung und Erweiterung
dieses Algorithmus implementiert. Beschrieben werden auch symbolische und
numerische Operationen auf B-spline Polynomen (Multiplikation, Differenzierung,
Integration). Dabei wird konsistent die Matrixdarstellung von B-spline Polynomen
verwendet.
Das Lâsen dieser Art von Constraintproblemen bedeutet das Finden der Kontrollpunkte
einer B-spline Flâche derart, dass die definierten Bedingungen erfïżœllt werden. Dies wird
durch Lâsen von, im Allgemeinen, unterbestimmten und schlecht konditionierten linearen
Gleichungssystemen bewerkstelligt. Da in solchen Fâllen keine eindeutige, numerisch
stabile Lâsung existiert, fïżœhren die ïżœblichen Methoden zum Lâsen von linearen
Gleichungssystemen nicht zum Erfolg. Wir greifen auf die Anwendung von sog.
Regularisierungsmethoden zurïżœck, die auf der Singulârwertzerlegung (SVD) der
Systemmatrix beruhen. Insbesondere wird die L-curve eingesetzt, ein "numerischer
Hochfrequenzfilter", der uns in die Lage versetzt eine stabile Lâsung zu berechnen.
Allerdings reichen auch diese Methoden im Allgemeinen nicht aus, eine Flâche zu
generieren, welche die erwïżœnschten âsthetischen und physikalischen Eigenschaften
besitzt. Verformt man eine Tensorproduktflâche entlang einer nicht isoparametrischen
Kurve, entstehen unerwïżœnschte Oszillationen und Verformungen. Dieser Effekt wird
"Surface-Aliasing" genannt. Wir stellen zwei Methoden vor um diese Aliasing-Effekte zu
beseitigen: Die erste Methode wird vorzugsweise fïżœr Deformationen einer existierenden
B-spline Flâche entlang einer nicht isoparametrischen Kurve angewendet. Es erfogt eine
Umparametrisierung der zu verformenden Flâche derart, dass die Kurve in der neuen
Flâche auf eine isoparametrische Linie abgebildet wird. Die Umparametrisierung einer B-
spline Flâche ist keine abgeschlossene Operation; die resultierende Flâche besitzt i.A.
keine B-spline Darstellung. Wir berechnen eine beliebig genaue Approximation der
resultierenden Flâche mittels Interpolation von Kurvennetzen, die von der
umzuparametrisierenden Flâche gewonnen werden. Die zweite Methode ist rein
algebraisch: Es werden zusâtzliche Bedingungen an die Lâsung des Gleichungssystems
gestellt, die die Aliasing-Effekte unterdrïżœcken oder ganz beseitigen. Es wird ein
restriktionsgebundenes Minimum einer Zielfunktion gesucht, deren globales Minimum bei
"optimaler" Form der Flâche eingenommen wird. Als Zielfunktionen werden
Glâttungsfunktionale zweiter Ordnung eingesetzt. Die stabile Lâsung eines solchen
Optimierungsproblems kann aufgrund der nahezu linearen Abhângigkeit des Gleichungen
nur mit Hilfe von Regularisierungsmethoden gewonnen werden, welche die vorgegebene
Zielfunktion berïżœcksichtigen. Wir wenden die sog. Modifizierte Singulârwertzerlegung in
Verbindung mit dem L-curve Filter an. Dieser Algorithmus minimiert den Fehler fïżœr die
geometrischen Constraints so, dass die Lâsung gleichzeitig mâglichst nah dem Optimum
der Zielfunktion ist.The constrained-based design of free-form surfaces is currently limited to tensor-product
interpolation of orthogonal curve networks or equally spaced grids of points. The, so-
called, multi-patch methods applied mainly in the context of scattered data interpolation
construct surfaces from given boundary curves and derivatives along them. The limitation
to boundary curves or iso-parametric curves considerably lowers the flexibility of this
approach. In this thesis, we propose to compute surfaces from arbitrary (that is, not only
iso-parametric) curves. This allows us to deform a B-spline surface along an arbitrary
user-defined curve, or, to interpolate a B-spline surface through a set of curves which
cannot be mapped to iso-parametric lines of the surface. We consider three kinds of
constraints: the incidence of a curve on a B-spline surface, prescribed surface normals
along an arbitrary curve incident on a surface and the, so-called, variational constraints
which enforce a physically and optically advantageous shape of the computed surfaces.
The thesis is divided into two parts: in the first part, we describe efficient methods to set
up the equations for above mentioned linear constraints between curves and surfaces. In
the second part, we discuss methods for solving such constraints. The core of the first part
is the extension and generalization of the blossom-based polynomial composition
algorithm for B-splines: let be given a B-spline surface and a B-spline curve in the domain
of that surface. We compute a matrix which represents a linear transformation of the
surface control points such that after the transformation we obtain the control points of the
curve representing the polynomial composition of the domain curve and the surface. The
result is a 3D B-spline curve always exactly incident on the surface. This, so-called,
composition matrix represents a set of linear curve-surface incidence constraints.
Compared to methods used previously our approach is more efficient, numerically more
stable and does not unnecessarily increase the condition number of the matrix. The thesis
includes a careful analysis of the complexity and combinatorial properties of the algorithm.
We also discuss topics regarding algebraic operations on B-spline polynomials
(multiplication, differentiation, integration). The matrix representation of B-spline
polynomials is used throughout the thesis. We show that the equations for tangency and
variational constraints are easily obtained re-using the methods elaborated for incidence
constraints.
The solving of generalized curve-surface constraints means to find the control points of
the unknown surface given one or several curves incident on that surface. This is
accomplished by solving of large and, generally, under-determined and badly conditioned
linear systems of equations. In such cases, no unique and numerically stable solution
exists. Hence, the usual methods such as Gaussian elimination or QR-decomposition
cannot be applied in straightforward manner. We propose to use regularization methods
based on Singular Value Decomposition (SVD). We apply the so-called L-curve, which
can be seen as an numerical high-frequency filter. The filter automatically singles out a
stable solution such that best possible satisfaction of defined constraints is achieved.
However, even the SVD along with the L-curve filter cannot be applied blindly: it turns out
that it is not sufficient to require only algebraic stability of the solution. Tensor-product
surfaces deformed along arbitrary incident curves exhibit unwanted deformations due to
the rectangular structure of the model space. We discuss a geometric and an algebraic
method to remove this, so-called, Surface aliasing effect. The first method reparametrizes
the surface such that a general curve constraint is converted to iso-parametric curve
constraint which can be easily solved by standard linear algebra methods without aliasing.
The reparametrized surface is computed by means of the approximated surface-surface
composition algorithm, which is also introduced in this thesis. While this is not possible
symbolically, an arbitrary accurate approximation of the resulting surface is obtained using
constrained curve network interpolation. The second method states additional constraints
which suppress or completely remove the aliasing. Formally we solve a constrained least
square approximation problem: we minimize an surface objective function subject to
defined curve constraints. The objective function is chosen such that it takes in the
minimal value if the surface has optimal shape; we use a linear combination of second
order surface smoothing functionals. When solving such problems we have to deal with
nearly linearly dependent equations. Problems of this type are called ill-posed. Therefore
sophisticated numerical methods have to be applied in order to obtain a set of degrees of
freedom (control points of the surface) which are sufficient to satisfy given constraints. The
remaining unused degrees of freedom are used to enforce an optically pleasing shape of
the surface. We apply the Modified Truncated SVD (MTSVD) algorithm in connection with
the L-curve filter which determines a compromise between an optically pleasant shape of
the surface and constraint satisfaction in a particularly efficient manner
Recommended from our members
Constructing the invisible - Computer graphics and the end of Optical Media
This media archaeology of early computer graphics tackles the relation between the imaginary and technical media. We focus on the algorithmic procedures and mathematical principles driving 3D computer graphics during the 1970âs and we frame them in a discussion about the end of optical media and a reflection on the current situation in which images, commanded by techno-codes, delineate and structure the dominant code of communication with which we imagine. Even though algorithmic simulations of optical worlds do not represent the end of optical media as Friedrich Kittler once argued, computer graphics can be seen retrospectively as an escalation in the production of invisibility. We introduce Frieder Nakeâs concept of âsubfacesâ to describe digital images as entities that are composed out of visible and invisible processes. The subface constitutes our methodological tool to analyze computer graphics historically, through three early problems of 3D computer graphics. We complement this media archeology of early computer graphics with discussing the dialogue between Kittler and VilĂ©m Flusser on the imaginary or techo-imagination
Analyse und Erzeugung von glatten FlĂ€chenĂŒbergĂ€ngen fĂŒr das CNC-FrĂ€sen
In dieser Arbeit werden numerisch stabile Methoden zur PrĂŒfung von Stetigkeiten an FlĂ€chenĂŒbergĂ€ngen vorgestellt und Algorithmen zur Erzeugung von G^2-stetigen FlĂ€chenĂŒbergĂ€ngen hergeleitet
Verbesserung der Prozesskette zur Herstellung mikrostrukturierter Linsen fĂŒr automobile Scheinwerfer
Diese Arbeit befasst sich mit der Auslegung, Herstellung und QualitĂ€tskontrolle mikrostrukturierter Linsen fĂŒr Scheinwerfer-Projektionssysteme. Es wird ein Algorithmus beschrieben, um glatte LinsenflĂ€chen zu strukturieren. Die Datenweitergabe zur Herstellung von Stahlwerkzeugen fĂŒr den Spritzgussprozess werden erlĂ€utert. Um die Werkzeuge zu qualifizieren wird ein âReverse Engineeringâ-Prozess vorgestellt
Simulation von Herzkatheterinterventionen bei Kleinkindern
Interventionelle Verfahren stellen seit vielen Jahren ein stetig wachsendes Gebiet in der Therapie angeborener Herzfehler dar. Dennoch existiert bis heute ein Mangel an adĂ€quaten Ausbildungsmethoden um junge Mediziner erfolgreich und risikoarm an die Verwendung dieser Therapien heranzufĂŒhren. Diese Arbeit beschĂ€ftigt sich mit der Entwicklung einer Simulationsumgebung zum Training von Herzkatheterinterventionen bei Kleinkindern. Neue Lösungsmöglichkeiten fĂŒr die physikalische Simulation medizinischer Instrumente (Katheter) im Zusammenspiel mit dem schlagendem Herzen werden vorgestellt. Der gezeigte Ansatz kombiniert hohe Geschwindigkeit in der Berechnung mit einer realistischen Bewegungssimulation und kann unabhĂ€ngig von Topologie und Form umliegender GefĂ€Ăe angewandt werden ohne dabei zugunsten der Performanz auf Freiheitsgrade verzichten zu mĂŒssen. Der prĂ€sentierte Ansatz basiert auf einem quasistatischen Modell und einer effizienten Energieminimierung. Ein Verfahren zur Deformation des schlagenden Herzens mittels einer in Echtzeit berechenbaren pseudoinversen Free Form Deformation Technik wird gezeigt und besprochen. Weiterhin wird ein schnelles, deskriptives Simulationsverfahren fĂŒr Kontrastmittelfluss vorgestellt, sowie eine Vielzahl grafischer Verfahren zur Nachbildung realistischanmutender Bildgebungsverfahren implementiert und ausgewertet. Es wird im Rahmen dieser Arbeit mittels eines voll funktionsfĂ€higen Prototypen gezeigt, dass mit heutigen Rechnern eine vollstĂ€ndig realistische Simulation von Herzkathetereingriffen bei Kleinkindern möglich ist
Anwendung computertomographischer Daten in Werkzeugen der Produktentwicklung
Die vorliegende Arbeit zeigt einen Prozess zur direkten Anwendung computertomographischer Daten in der Produktentwicklung. Grundlage bilden die nach der Erfassung und einer mathematischen Rekonstruktion generierten Schichtbildsequenzen.
Dieser Prozess besteht aus zwei unabhĂ€ngigen Umgebungen, einer CT- und einer CAD-Umgebung. Beide sind interaktiv ĂŒber einen dritten Baustein der ĂberfĂŒhrung und Interpretation miteinander verbunden.
Die CT-Umgebung dient zur Initialisierung, Visualisierung und Verwaltung der computertomographischen Daten. Die CAD-Umgebung bildet als etabliertes Werkzeug in der Produktentwicklung die systematische Basis zum modellieren und validieren der analytischen dreidimensionalen Modelldaten.
Ăber eine bidirektionale Kommunikations- und Interaktionsebene ist es möglich, ausgehend vom CAD-System, Informationen aus den CT-Daten gezielt, variabel und nutzerspezifisch fĂŒr mechanisch konstruktive Modellierungsprozesse zu generieren.:AbkĂŒrzungsverzeichnis
Symbolverzeichnis
1 Einleitung
1.1 Motivation
1.2 Problemstellung
1.3 Zielstellung
1.4 Aufbau der Arbeit
2 Stand der Technik
2.1 CT-Daten und deren Weiterverarbeitung
2.1.1 Allgemeines
2.1.2 Datenstruktur und Abbildungseigenschaften
2.1.3 Visualisierungsformen
2.1.4 ReprÀsentationsformen und Datenformate
2.1.5 Segmentierungsverfahren
2.1.6 Bestimmung charakteristischer Objektmerkmale
2.2 Methoden und Werkzeuge der Konstruktion
2.2.1 Ăbersicht
2.2.2 Modellierung auf Basis diskreter OberflÀchen
2.2.3 FlĂ€chenrĂŒckfĂŒhrung
2.2.4 Direkte und parametrische Modellierung
2.2.5 Modellierung mit Bilddaten
2.3 Prozessuale und technische Analyse
3 Computertomographische Daten in der CAD-Umgebung
3.1 Das Konzept
3.1.1 Definition der Rahmenbedingungen
3.1.2 Anforderungen an die Prozesskette
3.1.3 Objektinformationen aus CT-Daten
3.1.4 Voraussetzungen in CAD-Systemen
3.2 Der Entwurf des Gesamtprozesses
3.3 Die Datenvorbereitung
3.3.1 Eingangsinformationen und Visualisierungsformen
3.3.2 Ausrichtung und Registrierung
3.3.3 Eingrenzen des Betrachtungsbereiches
3.4 Das Prinzip der DatenĂŒberfĂŒhrung und Interpretation
3.5 Die Kommunikations- und Interaktionsebene
3.5.1 Methodenbeschreibung
3.5.2 ErgÀnzende Schnittansichten
3.5.3 Erstellen eines Freiformschnittes
3.5.4 Kontur- und Geometrieableitung
3.5.5 Partiell oberflÀchenbasierte Modellerstellung
4 Applikation und exemplarische Anwendung
4.1 Technische Realisierung
4.2 Beschreibung der Systemumgebung
4.3 Neukonstruktion eines individuellen SchÀdelimplantats
4.3.1 Anatomische Grundlagen
4.3.2 Problemstellung und Analyse
4.3.3 Modellierung
4.4 Anpassungskonstruktion des RĂ€derwerkes einer historischen Taschenuhr
4.4.1 Technische Grundlagen
4.4.2 Problemstellung und Analyse
4.4.3 Modellierung
4.5 Auswertung
5 Zusammenfassung und Ausblick
5.1 Zusammenfassung
5.2 Ausblick
Literaturverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Anlage
- âŠ