98 research outputs found
PatchMatch algorithms for motion estimation and stereo reconstruction
Correspondence problems are difficult and fundamental topics in computer vision, which aim to find the displacement field between two consecutive images within an image sequence. Both stereo matching and motion estimation belong to the domain of correspondence problems. A common technique is to define a parametric model and estimate its parameters via some optimization algorithms. In this context, this thesis extends the recently proposed PatchMatch algorithm, which is originally designed for finding approximate nearest neighbors, to model parameter estimation. Specifically, there are three purposes of this thesis: (i) We analyze and extend the PatchMatch algorithm to model parameter estimation. (ii) Afterwards, some commonly used parametric models for motion estimation and stereo matching in the literature are reviewed. (iii) Finally, the extended PatchMatch algorithm is implemented and applied to estimate the model parameters summarized above. The estimation performance is evaluated and compared with some other methods in the literature based on the three public benchmarks: Middlebury, KITTI and MPI Sintel
Coupling methods for non-matching meshes through distributed Lagrange multipliers
Nature and engineering commonly present multi-physics problems, i.e., complex systems involving a number of mutually interacting subsystems that can be modelled by (non linearly coupled) Partial Differential Equations (PDEs).
As a tool to numerically model such problems, we study the fictitious domain method with Lagrange multipliers. After introducing an example model problem, a constrained Poisson equation, where the constraint is applied either to a codimension one domain or to a codimension zero domain, we deal with the technical problems related to the implementation of the coupled system, with a focus on the computation of coupling matrices, and the numerical coupling between arbitrarily distributed non-matching meshes. To conclude, we use the fictitious domain method to study composites materials, in particular fiber reinforced materials. After introducing the necessary tools of continuum mechanics and differential geometry, we develop a full three-dimensional model, where the effect of the fibers is imposed through a distributed Lagrange multiplier approach. We study our model using inf-sup conditions from Mixed Finite Elements, and derive a one-dimensional model where the coupling is achieved introducing some additional modellistic hypotheses
Methods for constraint-based conceptual free-form surface design
Zusammenfassung
Der constraint-basierte Entwurf von Freiformfl„chen ist eine m„chtige Methode im
Computer gest�tzten Entwurf. Bekannte Realisierungen beschr„nken sich jedoch meist
auf Interpolation von Rand- und isoparametrischen Kurven. In diesem Zusammenhang
sind die sog. "Multi-patch" Methoden die am weitesten verbreitete Vorgehensweise. Hier
versucht man Fl„chenverb„nde aus einem Netz von dreidimensionalen Kurven (oft
gemischt mit unstrukturierten Punktewolken) derart zu generieren, dass die Kurven und
Punkte von den Fl„chen interpoliert werden. Die Kurven werden als R„nder von
rechteckigen oder dreieckigen bi-polynomialen oder polynomialen Fl„chen betrachtet.
Unter dieser Einschr„nkung leidet die Flexibilit„t des Verfahrens. In dieser Dissertation
schlagen wir vor, beliebige, d.h. auch nicht iso-parametrische, Kurven zu verwenden.
Dadurch ergeben sich folgende Vorteile: Erstens kann so beispielsweise eine B-spline
Fl„che entlang einer benutzerdefinierten Kurve verformt werden w„hrend andere Kurven
oder Punkte fixiert sind. Zweitens, kann eine B-spline Fl„che Kurven interpolieren, die sich
nicht auf iso-parametrische Linien der Fl„che abbilden lassen. Wir behandeln drei Arten
von Constraints: Inzidenz einer beliebigen Kurve auf einer B-spline Fl„che, Fixieren von
Fl„chennormalen entlang einer beliebigen Kurve (dieser Constraint dient zur Herstellung
von tangentialen šberg„ngen zwischen zwei Fl„chen) und die sog. Variational
Constrains. Letztere dienen unter anderem zur Optimierung der physikalischen und
optischen Eigenschaften der Fl„chen. Es handelt sich hierbei um die Gausschen
Normalgleichungen der Fl„chenfunktionale zweiter Ordnung, wie sie in der Literatur
bekannt sind.
Die Dissertation gliedert sich in zwei Teile. Der erste Teil befasst sich mit der Aufstellung
der linearen Gleichungssysteme, welche die oben erw„hnten Constraints repr„sentieren.
Der zweite Teil behandelt Methoden zum L”sen dieser Gleichungssysteme. Der Kern des
ersten Teiles ist die Erweiterung und Generalisierung des auf Polarformen (Blossoms)
basierenden Algorithmus f�r Verkettung von Polynomen auf Bezier und B-spline Basis:
Gegeben sei eine B-spline Fl„che und eine B-spline Kurve im Parameterraum der Fl„che.
Wir zeigen, dass die Kontrollpunkte der dreidimensionalen Fl„chenkurve, welche als
polynomiale Verkettung der beiden definiert ist, durch eine im Voraus berechenbare
lineare Tranformation (eine Matrix) der Fl„chenkontrollpunkte ausgedr�ckt werden
k”nnen. Dadurch k”nnen Inzidenzbeziehungen zwischen Kurven und Fl„chen exakt und
auf eine sehr elegante und kompakte Art definiert werden. Im Vergleich zu den bekannten
Methoden ist diese Vorgehensweise effizienter, numerisch stabiler und erh”ht nicht die
Konditionszahl der zu l”senden linearen Gleichungen. Die Effizienz wird erreicht durch
Verwendung von eigens daf�r entwickelten Datenstrukturen und sorgf„ltige Analyse von
kombinatorischen Eigenschaften von Polarformen. Die Gleichungen zur Definition von
Tangentialit„ts- und Variational Constraints werden als Anwendung und Erweiterung
dieses Algorithmus implementiert. Beschrieben werden auch symbolische und
numerische Operationen auf B-spline Polynomen (Multiplikation, Differenzierung,
Integration). Dabei wird konsistent die Matrixdarstellung von B-spline Polynomen
verwendet.
Das L”sen dieser Art von Constraintproblemen bedeutet das Finden der Kontrollpunkte
einer B-spline Fl„che derart, dass die definierten Bedingungen erf�llt werden. Dies wird
durch L”sen von, im Allgemeinen, unterbestimmten und schlecht konditionierten linearen
Gleichungssystemen bewerkstelligt. Da in solchen F„llen keine eindeutige, numerisch
stabile L”sung existiert, f�hren die �blichen Methoden zum L”sen von linearen
Gleichungssystemen nicht zum Erfolg. Wir greifen auf die Anwendung von sog.
Regularisierungsmethoden zur�ck, die auf der Singul„rwertzerlegung (SVD) der
Systemmatrix beruhen. Insbesondere wird die L-curve eingesetzt, ein "numerischer
Hochfrequenzfilter", der uns in die Lage versetzt eine stabile L”sung zu berechnen.
Allerdings reichen auch diese Methoden im Allgemeinen nicht aus, eine Fl„che zu
generieren, welche die erw�nschten „sthetischen und physikalischen Eigenschaften
besitzt. Verformt man eine Tensorproduktfl„che entlang einer nicht isoparametrischen
Kurve, entstehen unerw�nschte Oszillationen und Verformungen. Dieser Effekt wird
"Surface-Aliasing" genannt. Wir stellen zwei Methoden vor um diese Aliasing-Effekte zu
beseitigen: Die erste Methode wird vorzugsweise f�r Deformationen einer existierenden
B-spline Fl„che entlang einer nicht isoparametrischen Kurve angewendet. Es erfogt eine
Umparametrisierung der zu verformenden Fl„che derart, dass die Kurve in der neuen
Fl„che auf eine isoparametrische Linie abgebildet wird. Die Umparametrisierung einer B-
spline Fl„che ist keine abgeschlossene Operation; die resultierende Fl„che besitzt i.A.
keine B-spline Darstellung. Wir berechnen eine beliebig genaue Approximation der
resultierenden Fl„che mittels Interpolation von Kurvennetzen, die von der
umzuparametrisierenden Fl„che gewonnen werden. Die zweite Methode ist rein
algebraisch: Es werden zus„tzliche Bedingungen an die L”sung des Gleichungssystems
gestellt, die die Aliasing-Effekte unterdr�cken oder ganz beseitigen. Es wird ein
restriktionsgebundenes Minimum einer Zielfunktion gesucht, deren globales Minimum bei
"optimaler" Form der Fl„che eingenommen wird. Als Zielfunktionen werden
Gl„ttungsfunktionale zweiter Ordnung eingesetzt. Die stabile L”sung eines solchen
Optimierungsproblems kann aufgrund der nahezu linearen Abh„ngigkeit des Gleichungen
nur mit Hilfe von Regularisierungsmethoden gewonnen werden, welche die vorgegebene
Zielfunktion ber�cksichtigen. Wir wenden die sog. Modifizierte Singul„rwertzerlegung in
Verbindung mit dem L-curve Filter an. Dieser Algorithmus minimiert den Fehler f�r die
geometrischen Constraints so, dass die L”sung gleichzeitig m”glichst nah dem Optimum
der Zielfunktion ist.The constrained-based design of free-form surfaces is currently limited to tensor-product
interpolation of orthogonal curve networks or equally spaced grids of points. The, so-
called, multi-patch methods applied mainly in the context of scattered data interpolation
construct surfaces from given boundary curves and derivatives along them. The limitation
to boundary curves or iso-parametric curves considerably lowers the flexibility of this
approach. In this thesis, we propose to compute surfaces from arbitrary (that is, not only
iso-parametric) curves. This allows us to deform a B-spline surface along an arbitrary
user-defined curve, or, to interpolate a B-spline surface through a set of curves which
cannot be mapped to iso-parametric lines of the surface. We consider three kinds of
constraints: the incidence of a curve on a B-spline surface, prescribed surface normals
along an arbitrary curve incident on a surface and the, so-called, variational constraints
which enforce a physically and optically advantageous shape of the computed surfaces.
The thesis is divided into two parts: in the first part, we describe efficient methods to set
up the equations for above mentioned linear constraints between curves and surfaces. In
the second part, we discuss methods for solving such constraints. The core of the first part
is the extension and generalization of the blossom-based polynomial composition
algorithm for B-splines: let be given a B-spline surface and a B-spline curve in the domain
of that surface. We compute a matrix which represents a linear transformation of the
surface control points such that after the transformation we obtain the control points of the
curve representing the polynomial composition of the domain curve and the surface. The
result is a 3D B-spline curve always exactly incident on the surface. This, so-called,
composition matrix represents a set of linear curve-surface incidence constraints.
Compared to methods used previously our approach is more efficient, numerically more
stable and does not unnecessarily increase the condition number of the matrix. The thesis
includes a careful analysis of the complexity and combinatorial properties of the algorithm.
We also discuss topics regarding algebraic operations on B-spline polynomials
(multiplication, differentiation, integration). The matrix representation of B-spline
polynomials is used throughout the thesis. We show that the equations for tangency and
variational constraints are easily obtained re-using the methods elaborated for incidence
constraints.
The solving of generalized curve-surface constraints means to find the control points of
the unknown surface given one or several curves incident on that surface. This is
accomplished by solving of large and, generally, under-determined and badly conditioned
linear systems of equations. In such cases, no unique and numerically stable solution
exists. Hence, the usual methods such as Gaussian elimination or QR-decomposition
cannot be applied in straightforward manner. We propose to use regularization methods
based on Singular Value Decomposition (SVD). We apply the so-called L-curve, which
can be seen as an numerical high-frequency filter. The filter automatically singles out a
stable solution such that best possible satisfaction of defined constraints is achieved.
However, even the SVD along with the L-curve filter cannot be applied blindly: it turns out
that it is not sufficient to require only algebraic stability of the solution. Tensor-product
surfaces deformed along arbitrary incident curves exhibit unwanted deformations due to
the rectangular structure of the model space. We discuss a geometric and an algebraic
method to remove this, so-called, Surface aliasing effect. The first method reparametrizes
the surface such that a general curve constraint is converted to iso-parametric curve
constraint which can be easily solved by standard linear algebra methods without aliasing.
The reparametrized surface is computed by means of the approximated surface-surface
composition algorithm, which is also introduced in this thesis. While this is not possible
symbolically, an arbitrary accurate approximation of the resulting surface is obtained using
constrained curve network interpolation. The second method states additional constraints
which suppress or completely remove the aliasing. Formally we solve a constrained least
square approximation problem: we minimize an surface objective function subject to
defined curve constraints. The objective function is chosen such that it takes in the
minimal value if the surface has optimal shape; we use a linear combination of second
order surface smoothing functionals. When solving such problems we have to deal with
nearly linearly dependent equations. Problems of this type are called ill-posed. Therefore
sophisticated numerical methods have to be applied in order to obtain a set of degrees of
freedom (control points of the surface) which are sufficient to satisfy given constraints. The
remaining unused degrees of freedom are used to enforce an optically pleasing shape of
the surface. We apply the Modified Truncated SVD (MTSVD) algorithm in connection with
the L-curve filter which determines a compromise between an optically pleasant shape of
the surface and constraint satisfaction in a particularly efficient manner
Nonperturbative Quantum Gravity
Asymptotic safety describes a scenario in which general relativity can be
quantized as a conventional field theory, despite being nonrenormalizable when
expanding it around a fixed background geometry. It is formulated in the
framework of the Wilsonian renormalization group and relies crucially on the
existence of an ultraviolet fixed point, for which evidence has been found
using renormalization group equations in the continuum.
"Causal Dynamical Triangulations" (CDT) is a concrete research program to
obtain a nonperturbative quantum field theory of gravity via a lattice
regularization, and represented as a sum over spacetime histories. In the
Wilsonian spirit one can use this formulation to try to locate fixed points of
the lattice theory and thereby provide independent, nonperturbative evidence
for the existence of a UV fixed point.
We describe the formalism of CDT, its phase diagram, possible fixed points
and the "quantum geometries" which emerge in the different phases. We also
argue that the formalism may be able to describe a more general class of
Ho\v{r}ava-Lifshitz gravitational models.Comment: Review, 146 pages, many figure
Geometric Surface Processing and Virtual Modeling
In this work we focus on two main topics "Geometric Surface Processing" and "Virtual Modeling". The inspiration and coordination for most of the research work contained in the thesis has been driven by the project New Interactive and Innovative Technologies for CAD (NIIT4CAD), funded by the European Eurostars Programme. NIIT4CAD has the ambitious aim of overcoming the limitations of the traditional approach to surface modeling of current 3D CAD systems by introducing new methodologies and technologies based on subdivision surfaces
in a new virtual modeling framework. These innovations will allow designers and engineers to transform quickly and intuitively an idea of shape in a high-quality geometrical model suited for engineering and manufacturing purposes.
One of the objective of the thesis is indeed the reconstruction and modeling of surfaces, representing arbitrary topology objects, starting from 3D irregular curve networks acquired through an ad-hoc smart-pen device.
The thesis is organized in two main parts: "Geometric Surface Processing" and "Virtual Modeling". During the development of the geometric pipeline in our Virtual Modeling system, we faced many challenges that captured our interest and opened new areas of research and experimentation.
In the first part, we present these theories and some applications to Geometric Surface Processing.
This allowed us to better formalize and give a broader understanding on some of the techniques used in our latest advancements on virtual modeling and surface reconstruction.
The research on both topics led to important results that have been published and presented in articles and conferences of international relevance
Variational surface reconstruction
The demand for capturing 3D models of real world objects or scenes has steadily increased in the past. Today, there are numerous developments that indicate an even greater importance in the future: Computer generated special effects are extensively used and highly benefit from such data, 3D printing is starting to become more affordable, and the ability to conveniently include 3D content in websites has quite matured. Thus, 3D reconstruction has been and still is one of the most important research topics in the area of computer vision.
Here, the reconstruction of a 3D model from a number of colour images with given camera poses is one of the most common tasks known as multi-view stereo. We contribute to the two main stages that arise in popular strategies for solving this problem: The estimation of depth maps from multiple views and the integration of multiple depth maps into a single watertight surface.
Subsequently, we relax the constraint that the camera poses have to be known and present a novel pipeline for 3D reconstruction from image sequences that solely relies on dense ideas. It proves to be an interesting alternative to popular sparse approaches and leads to competitive results.
When relying on sparse features, this only allows to estimate an oriented point cloud instead of a surface. To this end, we finally propose a general higher order framework for the surface reconstruction from oriented points.In den letzten Jahrzehnten ist die Nachfrage nach digitalen 3D Modellen von Objekten und Szenen ständig gestiegen und vieles spricht dafür, dass sich dies auch in Zukunft fortsetzt: Computergenerierte Spezialeffekte werden immer flächendeckender eingesetzt, der Druck von dreidimensionalen Gegenständen macht große Fortschritte, und die Darstellung dreidimensionaler Modelle im Webbrowser wird immer ausgereifter.
Deshalb ist die 3D Rekonstruktion eines der wichtigsten Forschungsthemen im Bereich des maschinellen Sehens. Die Rekonstruktion von einem 3D Modell aus mehreren Bildern mit gegebenen Kameramatritzen ist hier eine der häufigsten Problemstellungen, bekannt als multi-view stereo.
Wir leisten einen Beitrag zu den zwei wichtigen Schritten, die in multi-view stereo Ansätzen angewandt werden: Die Schätzung von Tiefenkarten aus mehreren Bildern und die Fusion von mehreren Tiefenkarten zu einem einzigen 3D Modell.
Anschließend lockern wir die Voraussetzung, dass die Kameramatritzen bekannt sein müssen und präsentieren ein neues Verfahren zur 3D Rekonstruktion aus Bildsequenzen, das vollständig auf dichten Ansätzen beruht. Dies erweist sich als interessante Alternative zu populären Methoden, die mit einzelnen Merkmalen arbeiten.
Verfahren, die auf einzelnen Merkmalen beruhen, erlauben die Schätzung von orientierten Punktwolken. Daher entwickeln wir zum Schluss ein allgemeines Rahmenwerk für die Berechnung von wasserdichten Oberflächen aus orientierten Punktwolken
- …