329 research outputs found
Entwicklung effizienter gemischt paralleler Anwendungen
Die Ausnutzung von gemischter ParallelitĂ€t durch parallele Tasks fĂŒhrt im Vergleich mit reiner DatenparallelitĂ€t und reiner TaskparallelitĂ€t hĂ€ufig zu effizienteren und flexibleren parallelen Implementierungen. In der vorliegenden Dissertation wird mit dem CM-task Programmiermodell eine Erweiterung des Standardmodells der parallelen Tasks vorgestellt. Damit wird die Modellierung von Kommunikationsoperationen zwischen zeitgleich ausgefĂŒhrten parallelen Tasks unterstĂŒtzt, was zur besseren Strukturierung von parallelen Anwendungen mit einem regelmĂ€Ăigen Datenaustausch zwischen verschiedenen Programmteilen beitrĂ€gt.
FĂŒr das CM-task Programmiermodell wird das zugehörige Schedulingproblem definiert und ein entsprechender Schedulingalgorithmus vorgestellt. Die Anwendungsentwicklung im CM-task Programmiermodell wird durch das CM-task Compilerframework unterstĂŒtzt, das eine gegebene plattformunabhĂ€ngige Spezifiktion eines parallelen Algorithmus schrittweise in ein plattformspezifisches Koordinationsprogramm ĂŒbersetzt. Das Koordinationsprogramm enthĂ€lt Programmcode zum Anlegen und Verwalten der benötigten Prozessorgruppen, zum AusfĂŒhren der vom Anwender bereitgestellten CM-tasks auf diesen Prozessorgruppen sowie zur Realisierung der benötigten Datenumverteilungsoperationen zwischen den Prozessorgruppen. Der Aufbau und die Schnittstellen des CM-task Compilerframeworks werden in der vorliegenden Dissertation detailliert beschrieben. Anhand verschiedener Anwendungen aus dem wissenschaftlichen Rechnens wird die Einsetzbarkeit des CM-task Programmiermodells und des CM-task Compilerframeworks demonstriert.Mixed parallel programming models based on parallel tasks often lead to
more efficient and more flexible implementations compared to pure
data and pure task parallelism.
In this thesis, the CM-task programming model is proposed which extends
standard parallel tasks such that communication phases between
concurrently executed parallel tasks can be modeled thus allowing a better
structuring of parallel applications that require a frequent data
exchange between different program parts.
Based on the CM-task programming model the CM-task scheduling problem
is defined and a scheduling algorithm is proposed.
The development of parallel applications within the CM-task programming
model is supported by the CM-task compiler framework, which
transforms a given platform independent specification of a parallel algorithm into a
platform specific coordination program.
The coordination program is responsible for the creation and the
management of the required processor groups, the execution of the
user provided CM-tasks on these processor groups and for the
implementation
of the data re-distribution operations between these processor groups.
The architecture and the interfaces of the CM-task compiler framework
are explained in detail.
The applicability of the CM-task programming model and the CM-task
compiler framework are demonstrated for several scientific applications
Compileroptimierung und parallele Code-Generierung fĂŒr zeitkritische eingebettete Multiprozessorsysteme
Durch den voranschreitenden Trend der Digitalisierung gewinnen intelligente digitale Systeme in vielen Bereichen des tĂ€glichen Lebens zunehmend an Bedeutung. Dies betrifft insbesondere auch den Bereich sicherheitskritischer Echtzeitsysteme, fĂŒr deren sicheren Betrieb die EchtzeitfĂ€higkeit nachgewiesen werden muss. Im Gegensatz zu Anwendungsfeldern ohne diese Anforderung sind effiziente Mehrkernprozessoren in Echtzeitsystemen derzeit noch kaum verbreitet. Der Hauptgrund fĂŒr die bisherige Dominanz der Einzelkernprozessoren sind fehlende Methoden und Werkzeuge, um parallele Echtzeit-Software fĂŒr Mehrkernprozessoren zu entwickeln und selbst im ungĂŒnstigsten Fall noch eine maximale AusfĂŒhrungszeit (englisch Worst Case Execution Time, kurz WCET) garantieren zu können. In diesem Kontext besteht eines der wesentlichen Probleme darin, dass sich parallel ablaufende Software-Routinen im Hinblick auf ihre Laufzeit gegenseitig beeinflussen können. In Mehrkernprozessoren geschieht dies vor allem bei gleichzeitigen Zugriffen mehrerer Kerne auf eine gemeinsam genutzte Hardware-Ressource. Geeignete Methoden, um den Einfluss dieser als Interferenz bezeichneten Effekte bei der Software-Entwicklung prĂ€zise vorherzusagen und sichere Garantien fĂŒr die AusfĂŒhrungszeit abzuleiten, sind Gegenstand aktueller Forschung. Gleiches gilt fĂŒr Software-Werkzeuge zur automatischen Parallelisierung, die auf harte Echtzeitanwendungen spezialisiert sind.
Diese Arbeit zielt darauf ab, die Anwendbarkeit von Mehrkernprozessoren in Echtzeitsystemen durch BeitrĂ€ge in den Bereichen der automatischen Software-Parallelisierung, Code-Optimierung und Hardware-Modellierung signifikant zu verbessern. Als Bestandteil einer Werkzeugkette zur automatischen Parallelisierung von sequentieller Echtzeit-Software wird in dieser Arbeit ein Compiler-Werkzeug zur WCET-optimierten parallelen Code-Generierung und ein zugehöriges paralleles Programmiermodell vorgestellt. Hierdurch können -- weitgehend ohne Zutun eines Endanwenders -- gut vorhersagbare parallele Programme erzeugt werden. Durch das Programmiermodell wird dabei sichergestellt, dass die AusfĂŒhrungszeit, einschlieĂlich der Interferenzeffekte, mit Hilfe einer statischen WCET-Analyse sicher nach oben abgeschĂ€tzt werden kann. Als Teil der Code-Generierung stellt die vorliegende Arbeit zwei Optimierungsmethoden vor, die zum einen den Kommunikations- und Synchronisationsaufwand zwischen den Prozessorkernen reduzieren und zum anderen die optimierte Allokation verteilter Speicher in heterogenen Speicherhierarchien ermöglichen. Erstere ist auf des parallele Programmiermodell abgestimmt und erlaubt die optimierte Platzierung von Kommunikations- und Synchronisationsoperationen sowie das Entfernen redundanter Synchronisation auf einer feingranularen Ebene. Die Optimierung der Speicherallokation ergĂ€nzt den Ansatz um ein formales Optimierungsmodell zur Zuweisung der Datenfelder eines generierten Programms zu den Speicherbereichen der Zielplattform. Das Modell bezieht dabei sowohl die Kosten fĂŒr Interferenzeffekte als auch die Speicherhierarchie von Zielplattformen mit verteilten und heterogenen Speichern mit ein. Um die Schritte zur Generierung, Optimierung und Analyse von paralleler Echtzeit-Software weitgehend plattformunabhĂ€ngig aufbauen zu können, beinhaltet die vorliegende Arbeit auĂerdem einen Ansatz zur generischen Modellierung von Mehrkernprozessorarchitekturen. Dieser erlaubt es, die Zielplattform mit Hilfe einer entsprechend erweiterten Architekturbeschreibungssprache (ADL) zu beschreiben, wodurch sich die darauf aufbauenden Entwicklungswerkzeuge mit ĂŒberschaubarem Aufwand auf ein breites Spektrum von Hardware-Plattformen anwenden lassen.
Mit dieser neuartigen Kombination erweitert die vorliegende Arbeit den Stand der Technik um einige wesentliche Bausteine, die die weitgehend automatisierte Parallelisierung von Echtzeit-Software ohne stark einschrĂ€nkende Annahmen bezĂŒglich der Struktur des Eingabeprogramms ermöglichen. Zu den weiteren Neuerungen dieser Arbeit zĂ€hlen die PlattformunabhĂ€ngigkeit bei der WCET-optimierten Software-Parallelisierung und die BerĂŒcksichtigung von Interferenzeffekten bei der Speicherallokation in Echtzeitsystemen.
Die experimentelle Evaluation der vorgestellten Methoden und deren prototypischer Umsetzung zeigt, dass die WCET aller betrachteten Testanwendungen von der Parallelisierung profitieren kann. Auf einer Plattform mit vier Prozessorkernen konnte z.B. die WCET einer Anwendung aus dem Bereich der Bildverarbeitung durch die Parallelisierung im Vergleich zum sequentiellen Eingabeprogramm um Faktor 3,21 verbessert werden. Auch die OptimierungsansĂ€tze fĂŒr Kommunikation und Speicherallokation fĂŒhren gröĂtenteils zu einer deutlichen Verbesserung der WCET. So konnten die durch Interferenzen verursachten Kosten im Zuge der Speicherallokation z.B. um bis zu 49% reduziert werden.
Insgesamt haben die Ergebnisse dieser Arbeit damit das Potential, die effiziente und kostengĂŒnstige Nutzung von Mehrkernprozessoren im Bereich harter Echtzeitsysteme wesentlich voranzutreiben
Effiziente DurchfĂŒhrung von Prozessmigrationen in verteilten Workflow-Management-Systemen
Zur UnterstĂŒtzung von unternehmensweiten und -ĂŒbergreifenden GeschĂ€ftsprozessen muss ein Workflow-Management-System (WfMS) eine groĂe Anzahl von Workflows (WF) steuern können. Dadurch resultiert eine hohe Last fĂŒr die WF-Server und das zugrunde liegende Kommunikationssystem. Ein verbreiteter Ansatz zur BewĂ€ltigung der Last ist es, die WF-Instanzen verteilt durch mehrere WF-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei WF-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen
WF-Instanz vom Quell- zum Zielserver ĂŒbertragen werden mĂŒssen, um dort mit der Steuerung fortfahren zu können. Deshalb belasten Migrationen das Kommunikationssystem zusĂ€tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls GeschĂ€ftsbereiche nur ĂŒber langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS ĂŒberhaupt erst ermöglicht
Effiziente Ăbertragung von Prozessinstanzdaten in verteilten Workflow-Management-Systemen
Zur UnterstĂŒtzung von unternehmensweiten und -ĂŒbergreifenden GeschĂ€ftsprozessen muss ein Workflow-Management-System (WfMS) eine groĂe Anzahl von Workflow-Instanzen steuern können. Daraus resultiert eine hohe Last fĂŒr die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur BewĂ€ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver ĂŒbertragen werden mĂŒssen, um dort mit der Steuerung fortfahren zu können. Deshalb belasten Migrationen das Kommunikationssystem zusĂ€tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Geschšaftsbereiche aus KostengrĂŒnden nur ĂŒber langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS ĂŒberhaupt erst ermöglicht
Jahresbericht 2009 zur kooperativen DV-Versorgung
:VORWORT 9
ĂBERSICHT DER INSERENTEN 10
TEIL I
ZUR ARBEIT DER DV KOMMISSION 15
MITGLIEDER DER DV KOMMISSION 15
ZUR ARBEIT DES IT LENKUNGSAUSSCHUSSES 17
ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17
TEIL II
1 DAS ZENTRUM FĂR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21
1.1 AUFGABEN 21
1.2 ZAHLEN UND FAKTEN (REPRĂSENTATIVE AUSWAHL) 21
1.3 HAUSHALT 22
1.4 STRUKTUR / PERSONAL 23
1.5 STANDORT 24
1.6 GREMIENARBEIT 25
2 KOMMUNIKATIONSINFRASTRUKTUR 27
2.1 NUTZUNGSĂBERSICHT NETZDIENSTE 27
2.1.1 WiN IP Verkehr 27
2.2 NETZWERKINFRASTRUKTUR 27
2.2.1 Allgemeine Versorgungsstruktur 27
2.2.2 Netzebenen 27
2.2.3 Backbone und lokale Vernetzung 28
2.2.4 Druck Kopierer Netz 32
2.2.5 WLAN 32
2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und AuĂenanbindung 33
2.2.7 Vertrag âKommunikationsverbindung der SĂ€chsischen Hochschulenâ 37
2.2.8 Datennetz zu den Wohnheimstandorten 39
2.2.9 Datennetz der FakultÀt Informatik 39
2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 40
2.3.1 Electronic Mail 40
2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41
2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41
2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42
2.3.1.4 Web-Mail 42
2.3.1.5 Neuer Mailinglisten-Server 43
2.3.2 Authentifizierungs und Autorisierungs Infrastruktur (AAI) 43
2.3.2.1 Shibboleth 43
2.3.2.2 DFN PKI 43
2.3.3 WÀhlzugÀnge 44
2.3.4 Time Service 44
2.3.5 Voice over Internet Protocol (VoIP) 44
3 ZENTRALE DIENSTANGEBOTE UND SERVER 47
3.1 BENUTZERBERATUNG (BB) 47
3.2 TROUBLE TICKET SYSTEM (OTRS) 48
3.3 NUTZERMANAGEMENT 49
3.4 LOGIN SERVICE 50
3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51
3.6 STORAGE MANAGEMENT 51
3.6.1 Backup Service 52
3.6.2 File Service und Speichersysteme 55
3.7 LIZENZ SERVICE 56
3.8 PERIPHERIE SERVICE 57
3.9 PC POOLS 57
3.10 SECURITY 58
3.10.1 Informationssicherheit 58
3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 58
3.10.3 VPN 59
3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59
4 SERVICELEISTUNGEN FĂR DEZENTRALE DV SYSTEME 61
4.1 ALLGEMEINES 61
4.2 PC SUPPORT 61
4.2.1 Investberatung 61
4.2.2 Implementierung 61
4.2.3 Instandhaltung 62
4.3 MICROSOFT WINDOWS SUPPORT 62
4.4 ZENTRALE SOFTWARE BESCHAFFUNG FĂR DIE TU DRESDEN 67
4.4.1 Arbeitsgruppe Software im ZKI 67
4.4.2 Strategie des Software Einsatzes an der TU Dresden 67
4.4.3 Software Beschaffung 68
5 HOCHLEISTUNGSRECHNEN 69
5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 69
5.1.1 HRSK Core Router 70
5.1.2 HRSK SGI Altix 4700 70
5.1.3 HRSK PetaByte Bandarchiv 72
5.1.4 HRSK Linux Networx PC Farm 73
5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 75
5.2 NUTZUNGSĂBERSICHT DER HPC SERVER 76
5.3 SPEZIALRESSOURCEN 77
5.3.1 SGI Origin 3800 77
5.3.2 NEC SX 6 77
5.3.3 Mikrosoft HPC System 78
5.3.4 Anwendercluster 78
5.4 GRID RESSOURCEN 79
5.5 ANWENDUNGSSOFTWARE 81
5.6 VISUALISIERUNG 82
5.7 PARALLELE PROGRAMMIERWERKZEUGE 83
6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85
6.1 âKOMPETENZZENTRUM FĂR VIDEOKONFERENZDIENSTEâ (VCCIV) 85
6.1.1 Ăberblick 85
6.1.2 VideokonferenzrÀume 85
6.1.3 Aufgaben und Entwicklungsarbeiten 85
6.1.4 Weitere AktivitÀten 88
6.1.5 Der Dienst âDFNVideoConferenceâ Mehrpunktkonferenzen im G WiN 88
6.1.6 Ausblick 89
6.2 D GRID 89
6.2.1 Hochenergiephysik Community Grid (HEP CG) â Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 89
6.2.2 D Grid Integrationsprojekt 2 90
6.2.3 Chemomentum 90
6.2.4 D Grid Scheduler InteroperalitÀt (DGSI) 91
6.2.5 MoSGrid â Molecular Simulation Grid 91
6.2.6 WisNetGrid âWissensnetzwerke im Grid 92
6.3 BIOLOGIE 92
6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 92
6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 93
6.3.3 EndoSys â Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93
6.3.4 SpaceSys â RĂ€umlich zeitliche Dynamik in der Systembiologie 94
6.3.5 Biologistik â Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 94
6.3.6 ZebraSim â Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95
6.4 PERFORMANCE EVALUIERUNG 95
6.4.1 SFB 609 â Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie âTeilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 95
6.4.2 BenchIT â Performance Measurement for Scientific Applications 96
6.4.3 PARMA â Parallel Programming for Multi core Architectures -ParMA 97
6.4.4 VI HPS â Virtuelles Institut -HPS 97
6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 98
6.4.6 VEKTRA â Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maĂgeschneiderten Transporteigenschaften 98
6.4.7 Cool Computing âTechnologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99
6.4.8 eeClust Energieeffizientes Cluster Computing 99
6.4.9 HI/CFD â Hocheffiziente Implementierung von CFD Codes fĂŒr HPC Many Core Architekturen 99
6.4.10 SILC â Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 100
6.4.11 TIMaCS â Tools for Intelligent System Mangement of Very Large Computing Systems 100
6.5 KOOPERATIONEN 101
7 DOIT INTEGRIERTES INFORMATIONSMANAGEMENT 111
7.1 VISION DER TU DRESDEN 111
7.2 ZIELE DES PROJEKTES DOIT 111
7.2.1 Analyse der bestehenden IT UnterstĂŒtzung der Organisation und ihrer Prozesse 111
7.2.2 Erarbeitung von VerbesserungsvorschlÀgen 111
7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 112
7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 112
7.2.5 Markt und Anbieteranalyse 112
7.2.6 Austausch mit anderen Hochschulen 112
7.3 ORGANISATION DES DOIT PROJEKTES 112
7.4 IDENTITĂTSMANAGEMENT 113
7.5 ELEKTRONISCHER KOSTENSTELLENZUGANG (ELKO) 114
8 AUSBILDUNGSBETRIEB UND PRAKTIKA 117
8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG
ANWENDUNGSENTWICKLUNG 117
8.2 PRAKTIKA 118
9 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 119
10 VERANSTALTUNGEN 121
11 PUBLIKATIONEN 123
TEIL III
BERICHTE DER FAKULTĂTEN
FAKULTĂT MATHEMATIK UND NATURWISSENSCHAFTEN
Fachrichtung Mathematik 129
Fachrichtung Physik 133
Fachrichtung Chemie und Lebensmittelchemie 137
Fachrichtung Psychologie 143
Fachrichtung Biologie 147
PHILOSOHISCHE FAKULTĂT 153
FAKULTĂT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 157
FAKULTĂT ERZIEHUNGSWISSENSCHAFTEN 159
JURISTISCHE FAKULTĂT 163
FAKULTĂT WIRTSCHAFTSWISSENSCHAFTEN 167
FAKULTĂT INFORMATIK 175
FAKULTĂT ELEKTRO UND INFORMATIONSTECHNIK 183
FAKULTĂT MASCHINENWESEN 193
FAKULTĂT BAUINGENIEURWESEN 203
FAKULTĂT ARCHITEKTUR 211
FAKULTĂT VERKEHRSWISSENSCHAFTEN âFRIEDRICH LISTâ 215
FAKULTĂT FORST , GEO UND HYDROWISSENSCHAFTEN
Fachrichtung Forstwissenschaften 231
Fachrichtung Geowissenschaften 235
Fachrichtung Wasserwesen 241
MEDIZINISCHE FAKULTĂT CARL GUSTAV CARUS 24
Ficucs: Ein Constraint-Solver fĂŒr geometrische Constraints in 2D und 3D
This thesis reflects the results of many years of research and development
work in the field of geometric constraints for standard geometries in 2D
and 3D. The experiences with constructive as well as numerical approaches
for the calculation of constraint-based models have been continuously
incorporated into the development of the constraint solver Ficucs. Besides
the algorithms and data structures used in Ficucs the thesis describes
various applications which use Ficucs as calculation module and
corresponding models.
The aim was to develop a constraint solver which is usable in many
different kinds of projects. The focus was on interactivity and stability
of the algorithms, because that is very important for the user's
acceptance. A lot of improvements were found, most of them were also
implemented and thus verified. It arose that a combination of different
concepts in one application is often problematic. The thesis shall make the
achieved results accessible to the interested readers and motivate further
research work concerning a hybrid approach which combines constructive as
well as numerical methods.Die vorliegende Arbeit spiegelt Ergebnisse einer langjÀhrigen Forschungs-
und EntwicklungstÀtigkeit auf dem Gebiet der geometrischen Constraints zu
Standardgeometrien in 2D und 3D wider. Die Erfahrungen zu konstruktiven und
numerischen AnsĂ€tzen fĂŒr das Berechnen der constraint-basierten Modelle
flossen in die Entwicklung des Constraint-Solvers Ficucs ein. Neben den in
Ficucs genutzten Algorithmen und Datenstrukturen werden diverse
Applikationen, welche Ficucs als Berechnungsmodul nutzen, sowie
dazugehörige Modelle beschrieben.
Ziel der TĂ€tigkeiten war es, einen in den verschiedensten Projekten
einsetzbaren Constraint-Solver zu entwickeln. Besonderes Augenmerk lag auf
der InteraktivitĂ€t sowie der StabilitĂ€t der Algorithmen, welche fĂŒr eine
Nutzerakzeptanz sehr wichtig sind. Hierzu wurden immer wieder
Verbesserungsmöglichkeiten gefunden, zum GroĂteil auch implementiert und
somit verifiziert. Es zeigte sich, dass die Kombination unterschiedlicher
Konzepte in einer Anwendung oft problematisch ist. Die vorliegende Arbeit
soll die erreichten Resultate interessierten Lesern zugÀnglich machen und
zu einer weiteren ForschungstÀtigkeit in Richtung eines hybriden Ansatzes
aus konstruktiven und numerischen Verfahren anregen
- âŠ