329 research outputs found

    Entwicklung effizienter gemischt paralleler Anwendungen

    Get PDF
    Die Ausnutzung von gemischter ParallelitĂ€t durch parallele Tasks fĂŒhrt im Vergleich mit reiner DatenparallelitĂ€t und reiner TaskparallelitĂ€t hĂ€ufig zu effizienteren und flexibleren parallelen Implementierungen. In der vorliegenden Dissertation wird mit dem CM-task Programmiermodell eine Erweiterung des Standardmodells der parallelen Tasks vorgestellt. Damit wird die Modellierung von Kommunikationsoperationen zwischen zeitgleich ausgefĂŒhrten parallelen Tasks unterstĂŒtzt, was zur besseren Strukturierung von parallelen Anwendungen mit einem regelmĂ€ĂŸigen Datenaustausch zwischen verschiedenen Programmteilen beitrĂ€gt. FĂŒr das CM-task Programmiermodell wird das zugehörige Schedulingproblem definiert und ein entsprechender Schedulingalgorithmus vorgestellt. Die Anwendungsentwicklung im CM-task Programmiermodell wird durch das CM-task Compilerframework unterstĂŒtzt, das eine gegebene plattformunabhĂ€ngige Spezifiktion eines parallelen Algorithmus schrittweise in ein plattformspezifisches Koordinationsprogramm ĂŒbersetzt. Das Koordinationsprogramm enthĂ€lt Programmcode zum Anlegen und Verwalten der benötigten Prozessorgruppen, zum AusfĂŒhren der vom Anwender bereitgestellten CM-tasks auf diesen Prozessorgruppen sowie zur Realisierung der benötigten Datenumverteilungsoperationen zwischen den Prozessorgruppen. Der Aufbau und die Schnittstellen des CM-task Compilerframeworks werden in der vorliegenden Dissertation detailliert beschrieben. Anhand verschiedener Anwendungen aus dem wissenschaftlichen Rechnens wird die Einsetzbarkeit des CM-task Programmiermodells und des CM-task Compilerframeworks demonstriert.Mixed parallel programming models based on parallel tasks often lead to more efficient and more flexible implementations compared to pure data and pure task parallelism. In this thesis, the CM-task programming model is proposed which extends standard parallel tasks such that communication phases between concurrently executed parallel tasks can be modeled thus allowing a better structuring of parallel applications that require a frequent data exchange between different program parts. Based on the CM-task programming model the CM-task scheduling problem is defined and a scheduling algorithm is proposed. The development of parallel applications within the CM-task programming model is supported by the CM-task compiler framework, which transforms a given platform independent specification of a parallel algorithm into a platform specific coordination program. The coordination program is responsible for the creation and the management of the required processor groups, the execution of the user provided CM-tasks on these processor groups and for the implementation of the data re-distribution operations between these processor groups. The architecture and the interfaces of the CM-task compiler framework are explained in detail. The applicability of the CM-task programming model and the CM-task compiler framework are demonstrated for several scientific applications

    Compileroptimierung und parallele Code-Generierung fĂŒr zeitkritische eingebettete Multiprozessorsysteme

    Get PDF
    Durch den voranschreitenden Trend der Digitalisierung gewinnen intelligente digitale Systeme in vielen Bereichen des tĂ€glichen Lebens zunehmend an Bedeutung. Dies betrifft insbesondere auch den Bereich sicherheitskritischer Echtzeitsysteme, fĂŒr deren sicheren Betrieb die EchtzeitfĂ€higkeit nachgewiesen werden muss. Im Gegensatz zu Anwendungsfeldern ohne diese Anforderung sind effiziente Mehrkernprozessoren in Echtzeitsystemen derzeit noch kaum verbreitet. Der Hauptgrund fĂŒr die bisherige Dominanz der Einzelkernprozessoren sind fehlende Methoden und Werkzeuge, um parallele Echtzeit-Software fĂŒr Mehrkernprozessoren zu entwickeln und selbst im ungĂŒnstigsten Fall noch eine maximale AusfĂŒhrungszeit (englisch Worst Case Execution Time, kurz WCET) garantieren zu können. In diesem Kontext besteht eines der wesentlichen Probleme darin, dass sich parallel ablaufende Software-Routinen im Hinblick auf ihre Laufzeit gegenseitig beeinflussen können. In Mehrkernprozessoren geschieht dies vor allem bei gleichzeitigen Zugriffen mehrerer Kerne auf eine gemeinsam genutzte Hardware-Ressource. Geeignete Methoden, um den Einfluss dieser als Interferenz bezeichneten Effekte bei der Software-Entwicklung prĂ€zise vorherzusagen und sichere Garantien fĂŒr die AusfĂŒhrungszeit abzuleiten, sind Gegenstand aktueller Forschung. Gleiches gilt fĂŒr Software-Werkzeuge zur automatischen Parallelisierung, die auf harte Echtzeitanwendungen spezialisiert sind. Diese Arbeit zielt darauf ab, die Anwendbarkeit von Mehrkernprozessoren in Echtzeitsystemen durch BeitrĂ€ge in den Bereichen der automatischen Software-Parallelisierung, Code-Optimierung und Hardware-Modellierung signifikant zu verbessern. Als Bestandteil einer Werkzeugkette zur automatischen Parallelisierung von sequentieller Echtzeit-Software wird in dieser Arbeit ein Compiler-Werkzeug zur WCET-optimierten parallelen Code-Generierung und ein zugehöriges paralleles Programmiermodell vorgestellt. Hierdurch können -- weitgehend ohne Zutun eines Endanwenders -- gut vorhersagbare parallele Programme erzeugt werden. Durch das Programmiermodell wird dabei sichergestellt, dass die AusfĂŒhrungszeit, einschließlich der Interferenzeffekte, mit Hilfe einer statischen WCET-Analyse sicher nach oben abgeschĂ€tzt werden kann. Als Teil der Code-Generierung stellt die vorliegende Arbeit zwei Optimierungsmethoden vor, die zum einen den Kommunikations- und Synchronisationsaufwand zwischen den Prozessorkernen reduzieren und zum anderen die optimierte Allokation verteilter Speicher in heterogenen Speicherhierarchien ermöglichen. Erstere ist auf des parallele Programmiermodell abgestimmt und erlaubt die optimierte Platzierung von Kommunikations- und Synchronisationsoperationen sowie das Entfernen redundanter Synchronisation auf einer feingranularen Ebene. Die Optimierung der Speicherallokation ergĂ€nzt den Ansatz um ein formales Optimierungsmodell zur Zuweisung der Datenfelder eines generierten Programms zu den Speicherbereichen der Zielplattform. Das Modell bezieht dabei sowohl die Kosten fĂŒr Interferenzeffekte als auch die Speicherhierarchie von Zielplattformen mit verteilten und heterogenen Speichern mit ein. Um die Schritte zur Generierung, Optimierung und Analyse von paralleler Echtzeit-Software weitgehend plattformunabhĂ€ngig aufbauen zu können, beinhaltet die vorliegende Arbeit außerdem einen Ansatz zur generischen Modellierung von Mehrkernprozessorarchitekturen. Dieser erlaubt es, die Zielplattform mit Hilfe einer entsprechend erweiterten Architekturbeschreibungssprache (ADL) zu beschreiben, wodurch sich die darauf aufbauenden Entwicklungswerkzeuge mit ĂŒberschaubarem Aufwand auf ein breites Spektrum von Hardware-Plattformen anwenden lassen. Mit dieser neuartigen Kombination erweitert die vorliegende Arbeit den Stand der Technik um einige wesentliche Bausteine, die die weitgehend automatisierte Parallelisierung von Echtzeit-Software ohne stark einschrĂ€nkende Annahmen bezĂŒglich der Struktur des Eingabeprogramms ermöglichen. Zu den weiteren Neuerungen dieser Arbeit zĂ€hlen die PlattformunabhĂ€ngigkeit bei der WCET-optimierten Software-Parallelisierung und die BerĂŒcksichtigung von Interferenzeffekten bei der Speicherallokation in Echtzeitsystemen. Die experimentelle Evaluation der vorgestellten Methoden und deren prototypischer Umsetzung zeigt, dass die WCET aller betrachteten Testanwendungen von der Parallelisierung profitieren kann. Auf einer Plattform mit vier Prozessorkernen konnte z.B. die WCET einer Anwendung aus dem Bereich der Bildverarbeitung durch die Parallelisierung im Vergleich zum sequentiellen Eingabeprogramm um Faktor 3,21 verbessert werden. Auch die OptimierungsansĂ€tze fĂŒr Kommunikation und Speicherallokation fĂŒhren grĂ¶ĂŸtenteils zu einer deutlichen Verbesserung der WCET. So konnten die durch Interferenzen verursachten Kosten im Zuge der Speicherallokation z.B. um bis zu 49% reduziert werden. Insgesamt haben die Ergebnisse dieser Arbeit damit das Potential, die effiziente und kostengĂŒnstige Nutzung von Mehrkernprozessoren im Bereich harter Echtzeitsysteme wesentlich voranzutreiben

    Effiziente DurchfĂŒhrung von Prozessmigrationen in verteilten Workflow-Management-Systemen

    Get PDF
    Zur UnterstĂŒtzung von unternehmensweiten und -ĂŒbergreifenden GeschĂ€ftsprozessen muss ein Workflow-Management-System (WfMS) eine große Anzahl von Workflows (WF) steuern können. Dadurch resultiert eine hohe Last fĂŒr die WF-Server und das zugrunde liegende Kommunikationssystem. Ein verbreiteter Ansatz zur BewĂ€ltigung der Last ist es, die WF-Instanzen verteilt durch mehrere WF-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei WF-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen WF-Instanz vom Quell- zum Zielserver ĂŒbertragen werden mĂŒssen, um dort mit der Steuerung fortfahren zu können. Deshalb belasten Migrationen das Kommunikationssystem zusĂ€tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls GeschĂ€ftsbereiche nur ĂŒber langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS ĂŒberhaupt erst ermöglicht

    Spektrum - 2/2006

    Get PDF

    Effiziente Übertragung von Prozessinstanzdaten in verteilten Workflow-Management-Systemen

    Get PDF
    Zur UnterstĂŒtzung von unternehmensweiten und -ĂŒbergreifenden GeschĂ€ftsprozessen muss ein Workflow-Management-System (WfMS) eine große Anzahl von Workflow-Instanzen steuern können. Daraus resultiert eine hohe Last fĂŒr die Workflow-Server und das zugrunde liegende Kommunikationssystem. Ein in der Workflow-Literatur viel diskutierter Ansatz zur BewĂ€ltigung der Last ist es, die Workflow-Instanzen verteilt durch mehrere Workflow-Server zu kontrollieren. Beim Wechsel der Kontrolle zwischen zwei Workflow-Servern werden dann Migrationen notwendig, bei denen Daten der jeweiligen Workflow-Instanz vom Quell- zum Zielserver ĂŒbertragen werden mĂŒssen, um dort mit der Steuerung fortfahren zu können. Deshalb belasten Migrationen das Kommunikationssystem zusĂ€tzlich. In diesem Beitrag werden Verfahren entwickelt, mit denen die bei Migrationen entstehende Kommunikationslast reduziert werden kann, so dass die Skalierbarkeit des WfMS signifikant verbessert wird. Falls Geschšaftsbereiche aus KostengrĂŒnden nur ĂŒber langsame Kommunikationsverbindungen angebunden sind, wird dadurch der Einsatz eines WfMS ĂŒberhaupt erst ermöglicht

    Jahresbericht 2009 zur kooperativen DV-Versorgung

    Get PDF
    :VORWORT 9 ÜBERSICHT DER INSERENTEN 10 TEIL I ZUR ARBEIT DER DV KOMMISSION 15 MITGLIEDER DER DV KOMMISSION 15 ZUR ARBEIT DES IT LENKUNGSAUSSCHUSSES 17 ZUR ARBEIT DES WISSENSCHAFTLICHEN BEIRATES DES ZIH 17 TEIL II 1 DAS ZENTRUM FÜR INFORMATIONSDIENSTE UND HOCHLEISTUNGSRECHNEN (ZIH) 21 1.1 AUFGABEN 21 1.2 ZAHLEN UND FAKTEN (REPRÄSENTATIVE AUSWAHL) 21 1.3 HAUSHALT 22 1.4 STRUKTUR / PERSONAL 23 1.5 STANDORT 24 1.6 GREMIENARBEIT 25 2 KOMMUNIKATIONSINFRASTRUKTUR 27 2.1 NUTZUNGSÜBERSICHT NETZDIENSTE 27 2.1.1 WiN IP Verkehr 27 2.2 NETZWERKINFRASTRUKTUR 27 2.2.1 Allgemeine Versorgungsstruktur 27 2.2.2 Netzebenen 27 2.2.3 Backbone und lokale Vernetzung 28 2.2.4 Druck Kopierer Netz 32 2.2.5 WLAN 32 2.2.6 Datennetz zwischen den UniversitĂ€tsstandorten und Außenanbindung 33 2.2.7 Vertrag „Kommunikationsverbindung der SĂ€chsischen Hochschulen“ 37 2.2.8 Datennetz zu den Wohnheimstandorten 39 2.2.9 Datennetz der FakultĂ€t Informatik 39 2.3 KOMMUNIKATIONS UND INFORMATIONSDIENSTE 40 2.3.1 Electronic Mail 40 2.3.1.1 Einheitliche E-Mail-Adressen an der TU Dresden 41 2.3.1.2 Struktur- bzw. funktionsbezogene E-Mail-Adressen an der TU Dresden 41 2.3.1.3 ZIH verwaltete Nutzer-Mailboxen 42 2.3.1.4 Web-Mail 42 2.3.1.5 Neuer Mailinglisten-Server 43 2.3.2 Authentifizierungs und Autorisierungs Infrastruktur (AAI) 43 2.3.2.1 Shibboleth 43 2.3.2.2 DFN PKI 43 2.3.3 WĂ€hlzugĂ€nge 44 2.3.4 Time Service 44 2.3.5 Voice over Internet Protocol (VoIP) 44 3 ZENTRALE DIENSTANGEBOTE UND SERVER 47 3.1 BENUTZERBERATUNG (BB) 47 3.2 TROUBLE TICKET SYSTEM (OTRS) 48 3.3 NUTZERMANAGEMENT 49 3.4 LOGIN SERVICE 50 3.5 BEREITSTELLUNG VON VIRTUELLEN SERVERN 51 3.6 STORAGE MANAGEMENT 51 3.6.1 Backup Service 52 3.6.2 File Service und Speichersysteme 55 3.7 LIZENZ SERVICE 56 3.8 PERIPHERIE SERVICE 57 3.9 PC POOLS 57 3.10 SECURITY 58 3.10.1 Informationssicherheit 58 3.10.2 FrĂŒhwarnsystem (FWS) im Datennetz der TU Dresden 58 3.10.3 VPN 59 3.10.4 Konzept der zentral bereitgestellten virtuellen Firewalls 59 4 SERVICELEISTUNGEN FÜR DEZENTRALE DV SYSTEME 61 4.1 ALLGEMEINES 61 4.2 PC SUPPORT 61 4.2.1 Investberatung 61 4.2.2 Implementierung 61 4.2.3 Instandhaltung 62 4.3 MICROSOFT WINDOWS SUPPORT 62 4.4 ZENTRALE SOFTWARE BESCHAFFUNG FÜR DIE TU DRESDEN 67 4.4.1 Arbeitsgruppe Software im ZKI 67 4.4.2 Strategie des Software Einsatzes an der TU Dresden 67 4.4.3 Software Beschaffung 68 5 HOCHLEISTUNGSRECHNEN 69 5.1 HOCHLEISTUNGSRECHNER/SPEICHERKOMPLEX (HRSK) 69 5.1.1 HRSK Core Router 70 5.1.2 HRSK SGI Altix 4700 70 5.1.3 HRSK PetaByte Bandarchiv 72 5.1.4 HRSK Linux Networx PC Farm 73 5.1.5 HRSK Linux Networx PC Cluster (HRSK Stufe 1a) 75 5.2 NUTZUNGSÜBERSICHT DER HPC SERVER 76 5.3 SPEZIALRESSOURCEN 77 5.3.1 SGI Origin 3800 77 5.3.2 NEC SX 6 77 5.3.3 Mikrosoft HPC System 78 5.3.4 Anwendercluster 78 5.4 GRID RESSOURCEN 79 5.5 ANWENDUNGSSOFTWARE 81 5.6 VISUALISIERUNG 82 5.7 PARALLELE PROGRAMMIERWERKZEUGE 83 6 WISSENSCHAFTLICHE PROJEKTE, KOOPERATIONEN 85 6.1 „KOMPETENZZENTRUM FÜR VIDEOKONFERENZDIENSTE“ (VCCIV) 85 6.1.1 Überblick 85 6.1.2 VideokonferenzrĂ€ume 85 6.1.3 Aufgaben und Entwicklungsarbeiten 85 6.1.4 Weitere AktivitĂ€ten 88 6.1.5 Der Dienst „DFNVideoConference“ Mehrpunktkonferenzen im G WiN 88 6.1.6 Ausblick 89 6.2 D GRID 89 6.2.1 Hochenergiephysik Community Grid (HEP CG) − Entwicklung von Anwendungen und Komponenten zur Datenauswertung in der Hochenergiephysik in einer nationalen e Science Umgebung 89 6.2.2 D Grid Integrationsprojekt 2 90 6.2.3 Chemomentum 90 6.2.4 D Grid Scheduler InteroperalitĂ€t (DGSI) 91 6.2.5 MoSGrid − Molecular Simulation Grid 91 6.2.6 WisNetGrid −Wissensnetzwerke im Grid 92 6.3 BIOLOGIE 92 6.3.1 Entwicklung eines SME freundlichen Zuchtprogramms fĂŒr Korallen 92 6.3.2 Entwicklung und Analyse von stochastischen interagierenden Vielteilchen Modellen fĂŒr biologische Zellinteraktion 93 6.3.3 EndoSys − Modellierung der Rolle von Rab DomĂ€nen bei Endozytose und Signalverarbeitung in Hepatocyten 93 6.3.4 SpaceSys − RĂ€umlich zeitliche Dynamik in der Systembiologie 94 6.3.5 Biologistik − Von bio inspirierter Logistik zum logistik inspirierten Bio Nano Engineering 94 6.3.6 ZebraSim − Modellierung und Simulation der Muskelgewebsbildung bei Zebrafischen 95 6.4 PERFORMANCE EVALUIERUNG 95 6.4.1 SFB 609 − Elektromagnetische Strömungsbeeinflussung in Metallurgie, KristallzĂŒchtung und Elektrochemie −Teilprojekt A1: Numerische Modellierung turbulenter MFD Strömungen 95 6.4.2 BenchIT − Performance Measurement for Scientific Applications 96 6.4.3 PARMA − Parallel Programming for Multi core Architectures -ParMA 97 6.4.4 VI HPS − Virtuelles Institut -HPS 97 6.4.5 Paralleles Kopplungs Framework und moderne Zeitintegrationsverfahren fĂŒr detaillierte Wolkenprozesse in atmosphĂ€rischen Modellen 98 6.4.6 VEKTRA − Virtuelle Entwicklung von Keramik und Kompositwerkstoffen mit maßgeschneiderten Transporteigenschaften 98 6.4.7 Cool Computing −Technologien fĂŒr Energieeffiziente Computing Plattformen (BMBF Spitzencluster Cool Silicon) 99 6.4.8 eeClust Energieeffizientes Cluster Computing 99 6.4.9 HI/CFD − Hocheffiziente Implementierung von CFD Codes fĂŒr HPC Many Core Architekturen 99 6.4.10 SILC − Scalierbare Infrastruktur zur automatischen Leistungsanalyse paralleler Codes 100 6.4.11 TIMaCS − Tools for Intelligent System Mangement of Very Large Computing Systems 100 6.5 KOOPERATIONEN 101 7 DOIT INTEGRIERTES INFORMATIONSMANAGEMENT 111 7.1 VISION DER TU DRESDEN 111 7.2 ZIELE DES PROJEKTES DOIT 111 7.2.1 Analyse der bestehenden IT UnterstĂŒtzung der Organisation und ihrer Prozesse 111 7.2.2 Erarbeitung von VerbesserungsvorschlĂ€gen 111 7.2.3 HerbeifĂŒhrung strategischer Entscheidungen 112 7.2.4 Planung und DurchfĂŒhrung von Teilprojekten 112 7.2.5 Markt und Anbieteranalyse 112 7.2.6 Austausch mit anderen Hochschulen 112 7.3 ORGANISATION DES DOIT PROJEKTES 112 7.4 IDENTITÄTSMANAGEMENT 113 7.5 ELEKTRONISCHER KOSTENSTELLENZUGANG (ELKO) 114 8 AUSBILDUNGSBETRIEB UND PRAKTIKA 117 8.1 AUSBILDUNG ZUM FACHINFORMATIKER / FACHRICHTUNG ANWENDUNGSENTWICKLUNG 117 8.2 PRAKTIKA 118 9 AUS UND WEITERBILDUNGSVERANSTALTUNGEN 119 10 VERANSTALTUNGEN 121 11 PUBLIKATIONEN 123 TEIL III BERICHTE DER FAKULTÄTEN FAKULTÄT MATHEMATIK UND NATURWISSENSCHAFTEN Fachrichtung Mathematik 129 Fachrichtung Physik 133 Fachrichtung Chemie und Lebensmittelchemie 137 Fachrichtung Psychologie 143 Fachrichtung Biologie 147 PHILOSOHISCHE FAKULTÄT 153 FAKULTÄT SPRACH , LITERATUR UND KULTURWISSENSCHAFTEN 157 FAKULTÄT ERZIEHUNGSWISSENSCHAFTEN 159 JURISTISCHE FAKULTÄT 163 FAKULTÄT WIRTSCHAFTSWISSENSCHAFTEN 167 FAKULTÄT INFORMATIK 175 FAKULTÄT ELEKTRO UND INFORMATIONSTECHNIK 183 FAKULTÄT MASCHINENWESEN 193 FAKULTÄT BAUINGENIEURWESEN 203 FAKULTÄT ARCHITEKTUR 211 FAKULTÄT VERKEHRSWISSENSCHAFTEN „FRIEDRICH LIST“ 215 FAKULTÄT FORST , GEO UND HYDROWISSENSCHAFTEN Fachrichtung Forstwissenschaften 231 Fachrichtung Geowissenschaften 235 Fachrichtung Wasserwesen 241 MEDIZINISCHE FAKULTÄT CARL GUSTAV CARUS 24

    Ficucs: Ein Constraint-Solver fĂŒr geometrische Constraints in 2D und 3D

    Get PDF
    This thesis reflects the results of many years of research and development work in the field of geometric constraints for standard geometries in 2D and 3D. The experiences with constructive as well as numerical approaches for the calculation of constraint-based models have been continuously incorporated into the development of the constraint solver Ficucs. Besides the algorithms and data structures used in Ficucs the thesis describes various applications which use Ficucs as calculation module and corresponding models. The aim was to develop a constraint solver which is usable in many different kinds of projects. The focus was on interactivity and stability of the algorithms, because that is very important for the user's acceptance. A lot of improvements were found, most of them were also implemented and thus verified. It arose that a combination of different concepts in one application is often problematic. The thesis shall make the achieved results accessible to the interested readers and motivate further research work concerning a hybrid approach which combines constructive as well as numerical methods.Die vorliegende Arbeit spiegelt Ergebnisse einer langjĂ€hrigen Forschungs- und EntwicklungstĂ€tigkeit auf dem Gebiet der geometrischen Constraints zu Standardgeometrien in 2D und 3D wider. Die Erfahrungen zu konstruktiven und numerischen AnsĂ€tzen fĂŒr das Berechnen der constraint-basierten Modelle flossen in die Entwicklung des Constraint-Solvers Ficucs ein. Neben den in Ficucs genutzten Algorithmen und Datenstrukturen werden diverse Applikationen, welche Ficucs als Berechnungsmodul nutzen, sowie dazugehörige Modelle beschrieben. Ziel der TĂ€tigkeiten war es, einen in den verschiedensten Projekten einsetzbaren Constraint-Solver zu entwickeln. Besonderes Augenmerk lag auf der InteraktivitĂ€t sowie der StabilitĂ€t der Algorithmen, welche fĂŒr eine Nutzerakzeptanz sehr wichtig sind. Hierzu wurden immer wieder Verbesserungsmöglichkeiten gefunden, zum Großteil auch implementiert und somit verifiziert. Es zeigte sich, dass die Kombination unterschiedlicher Konzepte in einer Anwendung oft problematisch ist. Die vorliegende Arbeit soll die erreichten Resultate interessierten Lesern zugĂ€nglich machen und zu einer weiteren ForschungstĂ€tigkeit in Richtung eines hybriden Ansatzes aus konstruktiven und numerischen Verfahren anregen
    • 

    corecore