20 research outputs found

    Wie man in der Schule simuliert

    Get PDF
    In meiner Diplomarbeit befasse ich mich mit der Einführung der Wahrscheinlichkeitsrechnung in den Schulunterricht. Ich möchte Möglichkeiten aufzeigen, wie man als Lehrperson mithilfe zahlreicher Beispiele und den unterschiedlichsten Methoden dieses Teilgebiet der Mathematik den Schülern verständlich machen kann.In my dissertation I deal with the introduction of probability in school. I would like to indicate possibilities for teachers to make clear this branch of mathematics to students using numerous examples and different methods

    Untersuchung des Rauschverhaltens von aktiven Gruppenantennen

    Get PDF
    Funktechnologien verzeichnen in nahezu allen Bereichen des täglichen Lebens einen starken Aufschwung. Als einem der wesentlichen Elemente einer Funkübertragungsstrecke kommt der Antenne eine große Bedeutung zu. Neben der Betrachtung der deterministischen Parameter hat auch das Rauschverhalten einen unter Umständen wesentlichen Einfluss auf die Leistungsfähigkeit der Funkübertragungsstrecke. Es kommt insbesondere bei der Verwendung von Gruppenantennen zum Tragen. Die vorliegende Arbeit befasst sich zunächst mit der Herleitung der mathematischen Grundlagen für eine Rauschbetrachtung auf Basis von Wellengrößen. Darauf aufbauend werden Einzel- und Gruppenantennen hinsichtlich ihres Rauschverhaltens charakterisiert sowie potentielle Anwendungen dieser Kenntnisse diskutiert. Zur praktischen Bestätigung der theoretischen Erkenntnisse wurden zahlreiche Versuche durchgeführt, die Ergebnisse werden dokumentiert und ausgewertet. Im Rahmen dessen widmet sich die vorliegende Arbeit den besonderen Aspekten von quasioptischen Systemen und beschreibt eine neuartige Form des Aufbaus eines besonders breitbandigen quasioptischen Systemkonzepts, basierend auf der Integration von Hochfrequenzelementen in einen Parallelplattenleiter

    Die Computersimulation von sicherheitspolitischen Entscheidungsprozessen in Krisen- und Konfliktsituationen:ein interdisziplinärer Modellansatz

    Full text link
    Gegenstand der Arbeit ist die Computersimulation von sicherheitspolitischen Entscheidungsprozessen. Methodisch werden die Grundlagen der Computersimulation in der Politikwissenschaft im interdisziplinären Kontext von Psychologie und kognitiver Modellierung erörtert. Erkenntnistheoretisch wird anhand der methodischen Grundlagen ein kognitiver Agent modelliert und die Entscheidungsprozesse am Beispiel eines sicherheitspolitischen Szenarios untersucht. Grundlage des Szenarios sind die Ereignisse um den gescheiterten UNO Einsatz zum Schutz der Stadt Srebrenica im Jahre 1995. Die Ergebnisse der Arbeit zeigen zum einen, dass die interdisziplinäre Zusammenarbeit zur Untersuchung sicherheitspolitischer Entscheidungsprozesse ohne Alternative bleibt. Zum anderen wir mit Hilfe des kognitiven Agentenmodells deutlich, dass die formale Modellierung und Computersimulation komplexer Szenarien in der Politikwissenschaft ein nützliches Instrument für die Theorienbildung und -überprüfung darstellt

    Quantenoptische Zufallsgeneratoren : Methoden und Analysen

    Get PDF
    In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen

    Der Semantic Building Modeler - Ein System zur prozeduralen Erzeugung von 3D-Gebäudemodellen

    Get PDF
    Computer generated 3d-models of buildings, cities and whole landscapes are constantly gaining importance throughout different fields of application. Starting with obvious domains like computer games or movies there are also lots of other areas, e.g. reconstructions of historic cities both for educational reasons and further research. The most widely used method for producing city models is the „manual“ creation. A 3d artist uses modeling software to design every single component by hand. Especially for city models consisting of hundreds or thousands of buildings this is a very time consuming and thus expensive method. Procedural modeling offers an alternative to this manual approach by using a computer to generate models automatically. The history of procedural modeling algorithms goes back to the 1980s when the first implementations for the automatic texture synthesis were developed and published by Ken Perlin. Other important applications are the generation of plants based on formalisms like L-systems, proposed by Aristid Lindenmayer or particle systems widely used within computer graphics first proposed by William Reeves. Research concerning the applicability of the developed formalisms and techniques led to the creation of systems dedicated to the automatical computation of building and city models. These systems are often differentiated between rule-based and procedural systems. Rule-based systems use formalisms like text replacement systems whereas procedural systems implement every step of the construction process within the program code. The Semantic Building Modeler is a procedural system, which is configured by using user-provided XML-parameters. The semantic meaning of these parameters is fixed through a tight coupling with their usage within the program code. In this point, the semantic of the Semantic Building Modeler differs from other systems on the today’s market. Besides, it facilitates the introduction for novice users making their first experiences with procedural modeling. Concerning the algorithmic aspect the system proposes two new algorithms for the automatic creation and variation of building footprints. These enable the software to create automatically varied building structures. Additionally, the prototype implementation can be seen as an extendable framework. It offers a wide range of algorithms and methods, which can be used for future extensions of the current system. The prototype also contains an implementation of the Weighted-Straight-Skeleton-Algorithm, techniques for the distributed storage of configuration-fragments, the procedural construction of building components like cornice and many more. The prototypical realization of the developed algorithms is a proof-of-concept-implementation. It demonstrates that the usage of semantically based parameters for the procedural creation of complex and visually appealing geometry can go hand-in-hand. This opens the powerful algorithmic construction of building and city models to a big group of users who have no experience neither in the field of programming nor in the manual design of 3d models

    Calibration and validation of traffic simulation models for investigation of traffic assistance systems

    Get PDF
    Eine Verkehrsoptimierung auf deutschen Autobahnen erfolgt bislang vorwiegend infrastrukturseitig. Neue Ansätze zur Verkehrsoptimierung auf Fahrzeugebene sind sogenannte Verkehrsassistenzsysteme (VAS), die die Längsdynamik einzelner Fahrzeuge regeln, um insgesamt den Verkehrsfluss zu optimieren. In der vorliegenden Arbeit wird basierend auf einem generischen Systemmodell eine systematische Herleitung der Anforderungen zur Untersuchung der Auswirkung dieser Systeme auf den Verkehrsablauf vorgenommen. Dabei wird belegt, dass die Untersuchung eines VAS die gleichzeitige Berücksichtigung der mikroskopischen und makroskopischen Ebene in Verkehrssimulationsmodellen während der Kalibrierung und Validierung bedingt. Da bisherige Anwendungen von Simulationsmodellen diese Anforderung nicht berücksichtigen, wird ein neuer Zwei-Ebenen-Ansatz zur Kalibrierung und Validierung aufgezeigt. Dieser erfordert für einen gegebenen Streckenabschnitt die gleichzeitige empirische und simulative Erhebung mikroskopischer und makroskopischer Kenngrößen. In der Arbeit wird ein Messkonzept zur Ermittlung der notwendigen Kenngrößen ausgearbeitet. Zur Datenerhebung aus Fahrzeugsicht wurde ein Versuchsfahrzeug ausgerüstet. Die vorliegende Arbeit zeigt die Ergebnisse der Kalibrierung auf mikroskopischer Ebene des Fahrzeugfolgemodells nach Gipps auf. Aufgrund des Umfangs der betrachteten Folgefahrten wird ein neuer Ansatz der mikroskopischen Validierung von Modellen des Fahrzeugfolgeverhaltens vorgestellt. Obwohl das ermittelte Messkonzept nicht vollständig realisiert wurde, konnten auch die Methoden der makroskopischen Validierung exemplarisch umgesetzt werden. Die sich an diese Arbeit anschließende notwendige vollständige Umsetzung des aufgezeigten Messkonzepts und die Durchführung der vorgestellten Methoden zur Kalibrierung und Validierung werden es erlauben, die quantitativen Simulationsergebnisse mit einem höheren Grad an Vertrauen zu beurteilen.Up to now traffic optimzation on German highways is realized by systems based on the traffic infrastructure. Promising new attempts for traffic optimization at vehicle level are so-called traffic assistance systems (TAS) which regulate the longitudinal dynamics of single vehicles to optimize traffic flow. In the present work, a systematic derivation of the requirements to the investigation of these systems' effects on traffic flow is carried out, based on a generic system model. It is proved that the investigation of a TAS requires the concurrent consideration of both, the microscopic and macroscopic level during the calibration and validation of traffic simulation models. It is shown that present attempts of calibration and validation do not fulfil these requirements. Hence, as a solution a new two-level approach for calibration and validation is introduced. This requires the concurrent empiric and simulative acquisition of microscopic and macroscopic measurement data in such a manner that they share both, the same time and geographical reference. A plausible concept for data acquisition is proposed in this work. For data acquisition an experimental vehicle was set up. The present work presents the results of the calibration at microscopic level of the Gipps car-following model. On account of the amount of considered situations in which one vehicle is following another vehicle, a new approach for validation of car-following models on microscopic level is introduced. Although the proposed data acquisition concept was not realized entirely, the methods for validation on the macroscopic level could also be realized exemplarily. The necessary entire realization of the proposed data acquisition concept and proposed methods of calibration and validation will allow for an examination of the effects of TAS in traffic simulation models and a more sound evaluation of the quantitative results of the investigations

    Statistische Modelle in der Historischen Sozialforschung I: allgemeine Grundlagen - Deskriptivstatistik - Auswahlbibliographie

    Full text link
    Mit der hier vorgelegten Einführung in die quantitative Analyse empirischer Daten werden grundlegende Methoden der beschreibenden Statistik und deren Anwendungsbedingungen erläutert. Darüber hinaus führt der Autor in die Probleme des Verhältnisses von formalen Modellen und statistischen Konzeptionen ein. Die Anwendung der statistischen Modelle wird am Beispiel eines Forschungsprojekts aus der historischen Wahlforschung erläutert. Zunächst wird die wissenschaftstheoretische Position empirischer Forschung erläutert. Dabei werden grundlegende sozialwissenschaftliche Forschungsdesigns vorgestellt und ein Überblick über die einzelnen Phasen des empirischen Forschungsprozesses gegeben. Hieran anschließend folgt eine Erläuterung der Grundbegriffe der Statistik sowie eine Vorstellung der wichtigsten quantitativen Methoden: Auswahlverfahren, Datensammlung- und -aufbereitung, statistische Modelle, bivariate Datenanalyse (Varianz-, Korrelations- und Regressionsanalyse). Eine umfangreiche Auswahlbibliographie enthält die grundlegenden Monographien für die in der Historischen Sozialforschung wichtigsten Gebiete der statistischen Datenanalyse. (ICD

    Dezentrales Lastmanagement zum Ausgleich kurzfristiger Abweichungen im Stromnetz

    Get PDF
    In dieser Arbeit wird ein vollständig dezentrales Konzept zum Last- und Erzeugungsmanagement vorgestellt, mit dem sich Stromverbraucher und dezentrale Stromerzeugungsanlagen selbst organisieren können, um kurzfristig präzise Laständerungen durchzuführen. Dabei sollen nicht nur größere Stromverbraucher in Industriebetrieben, sondern auch Haushaltsgeräte (z. B. Gefrierschränke) und dezentrale Stromerzeugungsanlagen einbezogen werden

    Transferorientiertes Modularisierungskonzept am Beispiel des Massiven Modularisierten Wohnbaus

    Get PDF
    This thesis investigates the connection and influences of strategic management and product development in small and middle sized companies. To achieve this goal, experts were interviewed to explain dependencies between these company tasks with the target of developing solutions for avoiding product flops and as a consequence to avoid high costs. The survey and the literature research resulted in a universal proceed model which is suitable for small and middle sized companies. This proceed model supports these companies to connect business strategies and product development. For the development of the model, critical success factors of the product development had to be identified. Additionally, the required and involved actors for a successful corporate strategy and product development had to be researched. Adequate methods for the proceed model are explored, described and explained in support for the model application. The proceed model development focuses on complexity reduced solutions so that small and medium sized companies can apply the model on their business case with their available resources. This proceed model is applied on an Austrian middle sized company in the building development and construction sector, to prove and to improve the validity of the model. The subject of investigation of the deductive research process is the development of modular solid constructed houses with the aim of a successful market entrance. As a base of the building structure, studies of massive modular houses constructions are undertaken. For the transfer orientation, market opportunities are identified. On this base, a transfer oriented business model evolved. This business model should ensure an enhanced and stronger collaboration between strategic management and product development of companies. As a result of the research work, a possible and improved method for small and medium sized companies is presented allowing for developing timely products, shortening and fastening the product development process and avoiding financial losses
    corecore