1,608 research outputs found

    Klimamodelle

    Get PDF

    Referenzprozessmodellierung: Methoden, Konzepte und Transformationen

    Get PDF
    Historisch gewachsene Strukturen und AblĂ€ufe stellen Unternehmen vor neuen Herausforderungen. Diese bestehen im erhöhten Wettbewerbsdruck, kĂŒrzer werdenden Produktlebenszyklen und neuen Arbeitsmethoden. Innerhalb dieses Umfelds ist es notwendig, die vorhandenen GeschĂ€ftsprozesse stets zu verbessern und den neuen Anforderungen anzupassen. Um die AnpassungsvorgĂ€nge zu beschleunigen haben sich Referenzmodelle bewĂ€hrt. Referenzmodelle oder Referenzinformationsmodelle stellen durch ihre AllgemeingĂŒltigkeit vordefinierte und bewĂ€hrte AblĂ€ufe dar, an der sich Unternehmen ihre spezifischen Modelle ableiten können. Die vorliegende Arbeit versucht zuerst ein Überblick ĂŒber die vorhandenen Methoden und Konzepte innerhalb der Referenzprozessmodellierung zu geben. Dabei werden auch vorhandene Referenzmodelle aufgelistet und ihre Einsatzgebiete aufgezeigt. Ein weiterer Bereich, welches diese Arbeit umfasst, ist die Transformation von vorhandenen Referenzmodellen. Die Transformation erfolgt von ereignisgesteuerten Prozessketten nach Business Process Model and Notation (BPMN) 2.0. Diese Arbeit wird die DurchfĂŒhrbarkeit der Transformation nach BPMN 2.0 aufzeigen und die gesammelten Erkenntnisse wiedergeben

    Entwurf und Analyse sicherheitsrelevanter Kommunikationsarchitekturen

    Get PDF
    In the future, system engineers of railway control systems have to consider digital communication between components more than ever. The number of communicating systems rises steadily, while the offer of commercial off the shelf products for digital transmission networks is also growing. Safety protocols be included in the architecture in order to guarantee that safety-critical systems could be used on unsafe transmission channels. Safety layers have to detect different types of message errors to grant functional safety. It is highly recommended to prove the specification of a safety protocol with model checking methods to ensure a correct specification. The safety reaction on such errors must be a safe state, which usually stops the communication service until the system is reinitialised or reset by an operator. Therefore a safe communication reduces the fault tolerance against arbitrary transmission errors and lowers the reliability of the communication architecture. To improve the fault tolerance against message errors it is necessary to use a reliable message transmission service before the safety check is executed. A reliable transmission service can be included in the safety layer, in the upper protocol layer of the grey channel or in both layers. A naive combination of fault-tolerance mechanisms in the grey channel and safety layers will not necessarily increase the overall fault-tolerance: if, for example, lost messages in the grey channel lead to retransmissions after timeouts, the message eventually passed to the receiving safety layer may be out-dated and therefore has to be discarded. As a consequence, it is necessary to perform analyses whether the design of safety related communication architectures is safe and reliable. This thesis describes a common concept for reliability and safety analysis of communication architectures in safety-critical systems. Case studies of industrial sized communication architectures evaluate this new approach. Besides, the analysis results are used to improve the design

    Ein Petri-Netz-Tabellen-Modell zur Anwendung im klassischen und agilen Projektmanagement

    Get PDF
    Projektmanagement (PM) und Petri Netze (PN) haben als Gemeinsamkeit, dass AktivitĂ€ten in AbhĂ€ngigkeit von Ereignissen ausgefĂŒhrt werden, welche dann selbst wieder Ereignisse erzeugen können. Wenn die AnwendungsdomĂ€ne PM und das Modellierungsmittel PN zusammentreffen, besteht die Möglichkeit Synergieeffekte entstehen zu lassen. Um ein Modell des agilen und klassischen PM in ein PN-Modell zu ĂŒberfĂŒhren, sind dazu beide Welten zur Modellierung und Simulation zu vereinen. Es existieren durchaus eine Reihe von AnsĂ€tzen auf diesem Gebiet, allerdings ohne BerĂŒcksichtigung wichtiger Teilaspekte, wie z. B. die der praktischen Anwendbarkeit. Die vorliegende Arbeit legt deshalb einen zyklischen Ablauf zugrunde, der mit strukturierten Tabellen beginnt. Diese kommen dem Vorgehen im praktischen PM entgegen, erreichen aber durch die Systematisierung die ÜberfĂŒhrbarkeit in das PN-Modell. Das PN-Modell legt eine Variante zugrunde, die aus der Sicht der Anwendungen verschiedene PN-Erweiterungen wie hierarchische, zeitbewertete oder gefĂ€rbte Netze unter Verwendung strukturierter Marken aufnimmt. Teilaufgaben werden in hierarchische PN-Konstrukte gekapselt, die anpassbar durch das innere PN, das Verhalten von Objekten des PM beschreiben. Typische Objekte wie AktivitĂ€ten und Ressourcen sind durch Eigenschaften wie AtomaritĂ€t, Wiederverwendbarkeit und Zeitverbrauch gekennzeichnet. Wechselwirkungen zwischen Konstrukten werden ĂŒber PN-Elemente beschrieben. Der gesamte Projektplan wird dadurch aus Konstrukten und deren Beziehungen aufgestellt. Das PN bildet dabei die zentrale Ablauflogik. Die Umsetzung beruht darauf, die Dateneingabe von der Planung und den aktuellen ZwischenstĂ€nden in der Tabellenstruktur vorzunehmen, und im Hintergrund automatisch das PN zu generieren bzw. zustandsabhĂ€ngig zu verĂ€ndern. DafĂŒr wird in der Arbeit ein experimentelles Tool beschrieben. Dabei sollen anschließend die Ergebnisse durchgefĂŒhrter Simulationen mit einem Standard-PN-Tool erneut in die bestehende Tabelle zurĂŒckgefĂŒhrt werden. Diese grundlegenden Vorteile des PN-Konzeptes können so vollumfĂ€nglich ausgenutzt und fĂŒr den Projektmanager auch ohne PN-Kenntnisse Verwendung finden. Dadurch wird die Methode dynamisch und ist fĂŒr verschiedenste Projekte universell einsetzbar.Project Management (PM) and Petri Nets (PN) have in common that activities are carried out depending on events, which can generate events by themselves. The combination of the application domain PM (agile and traditional) and the modelling tool PN may result in advantageous synergy effects. In order to transform a model of PM into a powerful PN model, these two concepts must be merged for mapping and simulation. There are a number of approaches in this area, with no consideration of important aspects such as practical applicability. The present thesis is therefore based on a cyclic process, starting with structured tables. These are in line with the procedure of practical PM but achieve through systematization the transferability into the PN model. The PN model is based on a powerful model with suitable extensions and necessary interpretations from the field of hierarchical, time-valued or coloured high-level PNs using structured token. Subtasks are encapsulated in hierarchical PN constructs that describe the behavior of PM objects in an adaptable way through the inner PN. Typical objects such as activities and resources are characterized by properties such as atomicity, reusability and time consumption. Interactions between constructs are described by PN elements. The objects of modelling for the entire project plan are based on constructs with their relationships to each other, with the PN forming the single point of processing logic. The implementation is based on entering the data from the planning and the current, intermediate statuses into a fixed, defined table structure and to automatically generate the PN in the background or to change it depending on conditions. The paper describes an experimental tool for this purpose. Afterwards, simulations are to be carried out on the basis of the models, and their results are to be incorporated back into the table. The advantages of the PN concept can thus be fully exploited and can be used by the project manager without requiring special PN knowledge. The method is based on a dynamic consideration and can be used universally for a wide range of projects

    The Development Process of a Teaching and Learning Environment featuring Digital Media for a Poetic "Textwerkstatt Deutsch" - Constructing the Domain Model in a Didactic Design Process

    Get PDF
    Nach wie vor existieren kaum Lernsoftware-Produkte bzw. digitale Lern-Arrangements, die deutschdidaktischen Ziel-, Inhalts-, Methoden- und LernwirksamkeitsansprĂŒchen genĂŒgen. Grundlage fĂŒr die Auseinandersetzung mit diesem Defizit war ein interdisziplinĂ€res Forschungsprojekt zwischen dem Fach Deutsch und der Bildungsinformatik. Initiiert durch das ursprĂŒngliche Bestreben, das besondere Potenzial eines lyrik-didaktischen Gegenstands in ein digitales Medium umzusetzen, werden in der Arbeit ĂŒber diesen Einzelfall hinausreichende, bildungsinformatische Modelle fĂŒr Didaktische Designprozesse (didactic design process, DDP) entwickelt. Die methodischen Implikationen dieser Modelle bilden die Grundlage fĂŒr das Didaktische Drehbuch (didactic storyboard, DSB), einem im Projekt entwickelten Instrument, dessen Einsatz im DDP dargestellt wird. Beim Versuch, unmittelbar das Produktziel zu verwirklichen, stĂ¶ĂŸt man auf erhebliche Schwierigkeiten, die sowohl fĂŒr die angewandte Mediendidaktik als auch die angewandt Informatik, insbesondere das Software Engineering (SE), oft typisch sind: Die Modellierung der fachlichen Lösung – im vorliegenden Fall der fachdidaktischen Lösung – fĂ€llt einer einseitigen Konzentration auf die dinglichen QualitĂ€ten bzw. materialen Eigenschaften des angestrebten Endprodukts zum Opfer. Wenn man bestimmte, herkömmliche SE-Methoden fĂŒr das didaktische Design einsetzt, kann es sogar zu einer Multiplikation negativer Effekte kommen. Bestimmte Formen des Prototyping-Verfahrens fĂŒhren beispielsweise zu einem naiven Technizismus. Ähnliche ZusammenhĂ€nge werden in Literatur und Praxis unter anderem mit dem Sprachproblem (im vorliegenden Fall zwischen eher geisteswissenschaftlich und formalwissenschaftlich geprĂ€gten Disziplinen) oder verschiedenen, aus dem SE bekannten PhĂ€nomenen, wie der „pragmatischen LĂŒcke“ oder dem „requirements creeping“, in Verbindung gebracht. Die eigenen Erfahrungen im Projekt deckten darĂŒber hinaus eine tiefer liegende, prinzipielle Schwierigkeit auf: didaktische Modelle können generell kaum bis ins Detail explizit angegeben werden. Die Konzepte sind oft sehr lĂŒckenhaft. (Im PrĂ€senzunterricht können derartige „LĂŒcken“ durch „Improvisieren“ geschlossen werden – was u.U. die QualitĂ€t des Unterrichts sogar erhöht –, nicht jedoch bei digitalen Lernumgebungen.) Es mĂŒssen also neue Mittel und Wege fĂŒr das didaktische Design gefunden werden. Schwerpunkt der Arbeit ist deshalb nicht das Ergebnis, sondern der Designprozess selbst. Ähnliche Betrachtungen im Zusammenhang mit digitalen Lern-Arrangements finden sich in anwendbarer Form in der Mediendidaktik und -pĂ€dagogik bisher kaum, in der Fachdidaktik Deutsch gar nicht. Das SE hingegen stellt Vorgehensmodelle fĂŒr die Softwareentwicklung bereit; diese sind jedoch nicht ohne weiteres auf den DDP ĂŒbertragbar. In Kapitel 3 werden deshalb eigene, genuin bildungsinformatische Modelle entwickelt: Ein Prozessmodell fĂŒr den DDP sowie ein Produktmodell fĂŒr Lern-Arrangements, das offen genug ist, sowohl das didaktische Feld zu beschreiben, als auch den Bezug zu technischen Produktmerkmalen herzustellen. Es werden die Spezifika von iterativ-inkrementellen und hermeneutisch-zyklischen DDPs, insbesondere auch das Konzept der Subprozesse, erarbeitet. Dabei ist der entscheidende Schritt zur Lösung des didaktischen Modellierungsproblems die regelrechte „Umkehr der Konstruktionsrichtung“: Zur Modellierung des Fachkonzepts ist ein spezifisches Konstruktionsverfahren, das einen erheblichen Anteil am Prozess hat, notwendig. Das bloße Abfragen von Anforderungen als Vorgaben fĂŒr den Medienentwurf ist nicht ausreichend und sogar kontraproduktiv. Das Didaktische Drehbuch (DSB), das im 4. Kapitel vorgestellt wird, unterstĂŒtzt ein solches Verfahren. Es bezeichnet ein Instrument, eine Methode und ein Artefakt fĂŒr die Hilfestellung bei der Lösung des Sprach-, Konstruktions- und Anforderungsproblems. Ein wesentliches Konzept des DSB ist das Handlungskonstrukt, das kontrastierend zum Anforderungs- und Objektkonstrukt aus dem SE verwendet wird. Das DSB unterstĂŒtzt differenzierte Heuristiken. Markant ist die „Heuristik der Spiegelung“, die GegenĂŒberstellung von Lehr- und Lernhandlungen. Es bestehen ZusammenhĂ€nge mit Basis- und Notationskonzepten aus der Systemanalyse („system analysis“, „business modelling“) des SE. Die Anwendung des DSB wird an einem Standard-Beispiel aus dem SE und Proben aus der Projektarbeit gezeigt. Ein softwaregestĂŒtztes DSB-Tool wird in GrundzĂŒgen beschrieben. FĂŒr die Weiterentwicklung der Modelle und Instrumente gibt es zwei Hauptrichtungen: Die Nutzung fĂŒr primĂ€r didaktische Zwecke, wie z.B. eine „analytische Unterrichtsplanung“, sowie die Nutzung fĂŒr die didaktisch qualifizierte Produktion von digitalen Lehr-Lern-Systemen. Das DSB verspricht auch neue Impulse fĂŒr die Validierung und Evaluation von Lehr-Lern-Systemen im Kontext des didaktischen Feldes.The German “Didaktik” is the science of teaching and learning. Didactic experts of German as a school subject criticize the mostly low “didactic” quality of learning software and multimedia learning tools concerning their domain, in spite of the increasing technical possibilities of multimedia. These inadequacies result in a low effectiveness on the learning processes of students and pupils. Our research project at a university of education dealt with this problem. The objective was to find ways and methods for designing learning software including more (subject) didactic aspects. Didactic experts of the subject of German literature, especially poetry, and experts for applied computer science, especially software engineering, cooperated closely in this project. A first approach toward a solution was to use standard engineering methodology. Software engineering (SE) offers heavyweight and lightweight processes for application in software development. When using such methods of SE in order to design, the typical result might be a one-sided focus on material features of the product, thus neglecting the didactic aspects such as didactic objectives, contents and methods. For example the application of a particular concept of throwaway prototypes might produce the very simplistic effect of “technical featurism”. Literature and practice concerning SE discuss different reasons and aspects regarding these phenomena, such as the “pragmatic gap”, “requirements creeping” and especially the “communication problem” between workers of different domains (in our case specialists for poetry versus engineers). All these aspects do apply; however, when modelling a “didactic concept” a deeper, essential problem emerges: The didactic concept itself is insufficient; and as a matter of principle it is difficult to explicitly specify the didactic model. To solve this problem a new methodology is necessary: It has to integrate SE methods such as approaches to “system analysis” and “business modelling” as well as multiple didactic approaches such as learning theory, instructional design, best practices, knowledge of teachers and so on. Didactic experts must be especially involved into the design process. To realize this, a set of generic models is developed in the thesis: fundamentals of a “didactic design process” (DDP) and its products, learning-environments and “didactic media”. (We call it learning-environments or -systems rather than teaching-environments, because learning may happen without teaching. We don't call it "instructional systems", because learning-environments can be more or less "instructional"). The reversion of the “direction of construction” distinguishes the DDP from “conventional” development processes. First of all the didactic model itself has to be constructed, regardless of the architectural model of the product or any technical or media aspects. As a result of the research project, the Didactic Storyboard (DSB) offers a method to do this systematically: It is a method, a tool and an artefact that supports the “didactic modelling”. It focuses on pedagogical and didactic aspects; the technical features are derived from those. It differs from SE concepts, as, for example, it employs activities (“Handlungen”) instead of using “requirements”, “use cases” or “object-oriented” concepts. It offers different heuristic methods, e.g. the detailed contrasting of learning and teaching activities. The DSB supports practical, creative work within the design process. Concerning further development of the DSB and the DDP there are two main points of focus. In terms of form, a software tool has to be developed in order to use it ergonomically and efficiently. In terms of content, there are two main directions. Firstly, in the field of didactics, e.g. teacher education, the DSB can help to overcome the gap between theory and practice by modelling, analysing, reflecting and evaluating scenarios of lessons for specific subjects. Secondly, in software production the DSB can promote the improvement of learning-environments

    Eine statistische Methode zur Erkennung von Dokumentstrukturen

    Get PDF
    This PhD thesis is on the topic of document recognition. It particularly discusses the aspects of learning document models and the recognition of the logical structure of documents. In order to achieve high reliability and user friendliness, we describe an interactive system which can easily be adapted to new document classes. In an initial learning session the system is able to generate a recognition model based on a small set of completely tagged logical documents. In the successive recognition sessions, the user interactively corrects the recognition errors of the system. In order to prevent it from repeating the same errors again, these corrections are automatically integrated to the model thanks to the system's incremental learning capabilities. The representation of the document model is based on a novel, statistical formalism. It is based on n-grams, which have been generalized to be able to represent tree structures. The basic principle consists in the representation of local patterns in tree structures using the conditional probabilities of n-grams. Such a statistical model is able to represent one document class at a time. In the discussion of the expressiveness of the statistical model, we introduce the notion of the entropy of a model. We further introduce a learning algorithm, which estimates the n-gram probabilities of the model based on a set of sample documents. The same algorithm is again used in the incremental learning steps. The recognition of the physical structure of a document is based on classical methods that have been documented in the literature. However, the logical structure tree is here constructed stepwise on top of the physical structure, using a heuristic bottom-up procedure. The optimal solution is found in an efficient way by a quality measure and a best-first search strategy. The approach has been empirically validated on three different document classes, the main test series consisting in 25 documents of an article collection with average structural complexity and containing a total of 400 pages. The tests revealed that the recognition rate of the system constantly improves with the number of recognized documents. When the end of this training and recognition phase has been reached, about one correction is necessary every four pages. Finally, possibilities of integrating the statistical n-gram model with existing standards like SGML/DSSSL are discussed. To this purpose, a method which translates a statistical model into the corresponding DTD is described.Die vorliegende Dissertation behandelt die Erkennung von Dokumenten. Es werden schwerpunktmĂ€ssig die Aspekte des Lernens von Dokumentmodellen und der Erkennung der logischen Struktur von Dokumenten betrachtet. Um sowohl eine hohe ZuverlĂ€ssigkeit als auch Bedienungsfreundlichkeit zu erreichen, wird ein interaktives System beschrieben, das sich leicht an neue Dokumentklassen anpassen lĂ€sst. Das System benötigt eine initiale LernfĂ€higkeit, indem es aus vollstĂ€ndigen, logischen Dokumenten ein vorlĂ€ufiges Erkennungsmodell generieren kann. In darauf folgenden ErkennungsvorgĂ€ngen werden allfĂ€llige Fehler interaktiv vom Benutzer korrigiert. Durch die inkrementelle LernfĂ€higkeit des Systems werden die Korrekturen in das Modell integriert, und so die Wiederholung desselben Fehlers verhindert. FĂŒr die Darstellung des Dokumentmodells wird ein neuartiger, statistischer Formalismus verwendet. Er basiert auf n-Grammen, die in einer Weise erweitert wurden, dass sie auch Baumstrukturen reprĂ€sentieren können. Das Grundprinzip basiert auf der Darstellung lokaler Muster in Baumstrukturen durch die bedingten Wahrscheinlichkeiten von n-Grammen. Ein derartiges statistisches Modell vermag jeweils eine Dokumentklasse vollstĂ€ndig zu beschreiben. In der Diskussion um die ReprĂ€sentationsfĂ€higkeit des statistischen Modells wird der Begriff der Entropie eingefĂŒhrt. Es wird ein Lernalgorithmus vorgestellt, der die n-Gramm-Wahrscheinlichkeiten aus vorgelegten Beispieldokumenten schĂ€tzt. Derselbe Algorithmus gelangt auch in inkrementellen Lernphasen zur Anwendung. Die Erkennung der physischen Struktur eines Dokuments erfolgt mit klassischen Methoden aus der einschlĂ€gigen Literatur. Auf der physischen Struktur eines zu erkennenden Dokuments wird mit einem bottom-up Verfahren der logische Strukturbaum konstruiert. Die Heuristik wĂ€hlt unter Verwendung einer Bewertungsfunktion und einer best-first Suchstrategie effizient eine optimale Lösung aus. Der Ansatz wird an Dokumenten aus drei verschiedenen Klassen validiert. Die Haupttestserie besteht aus 25 Dokumenten mit insgesamt 400 Seiten einer Serie von Artikeln mittlerer KomplexitĂ€t. Die Tests belegen, dass die Erkennungsleistung des Systems mit der Anzahl erkannter Dokumente zunimmt, so dass schliesslich etwa eine Korrektur pro vier Seiten nötig ist. Schliesslich werden Integrationsmöglichkeiten des statistischen n-Gramm-Modells mit bestehenden Standards wie zum Beispiel SGML/DSSSL erforscht. Es wird dazu eine Methode vorgestellt, die ein statistisches Modell in eine entsprechende DTD ĂŒbersetzt

    Building Information Modeling im Erdbau - eine Potentialanalyse im Spezialtiefbau

    Get PDF
    Jede Baumaßnahme ist durch einen Unikatcharakter geprĂ€gt. Individuelle Planung, Vergabe und BauvorgĂ€nge stellen immer wieder aufs Neue eine große Herausforderung dar. Durch die sich teilweise sehr schnell Ă€ndernden Randbedingungen, mĂŒssen erarbeitete AblĂ€ufe hĂ€ufig schnell geĂ€ndert werden. Dies geschieht heutzutage meist auf Grundlage von Erfahrungen der am Bau Beteiligten. Auch bei bester Planung und Vorbereitung können UnwĂ€gbarkeiten den Bauprozess aufhalten. Das können ungeeigneter Baugrund, verschiedenste Hinderungen im Baufeld, schlechte WitterungsverhĂ€ltnisse, AusfĂ€lle von Maschinen, verĂ€nderte Zielsetzungen des Auftraggebers und vieles mehr sein. Dies fĂŒhrt zu BauzeitverlĂ€ngerungen und damit zu Kostensteigerungen. Um diesen Problemen besser begegnen zu können und diesen komplexen und fehler-anfĂ€lligen Prozess zu unterstĂŒtzen, sind ein verbesserter Informationsfluss, genauere Boden-aufschlĂŒsse und eine exaktere Dimensionierung des einzusetzenden GerĂ€tes notwendig. Aus diesen GrĂŒnden ist der Einsatz von Building Information Modeling (BIM) sinnvoll. BIM bietet die Möglichkeit den Informationsfluss zu verbessern, die Datengenauigkeit zu erhöhen und AblĂ€ufe zu optimieren. Außerdem ermöglicht die Anwendung Planungsschritte miteinander zu verknĂŒpfen, Kalkulationen zu vereinfachen und das Erstellen eines intelligenten Modells, das ĂŒber den gesamten Lebenszyklus erweitert werden kann. Die Maßnahmen des Spezialtiefbaus zĂ€hlen zu den kostenintensivsten auf einer Baustelle. Großes GerĂ€t und spezialisierte Firmen sind fĂŒr eine erfolgreiche DurchfĂŒhrung unerlĂ€sslich. Da der Baugrund immer einen großen Unsicherheitsfaktor bildet, mĂŒssen geeignete, unterstĂŒtzende Anwendungen zum Einsatz kommen. HierfĂŒr bildet BIM eine geeignete Plattform. Protokolle, Maschinendaten und Kontrolldaten können hier webbasiert analysiert und fĂŒr alle zugĂ€nglich gemacht werden, um zum einen die Transparenz zu steigern und zum anderen den Überblick, selbst bei hochkomplexen Bauvorhaben zu behalten. In dieser Arbeit soll ein Überblick ĂŒber die aktuelle Forschungssituation im Bereich Building Information Modeling im Erdbau, speziell im Spezialtiefbau, gegeben werden. Die Ergebnisse die mit Hilfe vorhandener Publikationen und Forschungsarbeiten verschiedener UniversitĂ€ten und namhafter Forschungsgruppen zusammengetragen wurden sollen eine Grundlage fĂŒr die weitere Forschung in diesem Bereich bilden. Über die Aufgabenstellung hinaus wird zusĂ€tzlich mit dem Softwareprogramm Revit 2014 ein Modell erstellt. Es wird versucht eine ĂŒberschnittene Bohrpfahlwand zu modellieren und sie mit Parametern auszustatten. Zusammenfassend wird das Programm fĂŒr den Einsatz bewertet

    Was beeinflusst den Erfolg beim Problemlösen in der Physik?

    Get PDF
    Problemlösen ist eine wesentliche Voraussetzung fĂŒr das Handeln in allen Bereichen des Lebens: In einfachen Alltagssituationen, bei (natur-) wissenschaftlichen Fragestellungen oder bei komplexeren gesellschaftlich relevanten Problemen spielt die Lösung von Problemen eine Rolle. Im Bereich der Physik werden insbesondere innerhalb des schulischen und universitĂ€ren Kontextes Probleme bearbeitet. Die tĂ€glichen Erfahrungen des Lehrbetriebs an Hochschulen machen jedoch deutlich, dass Teile der Studierenden große Schwierigkeiten haben, Probleme erfolgreich zu lösen. Die Diskrepanz zwischen der Wichtigkeit des Problemlösens und den Schwierigkeiten, die Studierenden dabei haben, ist der Ausgangspunkt fĂŒr die zentrale Fragestellung der vorliegenden Arbeit: Was unterscheidet "gute" von "schlechten" Problemlösern und welche Faktoren beeinflussen den Erfolg beim Problemlösen? Die Arbeit fokussiert hierbei auf Probleme aus dem Themenfeld der Mechanik. Mit Hilfe einer empirischen Untersuchung wird dazu beigetragen, bereits bekannte Erkenntnisse aus der traditionsreichen Forschung zum Problemlösen zu bestĂ€tigen, zu quantifizieren und zueinander in Beziehung zu setzen. Es werden sowohl quantitative als auch qualitative Eigenschaften "guter" und "schlechter" Problemlöser herausgearbeitet - gute Problemlöser können beispielsweise auf mehr Fachwissen zurĂŒckgreifen, besitzen ein höheres Selbstkonzept und machen weniger Planungsfehler beim Bearbeiten physikalischer Problemstellungen

    Modellierung einer GeschÀftsarchitektur nach Prinzipien der Serviceorientierung : Validierung eines Vorgehensmodells in einer Fallstudie mit armasuisse Immobilien

    Get PDF
    Das Management von Architekturen ist einbewĂ€hrtes Mittel,um mit komplexen Systeme mit vielen Stakeholdern und AbhĂ€ngigkeiten umzugehen. So ist es erstaunlich, dass bei all den Bestrebungen nach einen Alignment zwischen Business und IT der Systembegriff einer Enterprise Architecture (EA) fragmentiert ist. Eine integrierte Sicht auf Business- und Softwarearchitekturen wird nur begrenzt eingenommen. Business Architecture Management steckt noch in den Kinderschuhen, das ist die Beobachtung von Simon und Schmidt(2015a,S.VII).Und Lapalme et al.(2016,S.111) fordern nach neuen Ideen und Techniken fĂŒr die Disziplin EA Management. Diese Masterarbeit verfolgt einen neuen Ansatz, der in einem Framework von Saliji (2017) entwickelt wurde und eine neue Modellierungsmethode fĂŒr die Erhebung einer Business Architecture darstellt

    Erstellung von WochenaktivitĂ€tenplĂ€nen fĂŒr Verkehrsnachfragemodelle

    Get PDF
    Die Arbeit prĂ€sentiert actiTopp, ein Modell zur Erstellung von AktivitĂ€tenplĂ€nen. Diese werden fĂŒr Verkehrsnachfragemodellierungen benötigt und bilden, basierend auf Daten des Deutschen MobilitĂ€tspanels, alle AktivitĂ€ten einer Woche ab. Durch die Integration dieser, in vielen Modellen bisher nicht vorhandenen, LĂ€ngsschnittperspektive ermöglicht actiTopp die Abbildung von Auswirkungen aktueller und zukĂŒnftiger Fragestellungen der Verkehrsplanung sowie Verbesserungen der gesamten Prozesskette
    • 

    corecore