22 research outputs found

    High Profile Systems Illustrating Contradistinctive Aspects of Systems Engineering

    Get PDF
    AbstractMany modern systems have a high degree of dependence on embedded software in order to perform their required functions. Some examples include transportation systems, hand-held devices, and medical equipment, among others. In designing their products, systems engineers typically take a top-down, process-oriented approach, decomposing a complex system into simpler, easier to manage, subsystems; the system requirements can then be allocated and flowed down as necessary to the appropriate subsystems. Software engineers take a more bottom-up, object-oriented approach, using simple building blocks to create a more complex system, and enhancing their existing blocks with new ones where necessary.In many cases, both techniques must be employed together in order to design a successful system. Although it may have been acceptable in the past for simpler systems to view software as a separate subsystem with a fixed set of requirements, greater complexity of modern systems requires a corresponding improvement in working methodology. With the software playing an increasingly pivotal role, systems engineers must become much more familiar with the architecture of the software than previously; Likewise, software engineers need a systems-level view to understand which aspects of the design could be volatile due to new stakeholders (bringing with them new requirements), technology upgrades, and the changing world in general.Systems whose success or failure play out in the public arena provide a rare opportunity to study the factors that contribute to their outcome. Using two such systems, the Denver International Airport baggage handling system and the Apple iPad, this paper will study some best practices that can lead to project success or failure, and show the importance of a rigorous capture and flow down to both hardware and software of the requirements that must be correct from the start, as well as of designing an architecture that can accommodate the inevitable changes to a system.Designing extensible systems with a tolerance for future changes is a key factor in modern complex systems. The baggage handling system failed in part because of a failure to appreciate the central role of software and an apparent lack of a suitable strategy for handling requirement changes. Methods for creating software which is resilient to change have been well studied; however what may be somewhat lacking even to the present day is a broader education of the existing body of knowledge, and how to integrate it with systems engineering methods.The iPad succeeded where many of its predecessors had failed by a successful application of traditional systems engineering techniques and correctly implementing the hardware elements. Coming from companies with experience in software development, the system extensibility was not an issue in this case. However, the designers of the earlier systems seemingly failed to understand the actual market needs, failed to develop a corresponding set of requirements to meet those needs, and failed to translate those requirements into an integrated hardware/software solution

    Recent Advances in Understanding the Structure and Properties of Amorphous Oxide Semiconductors

    Get PDF
    Amorphous oxide semiconductors (AOSs)--ternary or quaternary oxides of post-transition metals such as In-Sn-O, Zn-Sn-O, or In-Ga-Zn-O–have been known for a decade and have attracted a great deal of attention as they possess several technological advantages, including low-temperature large-area deposition, mechanical flexibility, smooth surfaces, and high carrier mobility that is an order of magnitude larger than that of amorphous silicon (a-Si:H). Compared to their crystalline counterparts, the structure of AOSs is extremely sensitive to deposition conditions, stoichiometry, and composition, giving rise to a wide range of tunable optical and electrical properties. The large parameter space and the resulting complex deposition--structure--property relationships in AOSs make the currently available theoretical and experimental research data rather scattered and the design of new materials difficult. In this work, the key properties of several In-based AOSs are studied as a function of cooling rates, oxygen stoichiometry, cation composition, or lattice strain. Based on a thorough comparison of the results of ab initio modeling, comprehensive structural analysis, accurate property calculations, and systematic experimental measurements, a four-dimensional parameter space for AOSs is derived, serving as a solid foundation for property optimization in known AOSs and for design of next-generation transparent amorphous semiconductors

    High Profile Systems Illustrating Contradistinctive Aspects of Systems Engineering

    No full text

    The design of an undergraduate chiropractic curriculum

    Get PDF
    Evidence is provided to support Kierkegaard's phenomenology that only what is learned through experience is truly known. It is demonstrated that the chiropractic curriculum represents a unique area of investigation and that it is possible to define curriculum; to create a functional and integrative model which subsumes elements from the traditional, cyclical and process models; and to design an integrative, problem-based, evidence-based, experiential chiropractic curriculum. A taxonomy is proposed for curriculum design in four domains which deal respectively with a) curriculum processes which include the selection, motivation and interaction of curriculum developers, curriculum definitions and models, and an algorithm for curriculum design; b) curriculum organisation which addresses philosophical, sociological, cultural and psychological foundations, curriculum paradigms and a chiropractic conceptual framework; c) curriculum development which concerns design strategies, situational analysis, intent, content, design and organisation of learning experiences and assessment of student performance; and d) curriculum application, which includes the learning climate, quality management, management of change, self-evaluation and external accreditationCurriculum and Instructional StudiesM. Ed. (Didactics

    Design revolutions: IASDR 2019 Conference Proceedings. Volume 2: Living, Making, Value

    Get PDF
    In September 2019 Manchester School of Art at Manchester Metropolitan University was honoured to host the bi-annual conference of the International Association of Societies of Design Research (IASDR) under the unifying theme of DESIGN REVOLUTIONS. This was the first time the conference had been held in the UK. Through key research themes across nine conference tracks – Change, Learning, Living, Making, People, Technology, Thinking, Value and Voices – the conference opened up compelling, meaningful and radical dialogue of the role of design in addressing societal and organisational challenges. This Volume 2 includes papers from Living, Making and Value tracks of the conference

    Computing genomic science: bioinformatics and standardisation in proteomics

    Get PDF
    Science is divided and compartmentalised into distinct areas of research. As science develops new research areas emerge and nurture new technologies, new methodological approaches, new disciplines and new research communities. These demarcations are socially constructed spaces that impose a sense of order on science by authenticating the new forms of knowledge that surface. Simply stated, the specific research areas and the social relations contained within them, enable science to progress in a proficient, communal, and sometimes cumulative manner. In this sense the constructed boundaries can be viewed as a set of ordering devices. The mapping of the Human Genome was a significant technical event that reordered biological activity by creating a number of these new socially constructed spaces. This celebrated scientific achievement helped yield a number of emerging 'omic' disciplines, numerous innovative high-throughput technologies, and a myriad of embryonic scientific communities, each with its own distinct identity. In this thesis the Human Genome Project is viewed as the genomic stage of the omic revolution or stage one. The period directly after the sequencing has been coined the post-genomic era and this is described in the thesis as stage two of the social reorganisation of biology. Underpinning the whole thesis is the understanding that omic science is driven by a systems biology (SB) approach to twenty-first century biology. The realisation of this will constitute stage three. Computational biologists are also using a similar model of scientific practice in order to map, trace and direct future scientific practice. However in using this developmental model, the organisation of scientific practice may turn messy when boundaries need to be permeated, re-aligned and re-ordered in the movement from post-genomic science to systems biology science. Consequently the specific aim of this research is to trace how two of these maturing research areas, 'proteomics' and 'bioinformatics', are emerging and stabilising within stage two of the omic model, and to explore some of the social issues that are being reordered within their infrastructure. Drawing upon thirty-one interviews the research provides valuable insight into the social construction of post-genomic knowledge and adds to the growing literature in the field of science and technology studies (STS) by revealing how socially constructed knowledges are translated and transferred within and between newly created scientific communities. This is achieved through an examination of scientific identity, interdisciplinary expertise and community-based standardisation

    Saintmaking and Saintbreaking: An Empirical Analysis of the Mormon Experience

    Get PDF
    Why do fervent following adherents disaffiliate from the religion of their birth? In so doing oftentimes one’s culture, heritage, and perhaps all that has provided shape to a person’s life may be left behind as well. The extremely complex, controlling, and efficacious system of Latter-day Saint socialization within the Rocky Mountain West has served as the substrate by which a comparatively young and peculiar people have experienced a relative catapult into the global arena of religious philosophy, international politics, and economic commerce. To be sure, studies of departure from mainline churches abound. However, such research has neglected to specifically address the exit process of embedded Mormons. This exploration is unique in that I provide an articulation of elements that clarify what it means to possess an identity aligned with the Church of Jesus Christ of Latter-day Saints within its home parameters of the Mormon culture region. Narrative data acquired from forty ex-LDS members who were born to, and raised by fervent following parents underneath the ideological shelter of the Mormon sacred canopy proffers a treasure trove of feelings, patterns, and expectations that offer insight and explanation into the mechanisms connected to LDS detachment, exit, and apostasy

    Statistical Modeling of Extreme Environmental Values

    Get PDF
    Η ανάπτυξη και μελέτη στοχαστικών μοντέλων με σκοπό την επίλυση προβλημάτων που σχετίζονται με την εμφάνιση ακραίων τιμών, αποτελεί, τις τελευταίες τρεις δεκαετίες, σημαντικό πεδίο έρευνας της επιστήμης των εφαρμοσμένων μαθηματικών. Η μοντελοποίηση και μακροπρόθεσμη πρόβλεψη εμφανίσεων ακραίων συμβάντων παίζει σημαντικό ρόλο σε εφαρμοσμένα πεδία όπως η Μετεωρολογία, Υδρολογία αλλά και σε έργα θαλάσσιας μηχανικής όπου η γνώση της κλιματολογίας της περιοχής είναι απαραίτητη για την εκτίμηση της ασφάλειας και την καλή λειτουγία των κατασκευών. Η εκτίμηση λοιπόν της επικινδυνότητας (ρίσκου) εμφάνισης ακραίων συμβάντων μελετάται μέσω της Θεωρίας των Ακραίων Τιμών. Οι δύο επικρατέστερες ασυμπτωτικές προσεγγίσεις κατανομών από ακραία δεδομένα στην μακροχρόνια κλίμακα του χρόνου είναι οι μέγιστες τιμές διατεταγμένων τυχαίων μεταβλητών και η ακολουθία ανεξάρτητων και ισόνομα κατανεμημένων τυχαίων μεταβλητών οι οποίες υπερβαίνουν μία “αρκετά υψηλή” τιμή κατωφλίου. Στο πλαίσιο της Θεωριάς Ακραίων Τιμών και βασιζόμενοι στις δυο επικρατέστερες ασυμπτωτικές προσεγγίσεις, η παρούσα μελέτη αποσκοπεί στην ανάπτυξη μιας ολοκληρωμένης, κατά το δυνατόν, προσέγγισης για την μοντελοποίηση των μεγίστων τιμών της ταχύτητας του ανέμου, όταν το διαθέσιμο δείγμα είναι περιορισμένο ή εμφανίζει ασυνέχεια καταγραφής δεδομένων. Στο πλαίσιο αυτό, οι βασικοί στόχοι της παρούσας διατριβής είναι οι εξής: • Μελέτη επίδρασης του διαθέσιμου δείγματος στην μοντελοποίηση των ακραίων ενδεχομένων ταχύτητας ανέμου με χρήση της θεωρίας των ακραίων τιμών, • Επισήμανση γνωστών αλλά και λιγότερο γνωστών μεθόδων εκτίμησης παραμέτρων της πιθανοθεωρητικής κατανομής των ακραίων τιμών της ταχύτητας του ανέμου και η αξιολόγηση συμπεριφοράς της απόδοσής τους έναντι των καθιερωμένων μεθόδων εκτίμησης, • μοντελοποίηση των παραμέτρων της τυπικής γενικευμένης κατανομής ακραίων τιμών με συστηματική μελέτη και σύγκριση διαφόρων συνδυασμών χρονικής εξάρτησης των παραμέτρων, • ανάπτυξη μιας ολοκληρωμένης προσέγγισης για μονοδιάστατες τυχαίες μεταβλητές μέσω ενός προτεινόμενου μοντέλου που λαμβάνει υπόψη την συσχέτιση των ακραίων τιμών όταν αυτές εμφανίζονται ακανόνιστα στην κλίμακα του χρόνου. Ο κύριος στόχος του μοντέλου είναι η δημιουργία νέου υποδείγματος με ασυμπωτική θεώρηση στατιστικά ανεξάρτητων πλέον παρατηρήσεων. Ειδικότερα, το πρόβλημα που σχετίζεται με την μελέτη της επίδρασης του διαθέσιμου δειγματικού μεγέθους στην εκτίμηση τιμών σχεδιάσεως απο μοντέλα ερμηνείας, εκτιμήσεων και προβλέψεων ακραίων συμβάντων, μελετάται διεξοδικά από δύο δειγματοληπτικές προσεγγίσεις. Απο προσομοιώσεις τύπου Monte-Carlo και από ανεμολογικά δεδομένα χρονοσειρών από βάσεις δεδομένων μέτριας χωρικής ανάλυσης. Η εκτίμηση και η εξάρτηση των παραμέτρων της κατανομής από το διαθέσιμο δείγμα θα γίνεται μέσω βασικών αλλά και λιγότερο γνωστών μεθόδων. Απο την στατιστική ανάλυση των βέλτιστων μεθόδων εκτίμησης με βάση τα κριτήρια καλής απόδοσης σε δεδομένα προσομοίωσης, γίνεται στην συνέχεια εκτίμηση της απόδοσης σε ανεμολογικά δεδομένα διαφορετικών χρονικών περιόδων και διαφορετικού χρονικού βήματος. Η παρούσα μελέτη εστιάζει σε σημεία της Βορείου Θάλασσας και σε σημεία Ανατολικά και Δυτικά της Κεντρικής Αμερικής όπου ισχυρή μετεωρολογική δραστηριότητα στις περιοχές αυτές οδηγεί αναπόφευκτα σε φαινόμενα που χαρακτηρίζονται από ακραίες τιμές ταχύτητας ανέμων. Η επίδραση του διαθέσιμου δείγματος στην απόδοση των μεθόδων εκτίμησης για τιμές σχεδιάσεως των 50 και 100 ετών περιόδων επαναφοράς θα αξιολογηθεί με στατιστικά κριτήρια. Απο την μελέτη αυτή συμπεραίνεται ότι η συνδυαστική μέθοδος Σταθμισμένων Ροπών προτείνεται ως η ικανοποιητική μέθοδος για την μοντελοποίσηση ακραίων τιμών όταν το διαθέσιμο δείγμα είναι περιορισμένο. Ο επόμενος άξονας μελέτης σχετίζεται με την διερεύνηση της τάσης μεταβολής των πιθανοθεωρητικών χαρακτηριστικών της ασυμπτωτικής κατανομής των ακραίων τιμών της ταχύτητας του ανέμου. Ειδικότερα, για την ευρύτερη περιοχή της Βορείου Θάλασσας, όπου έχουν παρατηρηθεί τα τελευταία χρόνια μεταβολές του ανεμολογικού κλίματος, γίνεται έλεγχος της στασιμότητας των χρονοσειρών ανέμου. Για τις χρονοσειρές στα σημεία που ικανοποιούν τον έλεγχο υπόθεσης στασιμότητας απο κατάλληλα στατιστικά κριτήρια, γίνεται μοντελοποίηση των παραμέτρων της τυπικής Γενικευμένης Κατανομής Ακραίων Τιμών με κατάλληλους συνδυασμούς χρονικής εξάρτησης κυρίως στις κανονικοποιημένες παραμέτρους θέσης και κλίμακας. Στην παραμετροποίηση αυτή, η παράμετρος σχήματος της κατανομής θεωρήθηκε ανεξάρτητη του χρόνου. Η επιλογή του κατάλληλου μοντέλου, παραμετρικού ή μη παραμετρικού, βασίζεται σε στατιστικά κριτήρια καλής προσαρμογής (goodness-of-fit criteria) χρησιμοποιώντας ανεμολογικά δεδομένα χαμηλής χωρικής ανάλυσης σε δείγμα με εύρος πολλών ετών. Στο πλαίσιο αυτής της μελέτης, συμπεραίνεται ότι η απλούστερη παραμετροποίηση της ασυμπτωτικής κατανομής των ακραίων τιμών μοντελοποιεί κατάλληλα τις μεταβολές του ανεμολογικού κλίματος. Ο τελευταίος άξονας μελέτης εστιάζει στην μελέτη της πιθανής συσχέτισης ακραίων τιμών όταν αυτές εμφανιζονται με ακανόνιστο χρονικό βήμα στην κλίμακα του χρόνου. Στο πλαίσιο αυτό, προτείνεται μια νέα μέθοδος αναδειγματοληψίας με κύριο στόχο την δημιουργία ενός νέου υπο-δείγματος που αποτελείται από ανεξάρτητες παρατηρήσεις έτσι ώστε να πληρούνται τα απαραίτητα στατιστικά κριτήρια για την εκτίμηση των τιμών σχεδιάσεων μέσω της θεωρίας των ακραίων τιμών. Η προτεινόμενη μέθοδος DeCA Uncorrelated (DeCAUn) model βελτιστοποιεί και διορθώνει την υπάρχουσα μέθοδο αναδειγματοληψίας physical De-Clustering Algorithm (DeCA) model, λαμβάνοντας υπόψη την συσχέτιση των παρατηρήσεων όταν αυτές εμφανίζονται με ακανόνιστο χρονικό βήμα στην κλίμακα του χρόνου. Η προτεινόμενη αναδειγματοληπτική μέθοδος θεωρείται ως εναλλακτική από μια σειρά από προτεινόμενα μοντέλα που εκτιμούν τον συντελεστή αυτοσυσχέτισης από παρατηρήσεις με ακανόνιστο χρονικό βήμα στην κλίμακα του χρόνου. Ειδικότερα, το προτεινόμενο μοντέλο δεν επιχειρεί έλεγχο του φάσματος, αλλά υπολογίζει απευθείας την συσχέτιση των χρονικά ακανόνιστων παρατηρήσεων με κατάλληλες συναρτήσεις βάρους, καθορίζοντας τον βαθμό εξάρτησης μεταξύ των παρατηρήσεων. Συγκριτικά αποτελέσματα των εκτιμώμενων τιμών σχεδιάσεως και διακύμανσης του μοντέλου παρουσιάζονται για περιοχές της Ευρώπης που είναι εκτεθειμένες στα καιρικά συστήματα του Ατλαντικού Ωκεανού, της Βόρειας Θάλασσας και της Μεσογείου. Για την στατιστική ανάλυση του προτεινόμενου μοντέλου χρησιμοποιήθηκε η κλασσική μέθοδος εκτίμησης παραμέτρων μέσω της Μεγίστης Πιθανοφάνειας με χρονοσειρές από βάσεις δεδομένων χαμηλής και υψηλής ανάλυσης. Τα ανεμολογικά δεδομένα απο βάσεις υψηλής ανάλυσης είναι απαραίτητα για την πληρέστερη αναπαράσταση του ακραίου αιoλικού δυναμικού ειδικότερα σε κλειστές θαλάσσιες περιοχές. Για τον έλεγχο της ασυμπτωτικής συμπεριφοράς της προτενόμενης μεθόδου αναδειγματοληψίας χρειάστηκαν χρονοσειρές απο δείγμα με εύρος πολλών ετών όπου αναπόφευκτα η μοντελοποίηση σ’αυτή την περίπτωση πραγματοποιήθηκε απο βάσεις δεδομένων χαμηλής ανάλυσης. Στο πλαίσιο αυτής της μελέτης η προτεινόμενη μεθοδολογία αναδειγματοληψίας θεωρείται εναλλακτική προσέγγιση για την μοντελοποίηση ακραίων τιμών απο μικρό δείγμα λαμβάνοντας υπόψη την συσχέτιση των παρατηρήσεων όταν αυτές εμφανίζονται με ακανόνιστο χρονικό βήμα στην κλίμακα του χρόνου. Τα κυριότερα ευρήματα στο πλαίσιο αυτής της μελέτης για την μοντελοποίηση των μεγίστων τιμών της ταχύτητας του ανέμου παρουσιάζονται συνοπτικά παρακάτω: • Η συνδυαστική μέθοδος Σταθμισμένων Ροπών προτείνεται ως η κατάλληλη μέθοδος για την μοντελοποίηση ακραίων τιμών σε σχέση με την κλασική προσέγγιση της Μεγίστης Πιθανοφάνειας όταν το διαθέσιμο δείγμα είναι περιορισμένο. Το σφάλμα αβεβαιότητας στην εκτίμηση των επιθυμητών τιμών σχεδιάσεως μειώνεται σημαντικά όταν το διαθέσιμο δείγμα είναι μεγαλύτερο απο 35 έτη. • Η ανάλυση αυτή ανέξειξε ότι το γραμμικό μοντέλο της χρονικής εξάρτησης στην παράμετρο θέσης μοντελοποιεί κατάλληλα τις ακραίες τιμές της ταχύτητας ανέμου σε σημεία στην Βόρεια Θάλασσα όπου αποδεδειγμένα παρατηρούνται μεταβολές του ανεμολογικού κλίματος. • Για χρονοσειρές μεγαλύτερες απο 15 έτη συμπεραίνεται ότι η προτεινόμενη αναδειγματοληπτική μέθοδος θεωρείται ως εναλλακτική για την μοντελοποίηση των ακραίων τιμών της ταχύτητας ανέμου ικανοποιώντας τα κατάλληλα κριτήρια καλής απόδοσης. • Στα πλαίσια αυτής της μελέτης συμπεραίνεται ότι τα πιθανοθεωρητικά χαρακτηριστικά της ασυμπτωτικής κατανομής των ακραίων τιμών της ταχύτητας του ανέμου ικανοποιούνται σε μεγαλύτερο βαθμό όταν η μοντελοποίηση που πραγματοποιεί η προτεινόμενη μέθοδος DeCAUn με ακανόνιστο χρονικό βήμα στην κλίμακα του χρόνου βασίζεται σε χρονοσειρές δεδομένων υψηλής ανάλυσης και σε μικρότερο βαθμό απο την μοντελοποίηση που πραγματοποιείται απο δεδομένα χαμηλής ανάλυσης.The accurate estimation of extreme values for metocean parameters (e.g., wind speed) plays a crucial role in the marine renewable energy industry and in coastal and offshore engineering applications. Typical challenges that arise in these fields of interest among others are the limited source of information in samples, commonly associated by the scarcity of long datasets, and the accurate estimation of the underlying dependence structure of the stochastic models that can be used for inference on applied problems with extremes. The present analysis, aims to assess the effect of the asymptotic distributional behavior of two types of extreme wind speed sampling data that form the basis of all subsequent predictions in the long term time scale. The first type of sampling data considered will be subsets of observations extracted from blocks of annual length and the second type are subset of observations exceeding a high enough threshold. The challenges closely related to the special attributes that form these types of sampling data motivate the present thesis which focuses on constructing and improving extreme value models to assess the risk associated to extreme wind speed episodes. In particular, in this thesis we focus on • The identification of the combined effects of the samples of wind speed that influence the stability of the parameter estimates as well as the efficiency of the estimators to the modelling of extremes. • Providing alternative methods of modelling extremes of wind speed that are less known to the relative fields of interest and infer to demonstrate better in comparison to the standard modelling approach. • Extending the formulation of the stationary model of extremes to the parameterization of a nonstationary model in order to incorporate subject specific knowledge in the presence of trends under the assumption of climate wind changes. • Extending the classical methods that identify the dependence structure in sample of observations in order to effectively model the extremes that are irregularly spaced in time. Specifically, the reconstruction of a dependent sample of extremes that are irregularly spaced in time is focused on relatively small samples of wind speed where the scarcity of long and complete time series is a common restriction in climatological studies. In this setting, the statistical analysis of the most used and less known estimators that model the extremes of wind speed is inferred from a twofold approach. A simulation study is performed first to assess the effect of the sample size to the estimators of the asymptotic distribution that model extremes. The evaluation of the simulation results is based on several statistical measures. Afterwards, the optimum methods from the simulation analysis are applied to wind speed datasets of different sample size and different direction step of sampling. The evaluation is based on datasets originated from databases of relatively moderate horizontan resolution to the regional locations at the North Sea, at the Pacific coast of central America and at the eastern Atlantic Ocean where these locations are exposed to a strong wind climate with evidence of extreme wind speeds. Inference of the sample size effect and the directional step of sampling to the demonstration of the model estimators is made on the obtained 50- and 100-year wind speed design values. From this assessment, the combind method of moments is advised as the suitable method when the sample size is limited. Other challenges that motivated this study is the modelling of extremes when the extremal characteristics are expected not constant over time. To this effect, seasonality and long-term trends are probably the main reasons that influence the stationary hypothesis of the wind speed processes. In this part of this study, an attempt is made to model the possible trends of extremes in the long-term behavior of the process. Since in practice the trend is unknown, various formulations of the trend as a function of time are assessed to represent the extremes of wind speed when the stationary assumption is not valid in order to alleviate the bias effect from the attempt of de-trending the process before the time series is used. Statistical tests challenged the modeling of the trend of rejection or not in favor of stationarity. For the extremes of non-stationary sequences and the application to wind speed design values, our analysis is based on coarse historical data of long datasets at regional locations at the North Sea where trends are notable to influence the wind speed variability. From this assessment, the simplest form of parameterization in the parameters of the extreme value distribution is advised in modeling extremes when stationarity is violated. Another common problem of design to assess risk associated to extremes of wind speed in met-ocean fields of interest, is the scarcity of long datasets. To this limitation, many applications utilize as many as possible extremes from the available dataset by re-sampling to a subset of extremes. However, the re-samples are often affected by dependency and the diagnostics related to the independence limitations is usually violated when the observations of these samples are irregularly spaced in time. To alleviate this effect, a resampling strategy is proposed that effectively models extremes irregularly in time when re-sampling of relatively small datasets of wind speed is advised. The proposed DeCA Uncorrelated (DeCAUn) model provides an improvement to the current physical De-Clustering Algorithm (DeCA) modelling the samples of DeCA irregularly in time. Specifically, the resampling strategy proposed analyzes the correlation effect in samples based on the extention of the standard correlation operator setting weight functions to observations irregularly spaced in time. To infer in terms of precision and variability, design value estimates and confidence bounds of the demonstration of the proposed model are evaluated based on the standard approaches that model extremes. The use of a high resolution database is crucial to derive detailed data to follow-up the requirements of the resampling strategy to short and irregularly samples near the offshore regions of Europe where the demonstration of DeCAUn to wind speed is challenged from the highly dependent regional effects (surface roughness, landmass, etc.). However, to assess the effect of larger sample sizes to the limiting distribution of the excesses that will infer effectively the modelling of DeCAUn, larger samples of wind speed from a fairly coarse resolution database are also required for evaluation. From this assessment, the proposed model demonstrated as an alternative re-sampling strategy for extreme wind speed projections when samples are irregularly spaced in time. These challenges motivate the present thesis to assess the risk associated to extreme wind speed episodes for direct potential application to the relevant fields of interest. In particular, the most important findings from this assessment in extremes are outlined in the following: • Based on the evaluation using different sample sizes of wind speed data from both the simulation study and applications, the combind method of moments outperforms, in many respects, compared to the standard likelihood approach. Overall, regarding the design values it is evident that sample sizes greater than 35 years are necessary for a substantial reduction of epistemic uncertainty. • Under the proviso of nonstationarity at locations where the natural climate variability in extreme wind speeds is challenged, the linear form of parameterization in the parameters of the extreme value distribution will model effectively the trends in extremes. • For sample periods of wind speed greater than 15 years, the re-samples of DeCAUn demonstrated effective projections in terms of precision and variability. • The resampling strategy proposed in this setting showed systematically stronger rate of convergence to the asymptotic properties of the extreme value distribution particularly for wind speed datasets of higher spatial resolution and a less stronger rate of convergence for datasets of lower resolution

    The virtual farmer. Past, present, and future of the Dutch peasantry

    Get PDF
    The virtual farmer guides us towars a better understanding of the associated identities and practices that make up the agricultural sector. In this book the author developes a new and integrated view of agriculture and the countryside - a perspective that combines historical, economic, social, cultural and political dimensions with the technological. At the same time he attempts to identify new developments that might provide the bases for reestablishing public's confidence in the country's agriculture - a reconciliation that is urgently needed
    corecore