21 research outputs found
Techno-economic-environmental optimisation of natural gas supply chain GHG emissions mitigation
While the natural gas (NG) suppliers are under unprecedented pressure to reduce their Greenhouse Gas (GHG) footprint, various emissions reduction technologies have become available. Comparing their GHG mitigation performance and cost effectiveness has thus become increasingly relevant. This research developed a novel and accurate set of tools for GHG emissions estimation and for the cost assessment of emissions mitigation options for NG chains. These were combined in a first time proposed techno-economic and environmental optimisation framework to identify effective and cost efficient GHG emissions reduction options for NG operations in a regional context. The Life Cycle Assessment (LCA) methodology was used to develop inventory models for: offshore production and pre-processing, onshore processing and liquefaction, offshore pipeline transport and offshore Liquefied Natural Gas (LNG) transport. The modular life cycle inventory models developed provide significant advances compared to previously developed models: (i) they capture the impact of different operational practices, technologies and climatic conditions on the emissions, (ii) emission estimations are made for the whole life of facilities, historically and with future projections, using a combination of material balance and engineering calculations; these are configured to the specifics of facilities analysed increasing substantially estimation accuracy, (iii) they enable the assessment of uncertainty for emission estimations. The models were validated using industry data for five NG chains with operations in Norway (2), UK, Australia and Bolivia. A methodology to compare the cost effectiveness of different emissions reduction technologies through Marginal Abatement Cost Curves was also developed for a large range of CO2 and CH4 emissions mitigation options. The cost models developed account for capital and operational expenditure, as well as effects on revenues and tax liabilities. The approach was validated using three of the NG operations studied, located in Norway (2) and Australia. Finally, a mixed-integer multi-objective optimisation model was developed to identify regional opportunities for GHG emissions reduction and cost minimisation in offshore upstream NG value chains through (i) joint power generation and (ii) connection with offshore wind farms. This model was tested for a set of 12 offshore platforms located in the UK Southern North Sea obtaining a 25% reduction of the network’s cumulative CO2 emissions over a ten year future period. This research has proven for the first time that there can be significant difference in GHG performance between neighbouring NG facilities, or within the same facility in consecutive years, found to be up to 54 and 44%, respectively. Moreover, it has shown that the embodied GHG footprint of NG product delivered at different markets will vary significantly even when it is originating from a single source. Thus, generic or regional averages, often employed by LCA practitioners, are not reliable for the industry’s own reporting and for regulatory purposes. In this context, policy makers should consider that imported NG may arrive with embodied GHG footprints varying by more than 50%. Moreover, to effectively identify which NG value chains or regions offer comparatively lower GHG footprints, it is necessary to perform value chain specific LCA studies, using real operational data at a unit process granularity. Regarding emissions reduction options and cost considerations, while integration with renewables and efficiency improvements could perform well for conventional offshore operations, in unconventional onshore operations, targeting well completions, casing and tank vents were shown to have a higher GHG reduction potential. The offshore Norwegian, onshore Norwegian and onshore Australian industry facilities studied were found to have added individual mitigation potential of 2,522, 346 and 13,947 ktonnes CO2 equivalent over investment horizons of 5, 15 and 10 years respectively. All the sites studied were also found to have abatement options with negative implementation costs. The industry and policy makers should, thus, consider that abatement potentials and costs vary significantly by facility depending on its characteristics and context.The implementation of the novel life cycle assessment and cost assessment tools developed in this research and the multi-objective techno-economic and emissions reduction optimisation framework enable for the first time GHG reporting of substantially increased accuracy and unique evidence in support of the efforts industry aims to employ to reduce their effects on the climate.Open Acces
“‘The Negro had been run over long enough by white men, and it was time they defend themselves’: African-American Mutinies and the Long Emancipation, 1861-1974”
This dissertation analyzes racially motivated mutinies by black military servicemen from the Civil War to the Vietnam War. Resistance against white supremacy in the armed forces illustrates the commitment of generations of African Americans to a vision of freedom centered on bodily, familial, and socioeconomic autonomy. These mutinies thereby warrant the reframing of emancipation as a centuries’-long process rather than a single event confined to the 1860s. Subscribing to martial masculinity, black servicemen believed acting forcefully, and risking their lives or well-being as a result, offered the best path to earning their human rights. African-American sailors enjoyed the opportunities offered by the integrated pre-1900 U.S. Navy to such an extent that no unequivocal racially-motivated black naval mutinies exist in the period’s historical record. Yet, once the Navy designated separate spaces and roles based on race during the Jim Crow years, ships and ports began producing their own black rebellions. Meanwhile, mutinies and race riots populate the history of African Americans in the U.S. Army. From the time black men started serving in uniform in a permanent capacity, such offenses as unequal compensation, controversial orders, and physical abuse inspired them to revolt. Though black soldiers accused of mutiny generally enjoyed unprecedented legal rights in the second half of the nineteenth century, the Jim Crow era brought a sharp erosion in the government’s enforcement of due process rights in court-martial proceedings. Finally, despite civil rights gains during and after World War II, racial tensions remained acute enough to overwhelm the armed forces with mutinous outbreaks into the 1970s
Robust Scalable Sorting
Sortieren ist eines der wichtigsten algorithmischen Grundlagenprobleme. Es ist daher nicht verwunderlich, dass Sortieralgorithmen in einer Vielzahl von Anwendungen benötigt werden. Diese Anwendungen werden auf den unterschiedlichsten Geräten ausgeführt -- angefangen bei Smartphones mit leistungseffizienten Multi-Core-Prozessoren bis hin zu Supercomputern mit Tausenden von Maschinen, die über ein Hochleistungsnetzwerk miteinander verbunden sind. Spätestens seitdem die Single-Core-Leistung nicht mehr signifikant steigt, sind parallele Anwendungen in unserem Alltag nicht mehr wegzudenken. Daher sind effiziente und skalierbare Algorithmen essentiell, um diese immense Verfügbarkeit von (paralleler) Rechenleistung auszunutzen. Diese Arbeit befasst sich damit, wie sequentielle und parallele Sortieralgorithmen auf möglichst robuste Art maximale Leistung erzielen können. Dabei betrachten wir einen großen Parameterbereich von Eingabegrößen, Eingabeverteilungen, Maschinen sowie Datentypen.
Im ersten Teil dieser Arbeit untersuchen wir sowohl sequentielles Sortieren als auch paralleles Sortieren auf Shared-Memory-Maschinen. Wir präsentieren In-place Parallel Super Scalar Samplesort (IPS⁴o), einen neuen vergleichsbasierten Algorithmus, der mit beschränkt viel Zusatzspeicher auskommt (die sogenannte „in-place” Eigenschaft). Eine wesentliche Erkenntnis ist, dass unsere in-place-Technik die Sortiergeschwindigkeit von IPS⁴o im Vergleich zu ähnlichen Algorithmen ohne in-place-Eigenschaft verbessert. Bisher wurde die Eigenschaft, mit beschränkt viel Zusatzspeicher auszukommen, eher mit Leistungseinbußen verbunden. IPS⁴o ist außerdem cache-effizient und führt Arbeitsschritte pro Thread aus, um ein Array der Größe mit Threads zu sortieren. Zusätzlich berücksichtigt IPS⁴o Speicherlokalität, nutzt einen Entscheidungsbaum ohne Sprungvorhersagen und verwendet spezielle Partitionen für Elemente mit gleichem Schlüssel. Für den Spezialfall, dass ausschließlich ganzzahlige Schlüssel sortiert werden sollen, haben wir das algorithmische Konzept von IPS⁴o wiederverwendet, um In-place Parallel Super Scalar Radix Sort (IPS²Ra) zu implementieren.
Wir bestätigen die Performance unserer Algorithmen in einer umfangreichen experimentellen Studie mit 21 State-of-the-Art-Sortieralgorithmen, sechs Datentypen, zehn Eingabeverteilungen, vier Maschinen, vier Speicherzuordnungsstrategien und Eingabegrößen, die über sieben Größenordnungen variieren. Einerseits zeigt die Studie die robuste Leistungsfähigkeit unserer Algorithmen. Andererseits deckt sie auf, dass viele konkurrierende Algorithmen Performance-Probleme haben: Mit IPS⁴o erhalten wir einen robusten vergleichsbasierten Sortieralgorithmus, der andere parallele in-place vergleichsbasierte Sortieralgorithmen fast um den Faktor drei übertrifft. In der überwiegenden Mehrheit der Fälle ist IPS⁴o der schnellste vergleichsbasierte Algorithmus. Dabei ist es nicht von Bedeutung, ob wir IPS⁴o mit Algorithmen vergleichen, die mit beschränkt viel Zusatzspeicher auskommen, Zusatzspeicher in der Größenordnung der Eingabe benötigen, und parallel oder sequentiell ausgeführt werden. IPS⁴o übertrifft in vielen Fällen sogar konkurrierende Implementierungen von Integer-Sortieralgorithmen. Die verbleibenden Fälle umfassen hauptsächlich gleichmäßig verteilte Eingaben und Eingaben mit Schlüsseln, die nur wenige Bits enthalten. Diese Eingaben sind in der Regel „einfach” für Integer-Sortieralgorithmen. Unser Integer-Sorter IPS²Ra übertrifft andere Integer-Sortieralgorithmen für diese Eingaben in der überwiegenden Mehrheit der Fälle. Ausnahmen sind einige sehr kleine Eingaben, für die die meisten Algorithmen sehr ineffizient sind. Allerdings sind Algorithmen, die auf diese Eingabegrößen abzielen, in der Regel für alle anderen Eingaben deutlich langsamer.
Im zweiten Teil dieser Arbeit untersuchen wir skalierbare Sortieralgorithmen für verteilte Systeme, welche robust in Hinblick auf die Eingabegröße, häufig vorkommende Sortierschlüssel, die Verteilung der Sortierschlüssel auf die Prozessoren und die Anzahl an Prozessoren sind. Das Resultat unserer Arbeit sind im Wesentlichen vier robuste skalierbare Sortieralgorithmen, mit denen wir den gesamten Bereich an Eingabegrößen abdecken können. Drei dieser vier Algorithmen sind neue, schnelle Algorithmen, welche so implementiert sind, dass sie nur einen geringen Zusatzaufwand benötigen und gleichzeitig unabhängig von „schwierigen” Eingaben robust skalieren. Es handelt sich z.B. um „schwierige” Eingaben, wenn viele gleiche Elemente vorkommen oder die Eingabeelemente in Hinblick auf ihre Sortierschlüssel ungünstig auf die Prozessoren verteilt sind.
Bisherige Algorithmen für mittlere und größere Eingabegrößen weisen ein unzumutbar großes Kommunikationsvolumen auf oder tauschen unverhältnismäßig oft Nachrichten aus. Für diese Eingabegrößen beschreiben wir eine robuste, mehrstufige Verallgemeinerung von Samplesort, die einen brauchbaren Kompromiss zwischen dem Kommunikationsvolumen und der Anzahl ausgetauschter Nachrichten darstellt. Wir überwinden diese bisher unvereinbaren Ziele mittels einer skalierbaren approximativen Splitterauswahl sowie eines neuen Datenumverteilungsalgorithmus. Als eine Alternative stellen wir eine Verallgemeinerung von Mergesort vor, welche den Vorteil von perfekt ausbalancierter Ausgabe hat. Für kleine Eingaben entwerfen wir eine Variante von Quicksort. Mit wenig Zusatzaufwand vermeidet sie das Problem ungünstiger Elementverteilungen und häufig vorkommender Sortierschlüssel, indem sie schnell qualitativ hochwertige Splitter auswählt, die Elemente zufällig den Prozessoren zuweist und einer Duplikat-Behandlung unterzieht. Bisherige praktische Ansätze mit polylogarithmischer Latenz haben entweder einen logarithmischen Faktor mehr Kommunikationsvolumen oder berücksichtigen nur gleichverteilte Eingaben ohne mehrfach vorkommende Sortierschlüssel. Für sehr kleine Eingaben schlagen wir einen einfachen sowie schnellen, jedoch arbeitsineffizienten Algorithmus mit logarithmischer Latenzzeit vor. Für diese Eingaben sind bisherige effiziente Ansätze nur theoretische Algorithmen, die meist unverhältnismäßig große konstante Faktoren haben. Für die kleinsten Eingaben empfehlen wir die Daten zu sortieren, während sie an einen einzelnen Prozessor geschickt werden.
Ein wichtiger Beitrag dieser Arbeit zu der praktischen Seite von Algorithm Engineering ist die Kommunikationsbibliothek RangeBasedComm (RBC). Mit RBC ermöglichen wir eine effiziente Umsetzung von rekursiven Algorithmen mit sublinearer Laufzeit, indem sie skalierbare und effiziente Kommunikationsfunktionen für Teilmengen von Prozessoren bereitstellt.
Zuletzt präsentieren wir eine umfangreiche experimentelle Studie auf zwei Supercomputern mit bis zu 262144 Prozessorkernen, elf Algorithmen, zehn Eingabeverteilungen und Eingabegrößen variierend über neun Größenordnungen. Mit Ausnahme von den größten Eingabegrößen ist diese Arbeit die einzige, die überhaupt Sortierexperimente auf Maschinen dieser Größe durchführt. Die RBC-Bibliothek beschleunigt die Algorithmen teilweise drastisch – einen konkurrierenden Algorithmus sogar um mehr als zwei Größenordnungen. Die Studie legt dar, dass unsere Algorithmen robust sind und gleichzeitig konkurrierende Implementierungen leistungsmäßig deutlich übertreffen. Die Konkurrenten, die man normalerweise betrachtet hätte, stürzen bei „schwierigen” Eingaben sogar ab
Proceedings of the Joint Automated Reasoning Workshop and Deduktionstreffen: As part of the Vienna Summer of Logic – IJCAR 23-24 July 2014
Preface
For many years the British and the German automated reasoning communities have successfully run independent series of workshops for anybody working in the area of automated reasoning. Although open to the general
public they addressed in the past primarily the British and the German communities, respectively. At the occasion of the Vienna Summer of Logic the two series have a joint event in Vienna as an IJCAR workshop. In the spirit of the two series there will be only informal proceedings with abstracts of the works presented. These are collected in this document. We have tried to maintain the informal open atmosphere of the two series and have welcomed in particular research students to present their work. We have solicited for all work related to automated reasoning and its applications with a particular interest in work-in-progress and the presentation of half-baked ideas.
As in the previous years, we have aimed to bring together researchers from all areas of automated reasoning in order to foster links among researchers from various disciplines; among theoreticians, implementers and users alike, and among international communities, this year not just the British and German communities