28 research outputs found
Introspective knowledge acquisition for case retrieval networks in textual case base reasoning.
Textual Case Based Reasoning (TCBR) aims at effective reuse of information contained in unstructured documents. The key advantage of TCBR over traditional Information Retrieval systems is its ability to incorporate domain-specific knowledge to facilitate case comparison beyond simple keyword matching. However, substantial human intervention is needed to acquire and transform this knowledge into a form suitable for a TCBR system. In this research, we present automated approaches that exploit statistical properties of document collections to alleviate this knowledge acquisition bottleneck. We focus on two important knowledge containers: relevance knowledge, which shows relatedness of features to cases, and similarity knowledge, which captures the relatedness of features to each other. The terminology is derived from the Case Retrieval Network (CRN) retrieval architecture in TCBR, which is used as the underlying formalism in this thesis applied to text classification. Latent Semantic Indexing (LSI) generated concepts are a useful resource for relevance knowledge acquisition for CRNs. This thesis introduces a supervised LSI technique called sprinkling that exploits class knowledge to bias LSI's concept generation. An extension of this idea, called Adaptive Sprinkling has been proposed to handle inter-class relationships in complex domains like hierarchical (e.g. Yahoo directory) and ordinal (e.g. product ranking) classification tasks. Experimental evaluation results show the superiority of CRNs created with sprinkling and AS, not only over LSI on its own, but also over state-of-the-art classifiers like Support Vector Machines (SVM). Current statistical approaches based on feature co-occurrences can be utilized to mine similarity knowledge for CRNs. However, related words often do not co-occur in the same document, though they co-occur with similar words. We introduce an algorithm to efficiently mine such indirect associations, called higher order associations. Empirical results show that CRNs created with the acquired similarity knowledge outperform both LSI and SVM. Incorporating acquired knowledge into the CRN transforms it into a densely connected network. While improving retrieval effectiveness, this has the unintended effect of slowing down retrieval. We propose a novel retrieval formalism called the Fast Case Retrieval Network (FCRN) which eliminates redundant run-time computations to improve retrieval speed. Experimental results show FCRN's ability to scale up over high dimensional textual casebases. Finally, we investigate novel ways of visualizing and estimating complexity of textual casebases that can help explain performance differences across casebases. Visualization provides a qualitative insight into the casebase, while complexity is a quantitative measure that characterizes classification or retrieval hardness intrinsic to a dataset. We study correlations of experimental results from the proposed approaches against complexity measures over diverse casebases
Role of semantic indexing for text classification.
The Vector Space Model (VSM) of text representation suffers a number of limitations for text classification. Firstly, the VSM is based on the Bag-Of-Words (BOW) assumption where terms from the indexing vocabulary are treated independently of one another. However, the expressiveness of natural language means that lexically different terms often have related or even identical meanings. Thus, failure to take into account the semantic relatedness between terms means that document similarity is not properly captured in the VSM. To address this problem, semantic indexing approaches have been proposed for modelling the semantic relatedness between terms in document representations. Accordingly, in this thesis, we empirically review the impact of semantic indexing on text classification. This empirical review allows us to answer one important question: how beneficial is semantic indexing to text classification performance. We also carry out a detailed analysis of the semantic indexing process which allows us to identify reasons why semantic indexing may lead to poor text classification performance. Based on our findings, we propose a semantic indexing framework called Relevance Weighted Semantic Indexing (RWSI) that addresses the limitations identified in our analysis. RWSI uses relevance weights of terms to improve the semantic indexing of documents. A second problem with the VSM is the lack of supervision in the process of creating document representations. This arises from the fact that the VSM was originally designed for unsupervised document retrieval. An important feature of effective document representations is the ability to discriminate between relevant and non-relevant documents. For text classification, relevance information is explicitly available in the form of document class labels. Thus, more effective document vectors can be derived in a supervised manner by taking advantage of available class knowledge. Accordingly, we investigate approaches for utilising class knowledge for supervised indexing of documents. Firstly, we demonstrate how the RWSI framework can be utilised for assigning supervised weights to terms for supervised document indexing. Secondly, we present an approach called Supervised Sub-Spacing (S3) for supervised semantic indexing of documents. A further limitation of the standard VSM is that an indexing vocabulary that consists only of terms from the document collection is used for document representation. This is based on the assumption that terms alone are sufficient to model the meaning of text documents. However for certain classification tasks, terms are insufficient to adequately model the semantics needed for accurate document classification. A solution is to index documents using semantically rich concepts. Accordingly, we present an event extraction framework called Rule-Based Event Extractor (RUBEE) for identifying and utilising event information for concept-based indexing of incident reports. We also demonstrate how certain attributes of these events e.g. negation, can be taken into consideration to distinguish between documents that describe the occurrence of an event, and those that mention the non-occurrence of that event
Representation and learning schemes for sentiment analysis.
This thesis identifies four novel techniques of improving the performance of sentiment analysis of text systems. Thes include feature extraction and selection, enrichment of the document representation and exploitation of the ordinal structure of rating classes. The techniques were evaluated on four sentiment-rich corpora, using two well-known classifiers: Support Vector Machines and Na¨ıve Bayes. This thesis proposes the Part-of-Speech Pattern Selector (PPS), which is a novel technique for automatically selecting Part-of-Speech (PoS) patterns. The PPS selects its patterns from a background dataset by use of a number of measures including Document Frequency, Information Gain, and the Chi-Squared Score. Extensive empirical results show that these patterns perform just as well as the manually selected ones. This has important implications in terms of both the cost and the time spent in manual pattern construction. The position of a phrase within a document is shown to have an influence on its sentiment orientation, and that document classification performance can be improved by weighting phrases in this regard. It is, however, also shown to be necessary to sample the distribution of sentiment rich phrases within documents of a given domain prior to adopting a phrase weighting criteria. A key factor in choosing a classifier for an Ordinal Sentiment Classification (OSC) problem is its ability to address ordinal inter-class similarities. Two types of classifiers are investigated: Those that can inherently solve multi-class problems, and those that decompose a multi-class problem into a sequence of binary problems. Empirical results showed the former to be more effective with regard to both mean squared error and classification time performances. Important features in an OSC problem are shown to distribute themselves across similar classes. Most feature selection techniques are ignorant of inter-class similarities and hence easily overlook such features. The Ordinal Smoothing Procedure (OSP), which augments inter-class similarities into the feature selection process, is introduced in this thesis. Empirical results show the OSP to have a positive effect on mean squared error performance
Statistical natural language processing methods for intelligent process automation
Nowadays, digitization is transforming the way businesses work. Recently, Artificial Intelligence (AI) techniques became an essential part of the automation of business processes: In addition to cost advantages, these techniques offer fast processing times and higher customer satisfaction rates, thus ultimately increasing sales. One of the intelligent approaches for accelerating digital transformation in companies is the Robotic Process Automation (RPA).
An RPA-system is a software tool that robotizes routine and time-consuming responsibilities such as email assessment, various calculations, or creation of documents and reports (Mohanty and Vyas, 2018). Its main objective is to organize a smart workflow and therethrough to assist employees by offering them more scope for cognitively demanding and engaging work.
Intelligent Process Automation (IPA) offers all these advantages as well; however, it goes beyond the RPA by adding AI components such as Machine- and Deep Learning techniques to conventional automation solutions. Previously, IPA approaches were primarily employed within the computer vision domain. However, in recent times, Natural Language Processing (NLP) became one of the potential applications for IPA as well due to its ability to understand and interpret human language. Usually, NLP methods are used to analyze large amounts of unstructured textual data and to respond to various inquiries. However, one of the central applications of NLP within the IPA domain – are conversational interfaces (e.g., chatbots, virtual agents) that are used to enable human-to-machine communication. Nowadays, conversational agents gain enormous demand due to their ability to support a large number of users simultaneously while communicating in a natural language. The implementation of a conversational agent comprises multiple stages and involves diverse types of NLP sub-tasks, starting with natural language understanding (e.g., intent recognition, named entity extraction) and going towards dialogue management (i.e., determining the next possible bots action) and response generation. Typical dialogue system for IPA purposes undertakes straightforward customer support requests (e.g., FAQs), allowing human workers to focus on more complicated inquiries.
In this thesis, we are addressing two potential Intelligent Process Automation (IPA) applications and employing statistical Natural Language Processing (NLP) methods for their implementation.
The first block of this thesis (Chapter 2 – Chapter 4) deals with the development of a conversational agent for IPA purposes within the e-learning domain. As already mentioned, chatbots are one of the central applications for the IPA domain since they can effectively perform time-consuming tasks while communicating in a natural language. Within this thesis, we realized the IPA conversational bot that takes care of routine and time-consuming tasks regularly performed by human tutors of an online mathematical course. This bot is deployed in a real-world setting within the OMB+ mathematical platform. Conducting experiments for this part, we observed two possibilities to build the conversational agent in industrial settings – first, with purely rule-based methods, considering the missing training data and individual aspects of the target domain (i.e., e-learning). Second, we re-implemented two of the main system components (i.e., Natural Language Understanding (NLU) and Dialogue Manager (DM) units) using the current state-of-the-art deep-learning architecture (i.e., Bidirectional Encoder Representations from Transformers (BERT)) and investigated their performance and potential use as a part of a hybrid model (i.e., containing both rule-based and machine learning methods).
The second part of the thesis (Chapter 5 – Chapter 6) considers an IPA subproblem within the predictive analytics domain and addresses the task of scientific trend forecasting. Predictive analytics forecasts future outcomes based on historical and current data. Therefore, using the benefits of advanced analytics models, an organization can, for instance, reliably determine trends and emerging topics and then manipulate it while making significant business decisions (i.e., investments). In this work, we dealt with the trend detection task – specifically, we addressed the lack of publicly available benchmarks for evaluating trend detection algorithms. We assembled the benchmark for the detection of both scientific trends and downtrends (i.e., topics that become less frequent overtime). To the best of our knowledge, the task of downtrend detection has not been addressed before. The resulting benchmark is based on a collection of more than one million documents, which is among the largest that has been used for trend detection before, and therefore, offers a realistic setting for the development of trend detection algorithms.Robotergesteuerte Prozessautomatisierung (RPA) ist eine Art von Software-Bots, die manuelle menschliche Tätigkeiten wie die Eingabe von Daten in das System, die Anmeldung in Benutzerkonten oder die Ausführung einfacher, aber sich wiederholender Arbeitsabläufe nachahmt (Mohanty and Vyas, 2018). Einer der Hauptvorteile und gleichzeitig Nachteil der RPA-bots ist jedoch deren Fähigkeit, die gestellte Aufgabe punktgenau zu erfüllen. Einerseits ist ein solches System in der Lage, die Aufgabe akkurat, sorgfältig und schnell auszuführen. Andererseits ist es sehr anfällig für Veränderungen in definierten Szenarien. Da der RPA-Bot für eine bestimmte Aufgabe konzipiert ist, ist es oft nicht möglich, ihn an andere Domänen oder sogar für einfache Änderungen in einem Arbeitsablauf anzupassen (Mohanty and Vyas, 2018). Diese Unfähigkeit, sich an veränderte Bedingungen anzupassen, führte zu einem weiteren Verbesserungsbereich für RPAbots – den Intelligenten Prozessautomatisierungssystemen (IPA).
IPA-Bots kombinieren RPA mit Künstlicher Intelligenz (AI) und können komplexe und kognitiv anspruchsvollere Aufgaben erfüllen, die u.A. Schlussfolgerungen und natürliches Sprachverständnis erfordern. Diese Systeme übernehmen zeitaufwändige und routinemäßige Aufgaben, ermöglichen somit einen intelligenten Arbeitsablauf und befreien Fachkräfte für die Durchführung komplizierterer Aufgaben. Bisher wurden die IPA-Techniken hauptsächlich im Bereich der Bildverarbeitung eingesetzt. In der letzten Zeit wurde die natürliche
Sprachverarbeitung (NLP) jedoch auch zu einem der potenziellen Anwendungen für IPA, und zwar aufgrund von der Fähigkeit, die menschliche Sprache zu interpretieren. NLP-Methoden werden eingesetzt, um große Mengen an Textdaten zu analysieren und auf verschiedene
Anfragen zu reagieren. Auch wenn die verfügbaren Daten unstrukturiert sind oder kein vordefiniertes Format haben (z.B. E-Mails), oder wenn die in einem variablen Format vorliegen (z.B. Rechnungen, juristische Dokumente), dann werden ebenfalls die NLP Techniken angewendet, um die relevanten Informationen zu extrahieren, die dann zur Lösung verschiedener Probleme verwendet werden können.
NLP im Rahmen von IPA beschränkt sich jedoch nicht auf die Extraktion relevanter Daten aus Textdokumenten. Eine der zentralen Anwendungen von IPA sind Konversationsagenten, die zur Interaktion zwischen Mensch und Maschine eingesetzt werden. Konversationsagenten erfahren enorme Nachfrage, da sie in der Lage sind, eine große Anzahl von Benutzern gleichzeitig zu unterstützen, und dabei in einer natürlichen Sprache kommunizieren. Die Implementierung
eines Chatsystems umfasst verschiedene Arten von NLP-Teilaufgaben, beginnend mit dem Verständnis der natürlichen Sprache (z.B. Absichtserkennung, Extraktion von Entitäten) über das Dialogmanagement (z.B. Festlegung der nächstmöglichen Bot-Aktion) bis hin zur Response-Generierung. Ein typisches Dialogsystem für IPA-Zwecke übernimmt in der Regel unkomplizierte Kundendienstanfragen (z.B. Beantwortung von FAQs), so dass sich die Mitarbeiter auf komplexere Anfragen konzentrieren können.
Diese Dissertation umfasst zwei Bereiche, die durch das breitere Thema vereint sind, nämlich die Intelligente Prozessautomatisierung (IPA) unter Verwendung statistischer Methoden der natürlichen Sprachverarbeitung (NLP).
Der erste Block dieser Arbeit (Kapitel 2 – Kapitel 4) befasst sich mit der Impementierung eines Konversationsagenten für IPA-Zwecke innerhalb der E-Learning-Domäne. Wie bereits erwähnt, sind Chatbots eine der zentralen Anwendungen für die IPA-Domäne, da sie zeitaufwändige Aufgaben in einer natürlichen Sprache effektiv ausführen können. Der IPA-Kommunikationsbot, der in dieser Arbeit realisiert wurde, kümmert sich ebenfalls um routinemäßige und zeitaufwändige Aufgaben, die sonst von Tutoren in einem Online-Mathematikkurs in deutscher Sprache durchgeführt werden. Dieser Bot ist in der täglichen Anwendung innerhalb der mathematischen Plattform OMB+ eingesetzt. Bei der Durchführung von Experimenten beobachteten wir zwei Möglichkeiten, den Konversationsagenten im industriellen Umfeld zu entwickeln – zunächst mit rein regelbasierten Methoden, unter Bedingungen der fehlenden Trainingsdaten und besonderer Aspekte der Zieldomäne (d.h. E-Learning). Zweitens haben wir zwei der Hauptsystemkomponenten (Sprachverständnismodul, Dialog-Manager) mit dem derzeit fortschrittlichsten Deep Learning Algorithmus reimplementiert und die Performanz dieser Komponenten untersucht.
Der zweite Teil der Doktorarbeit (Kapitel 5 – Kapitel 6) betrachtet ein IPA-Problem innerhalb des Vorhersageanalytik-Bereichs. Vorhersageanalytik zielt darauf ab, Prognosen über zukünftige Ergebnisse auf der Grundlage von historischen und aktuellen Daten zu erstellen. Daher kann ein Unternehmen mit Hilfe der Vorhersagesysteme z.B. die Trends oder neu entstehende Themen zuverlässig bestimmen und diese Informationen dann bei wichtigen Geschäftsentscheidungen (z.B. Investitionen) einsetzen. In diesem Teil der Arbeit beschäftigen wir uns mit dem Teilproblem der Trendprognose – insbesondere mit dem Fehlen öffentlich zugänglicher Benchmarks für die Evaluierung von Trenderkennungsalgorithmen. Wir haben den Benchmark zusammengestellt und veröffentlicht, um sowohl Trends als auch Abwärtstrends zu erkennen. Nach unserem besten Wissen ist die Aufgabe der Abwärtstrenderkennung bisher nicht adressiert worden. Der resultierende Benchmark basiert auf einer Sammlung von mehr als einer Million Dokumente, der zu den größten gehört, die bisher für die Trenderkennung verwendet wurden, und somit einen realistischen Rahmen für die Entwicklung von Trenddetektionsalgorithmen bietet
MANIPULATION ACTION UNDERSTANDING FOR OBSERVATION AND EXECUTION
Modern intelligent agents will need to learn the actions that humans perform. They will need to recognize these actions when they see them and they will need to perform these actions themselves. We want to propose a cognitive system that interprets human manipulation actions from perceptual information (image and depth data) and consists of perceptual modules and reasoning modules that are in interaction with each other. The contributions of this work are given along two core problems at the heart of action understanding: a.) the grounding of relevant information about actions in perception (the perception - action integration problem), and b.) the organization of perceptual and high-level symbolic information for interpreting the actions (the sequencing problem). At the high level, actions are represented with the Manipulation Action Context-free Grammar (MACFG) , a syntactic grammar and associated parsing algorithms, which organizes actions as a sequence of sub-events. Each sub-event is described by the hand (as well as grasp type), movements (actions) and the objects and tools involved, and the relevant information about these quantities is obtained from biological-inspired perception modules. These modules track the hands and objects and recognize the hand grasp, actions, segmentation, and action consequences. Furthermore, a probabilistic semantic parsing framework based on CCG (Combinatory Categorial Grammar) theory is adopted to model the semantic meaning of human manipulation actions.
Additionally, the lesson from the findings on mirror neurons is that the two processes of interpreting visually observed action and generating actions, should share the same underlying cognitive process. Recent studies have shown that grammatical structures underlie the representation of manipulation actions, which are used both to understand and to execute these actions. Analogically, understanding manipulation actions is like understanding language, while executing them is like generating language. Experiments on two tasks, 1) a robot observing people performing manipulation actions, and 2) a robot then executing manipulation actions accordingly, are presented to validate the formalism. The technical parts of this thesis are devoted to the experimental setting of task (1), while the task (2) is given as a live demonstration
GIS-based identification of suitable areas for various kinds of water harvesting in Syria [online]
Abstract
Main obstacle to development in the dry areas in Central Syria
is the scarce and erratic rainfall. Water resources therefore
run short in meeting the demand. Water harvesting has shown to
be an appropriate means to garantee the sustainability of water
resources designed for use in agricultural production and
drinking water supply. Scope of the study is the determination
of appropriate sites and techniques for water harvesting in
Central Syria.
Different parameters, such as rainfall, topography, land use and
cover, soil and vegetation cover are important to runoff
generation in semi-arid areas. Rainfall characteristics were
evaluated by modern interpolation techniques such as kriging
according to daily records of stations within the research area.
Vegetation cover within the rangeland of Central Syria is highly
depleted due to overexploitation by grazing.
Infrastructure and accessibility of the research area is low.
Remote sensing is therefore an appropriate tool to determine
land cover and land use for vast areas. Landsat TM 5 data
were analyzed using scenes of four dates, two recorded within
the rainy season and two during the dry period. The research was
focussed on an area of about 19,200 km². Land use and cover were
classified by analysis of the satellite data according to the
concept of Maximum Likelihood Classifier using ERDASImagine.
Soil moisture could be partly analyzed by Tasseled CAP
transformation. A Digital Terrain Model was created according
to the interpolation of digitized contour lines of maps of the
scale 1:100 000. All the different data sets including soil data
are analyzed within the geographical information system using
ArcView GIS.
The runoff potential was analyzed by two methods: the US Soil
Conservation Service (SCS) method and the indexing method. Since
the indexing method allows to consider all the determinants this
method has advantages compared to the SCS method.
The process to decide finally on suitable sites for a water
harvesting technique involves the assessment of alternatives.
The Analytical Hierarchical Process (AHP) is a decision support
system which allows to rank and weight different alternatives.
Different parameters influencing the choice of water harvesting
systems include the runoff potential, slope, the proximity to
roads, soilscape units, proximity to military, industrial sites
and badland areas and the neighborhood to settlement areas. The
weighing and ranking of these alternatives allowed to present
two different maps showing the suitability to floodwater
harvesting or micro- / macrocatchment systems. According to
these results most part of the research site is more suitable to
micro- / macrocatchment systems. The maps are basis to further
planning and design for water harvesting structures in the
research area.
Zusammenfassung
Die rasch wachsende Bevölkerung Syriens ist auf eine
ausreichende Lebensmittelversorgung und Trinkwasserversorgung
angewiesen. Der zentrale Bereich von Syrien, der die Trockenzone
zwischen 100 bis 200 mm umfasst, wird vorwiegend zur
Weidewirtschaft genutzt. Die schnell ansteigende Zahl von
Weidetieren hat in den letzten Jahren zu einer starken
Degradierung der Steppenvegetation geführt. Diese wird verstärkt
durch die natĂĽrlichen Voraussetzungen. In diesem typisch
semi-ariden Gebiet ist der Niederschlag nur sporadisch und
begrenzt auf eine ĂĽber die Wintermonate andauernde Regenzeit
zwischen November und April. Die meisten Regenfälle zeichnen
sich durch kurze intensive Schauer aus, wobei der Abfluss meist
unkontrolliert versickert. Zur Nutzung dieser Resource des
Abflusses bietet sich die Anwendung von Sturzwasserbewässerungs-
bzw. Wasserkonzentrationstechniken (Water harvesting) an.
Die jahrtausendalte Ablenkdammbewässerung bei Marib (Jemen)
zeigt, dass diese Techniken schon früher von den Sabatäern
erfolgreich angewendet wurden. Die Arbeit konzentriert sich im
wesentlichen auf zwei Beispiele von Wasserkonzentrationstechniken:
Micro- / Macrocatchment- und Flutwasserkonzentrationsanlagen.
Beispiele fĂĽr Microcatchment-Systeme sind Halbmonde und
halbkreisförmige Mulden, die das Wasser für die Pflanzen
auffangen. Beispiele für Macrocatchment-Systeme sind Steindämme
entlang der Abflussrichtung am Hang, die das Wasser auf Felder
am HangfuĂź leiten. Flutwasserkonzentrationstechniken umfassen
beispielsweise Ablenkdämme im Bereich von Trockentälern (Wadis),
die das Wasser auf angrenzende Felder leiten.
Da es sich bei dem Untersuchungsgebiet um einen groĂźen, zum Teil
nur schlecht erschlossenen Bereich der Provinz Homs und Tadmor
handelt, wurden ausgiebige Feldbegehungen zur Bewertung des
Anwendungspotentials von Wasserkonzentrationstechniken
ausgeschlossen. Moderne Techniken, die Datenerhebungen und
analyse für schwer zugängliche Gebiete ermöglichen, sind
Fernerkundungsmethoden und die Anwendung von Geografischen
Informationssystemen (GIS). Satellitenbilder des Landsat TM 5
waren zu Beginn des Projektes Mitte der 90er Jahre gängige und
viel verwendete Arbeitsmittel in der Fernerkundung. FĂĽr das
Untersuchungsgebiet wurden Landsat TM 5 Szenen aus vier
Zeitpunkten ausgewählt, zwei aus der Trockenperiode (Oktober
1993 und Juli 1994) und zwei aus der Regenzeit (April 1994 und
April 1995).
FĂĽr das Abflussgeschehen in semiariden Gebieten spielen
verschiedene Faktoren eine Rolle. Der Oberflächenabfluss erfolgt
hier zumeist nach dem Hortonschen Prinzip: Die stark intensiven
Regenfälle führen bald zu Oberflächenabfluss, da die
Infiltrationskapazität der häufig mit einer Kruste bedeckten
Böden nicht ausreicht, die in kurzer Zeit dargebotene
Wassermenge aufzunehmen. Zu den Parametern, die den Abfluss in
semi-ariden Gebieten bestimmen, gehören klimatische Faktoren wie
z. B. Regenmenge und Regenfallintensität, topographische
Faktoren wie Hangneigung, Landnutzung und Charakteristika der
Böden wie Bodenfeuchte und Bodentextur.
Die meteorologischen Daten, die Regenfall und Temperaturdaten
von mehreren Stationen im Untersuchungsgebiet betrafen, wurden
ausgewertet und mithilfe von Interpolationstechniken wie
Kriging-Verfahren regionalisiert. Jährliche Niederschlagssummen
geben nur wenig Auskunft über das tatsächliche Wasserangebot in
semi-ariden Gebieten, da Menge, Zeitdauer und Intensität eines
Niederschlagsereignisses ausschlaggebend fĂĽr das
Abflussgeschehen sind. Es wurden tägliche Niederschlagswerte
ausgewertet, wobei Niederschläge über 2 mm und über 5 mm täglich
explizit betrachtet wurden, da diese nach Literaturangaben zu
nennenswerten Abflussereignissen in semiariden Gebieten fĂĽhren.
Die Niederschläge wurden zudem über Extremwertverfahren
analysiert, wobei 2-, 5- und 10-Jährlichkeiten von
Extremniederschlägen ermittelt wurden.
Informationen zur Temperatur ermöglichten die Ermittlung der
potentiellen Verdunstung nach drei verschiedenen Verfahren,
Penman-Monteith, Thornthwaite und Blaney-Criddle.
Sie liegt im Bereich zwischen 1600 bis 2000 mm pro Jahr im
Untersuchungsgebiet.
Die Topographie, die eine starke Rolle beim Abflussgeschehen und
der Auswahl von Wasserkonzentrationstechniken spielt, wurde ĂĽber
ein regelmässig gerastertes digitales Geländemodell in einer
Auflösung von 100 m erfasst, das aus der Interpolation von
Höhenkonturlinien aus Karten im Maßstab 1 : 100 000 erstellt
wurde. Die Verteilung der Hangneigungsklassen zeigt, dass es
sich um ein relativ flaches Gelände handelt mit der dominanten
Hangneigungsklasse von 0 bis 1%. Zudem wurden anhand des
digitalen Geländemodells die bevorzugten Abflusswege und deren
Länge ermittelt.
Bei den Böden im Untersuchungsgebiet handelt es sich vorwiegend
um Aridisols (USDA Klassifizierung), die zum Teil stark zur
Verkrustung neigen. Es wurde die Textur einiger typischer Böden
und der Aggregatzustand des Oberbodens untersucht, die wichtige
Parameter bezüglich der Infiltrationskapazität von Böden
darstellen. Die Böden wurden aufgrund ihrer Eigenschaften, die
Lithologie, Geologie, Landschaftsform, Hangneigung, Bodentiefe
und Steinigkeit umfassen, in Bodeneinheiten unterteilt.
Vegetation und Landnutzung wurden ĂĽber die Auswertung der
Satellitenbilder erfasst.
Das Gebiet zählt zu über 50% zur Steppe, welche zur
Weidewirtschaft von Schafen genutzt wird. Nur 2% des Landes im
Bereich des Untersuchungsgebietes wird nach der offiziellen
Statitistik für bewässerte Landwirtschaft genutzt. Die Grenze
zum Regenfeldbau verläuft am nordwestlichen Rand des
Untersuchungsgebietes entlang der Isohyete von mehr als 250 mm
jährlichem Regenfalls. Die stark ansteigende Zahl von Schafen
hat in den letzten Jahren zu einer starken Degradierung der
Steppenvegetation gefĂĽhrt. Der Degeneration der
Steppenvegetation wird z.T. durch Pflanzungen bzw. gezieltem
Aussäen von Futterpflanzen begegnet. Die Auswertung der
Satellitenbilder wurde auch zur Beschreibung der Vegetation
benutzt. Hierbei wurden verschiedene Indices betrachtet, der
NDVI (Normalized Difference Vegetation Index) und der PVI
(Perpendicular Vegetation Index) -Ansatz. Der PVI-Ansatz
beinhaltet, dass die Grauwerte des unbedeckten Bodens im
Satellitenbild innerhalb des infraroten und roten
Spektralbereichs eine lokalspezifische Linie bildet, die als
sogenannte Bodenkennlinie bezeichnet wird. Diese wurde fĂĽr die
zwei Satellitenszenen aus April 1994 und April 1995 ermittelt.
Es zeigte sich im Gegensatz zum NDVI-Ansatz, dass sich nur die
mit dichter Vegetation bedeckten Bereiche in den
Trockentälern (Wadis) bei der PVI-Analyse besser unterscheiden
lieĂźen. Somit wurden keine weiterfĂĽhrenden Kenntnisse ĂĽber den
Status der Vegetation ĂĽber die rein visuelle Auswertung der
Satellitenbilder hinaus gewonnen, so dass diese Auswertung nicht
in die weiteren Betrachtungen miteinbezogen wurde.
Um die Bodenfeuchte zu erfassen, wurde der Tasseled Cap Ansatz
verwendet. Dieser basiert auf einer Hauptkomponentenanalyse,
wobei die digitalen Werte der einzelnen Spektralbänder des
Satellitenbildes ĂĽber eine festgelegte Matrix multipliziert
werden. Die erste Hauptkomponente stellt die Bodenhelligkeit
dar, die Achse diagonal zur Bodenlinie den Vegetationsindex und
die dritte Komponente zeigt den Feuchtegrad. Es zeigte sich,
dass die Szenen aus der Regenperiode (April 1994 und April 1995)
deutlich höhere Feuchtegrade zeigen.
Die Landnutzungsklassen wurden ĂĽber die Klassifizierung der
Satellitenbilder ermittelt. Hierbei wurden während verschiedener
Geländebegehungen Trainingsgebiete der unterschiedlichen
Landbedeckungs- bzw. Landnutzungsklassen erfasst. Diese gingen
ein in die Maximum-Likelihood-Analyse, die eine gängige
Klassifizierungsmethode von Satellitenbildern bildet. Es wurden
dreizehn Landnutzungsklassen unterschieden, wobei z.B. Klassen
wie dichte Vegetation innerhalb der Trockentäler oder
vegetationsfreie Böden unterschieden wurden.
Die meisten Unterschiede der untersuchten Szene von April 1994
und 1995 zeigte die Klasse der dichten Vegetation innerhalb der
Wadis. Schwierigkeiten der Klassifikation bildeten vor allem die
Unterscheidung von Strassen oder Besiedlungen, da diese meist
bedeckt sind von dem Staub aus der Umgebung. Auch gab es häufig
Ăśberlappungen der Klassen dichter Vegetation innerhalb der
Trockentäler und bewässerter Getreidefelder.
Die verschiedenen Daten wurden alle geometrisch kodiert und
innerhalb des Geographischen Informationssystem (GIS)
ausgewertet. Auch die Satellitenbilder wurden ĂĽber Passpunkte,
die im Gelände und auf dem Satellitenbild bestimmt wurden, in
ein kartographische Koordinatennetz ĂĽberfĂĽhrt, wobei das
Universal Mercator System (UTM) gewählt wurde. Die Passpunkte im
Gelände wurden über das GPS (Global Positioning System) bestimmt.
Die Analyse des Abflusspotentials wurde über zwei Ansätze
ausgefĂĽhrt: die US Soil Conservation Methode, kurz SCS Methode
genannt, und die Indizierungsmethode. Bei der SCS Methode
flossen die Klassifizierung der Landnutzungsdaten aus der
Satellitenbildauswertung und die Einteilung der Bodeneinheiten
in hydrologische Bodenklassen ein. Der Regenfall wurde ĂĽber die
Zwei-Jährlichkeiten-Verteilung von Extremereignissen im
Untersuchungsgebiet erfasst.
Bei der Indizierungsmethode wurden verschiedenen Datenebenen
Gewichtungen zugeteilt und ausgewertet. Die Datenebenen
umfassten die Hangneigung, Bodentextur, Pflanzendecke,
Steinigkeit der Bodenoberfläche, den Feuchteindex aus der
Tasseled-Cap-Analyse und die Länge der Abflusswege. Der Einfluss
der Pflanzendecke oder die Menge der Steine an der
Bodenoberfläche in den einzelnen Landnutzungsklassen auf das
Abflussgeschehen wurde anhand von Geländebegehungen und
Erfahrungswerten aus der Literatur abgeschätzt. Es wurden zwei
Szenarios berechnet, Szenario A die Länge der Abflusswege
ausschlieĂźend, und Szenario B, jene einschlieĂźend. Es zeigte
sich, dass die Indizierungsmethode das Abflusspotential
schlĂĽssiger im Gegensatz zur SCS Methode berechnet. Die SCS
Methode gibt auch hinsichtlich der Menge des zu erwartenden
Abflusses Aufschluss, allerdings muss hierbei beachtet werden,
dass die Vorhersage von Niederschlagsereignissen in semi-ariden
Gebieten mit vielen Schwierigkeiten behaftet ist.
Um letztendlich die Eignung des Gebietes fĂĽr verschiedene
Wasserkonzentrationstechniken zu ermitteln, wurde ein Modell der
Entscheidungsfindung (Decision process) angewendet. Hierbei
handelt es sich um den Analytischen Hierarchischen Prozess
(Analytical Hierarchical Process: AHP), der eine Gewichtung
hinsichtlich der Präferenz von Alternativen der einzelnen
Kriterien, die in der Entscheidungsfindung wichtig sind,
erlaubt. Der AHP wird innerhalb von fĂĽnf elementaren Schritten
unternommen: Eine klare Unterscheidung der Ziele muss getroffen
werden. Die Faktoren, die die Entscheidung beieinflussen, mĂĽssen
in einer Entscheidungshierarchie strukturiert werden. Die
Gewichtung jedes Faktors muss anhand der Eigenvektorberechnung
bestimmt werden. Letztendlich werden die einzelnen Fakoren
zusammmengefasst in ihrer Rangfolge, und ein Eignungsindex wird
eingefĂĽhrt. Die Modelle zur Bestimmmung der Eignung des Gebietes
fĂĽr Micro- / Macrocatchment-Systeme oder
Flutwasserkonzentrationstechniken umfassen 3 bis 4 verschiedene
Ebenen:
das Ziel, die Kriterien, Subkriterien und die Alternativen der
Kriterien. Die Kriterien umfassen potentieller Abfluss,
Hangneigung, Bodenklassen, Nähe zu Straßen, Nähe zu Siedlungen
und Nähe zu industriellen, militärischen Anlagen und Ödland
Gebieten. Die Alternativen der Kriterien betragen z. B. bei dem
Kriterium der Nähe oder Nachbarschaft zu industriellen oder
militärischen Anlagen oder Ödland die Klassen der Entfernung 0
bis 2,5 km, 2,5 bis 10 km und > 10 km. Diese Klassen werden
aufgrund von Erfahrungswerten oder der speziellen Gegebenheiten
vor Ort paarweise verglichen und anhand von Zahlen in
eine Rangfolge gebracht. So weist die Klasse > 10 km eine
größere Präferenz gegenüber der Klasse von 0 bis 2,5 km und wird
somit mit dem Wert 7 versehen im Gegensatz zu 1.
Der Eigenvektor, der sich dann aus einer Reihe von Werten der
Alternativen und deren Anzahl errechnet, wird schliesslich in
eine relative Gewichtung ĂĽberfĂĽhrt. Es wurden bei der Errechnung
der Eignung des Gebietes verschiedene Klassen unterschieden:
gĂĽnstigere oder weniger gĂĽnstige, mehr oder weniger geeignete
und ungeeignete Gebiete. Vor allem im sĂĽdwestlichen Bereich des
Untersuchungsgebietes zeigen sich mehr geeignete Flächen
zur Anwendung von Wasserkonzentrationstechniken. Im allgemeinen
ergab sich eine größere Eignung des Gebietes für den Einsatz von
Micro- / MacrocatchmentSystemen.
Entlang von StraĂźen zeigen sich sehr gĂĽnstige Bereiche fĂĽr
Micro- / Macrocatchment-Systeme. Im Bereich der Abhänge der
SĂĽdlichen Palmyriden eignen sich mehr Bereiche fĂĽr
Flutwasserkonzentrationstechniken. Die aus dem hierarchischen
Entscheidungsmodell resultierenden Karten zeigen potentiell
nutzbare Gebiete fĂĽr die Anwendung der
Wasserkonzentrationstechniken. Die quantitativ nutzbare Menge an
Abfluss, die in durch die Wasserkonzentrationstechniken
gesammelt und genutzt werden können, kann durch die
vorliegende Analyse nicht ermittelt werden. Hierzu fehlen
konkrete Niederschlags- und Abflussdaten von einzelnen
Niederschlagsereignissen. Diese wĂĽrden dann erlauben, einen
Abflusskoeffizienten zu ermitteln, der die Dimensionierung einer
Wasserkonzentrationsanlage ermöglichen würde. Der
Abflusskoeffizient könnte auch durch Regensimulationsanlagen im
Gelände ermittelt werden. Mithilfe des CROPWAT-Modells der FAO
und den berechneten potentiellen Verdunstungswerten wurde noch
der Wasserbedarf einiger Pflanzen unter den gegebenen
klimatischen Verhältnissen ermittelt.
Die Methodik des AHP kann auf andere Gebiete ĂĽbertragen werden.
Der AHP innerhalb des GIS erlaubt auch ohne weiteres die
Einbindung weiterer Faktoren wie z.B. sozioökonomischer
Entscheidungskriterien. Ein Beispiel für sozioökonomische
Kriterien wäre der Arbeitsaufwand, der benötigt wird für die
Installation und Unterhaltung einzelner
Wasserkonzentrationssysteme. Somit ermöglicht die angewandte
Methodik, die moderne Techniken wie Fernerkundung und
Geoinformationssysteme einschliesst, eine
Entscheidungsfindung bezĂĽglich der Anwendbarkeit von
Wasserkonzentrationstechniken vor allem in groĂźen,
unzugänglichen Gebieten mit wenig bekannten hydrologischen Daten