28 research outputs found

    Introspective knowledge acquisition for case retrieval networks in textual case base reasoning.

    Get PDF
    Textual Case Based Reasoning (TCBR) aims at effective reuse of information contained in unstructured documents. The key advantage of TCBR over traditional Information Retrieval systems is its ability to incorporate domain-specific knowledge to facilitate case comparison beyond simple keyword matching. However, substantial human intervention is needed to acquire and transform this knowledge into a form suitable for a TCBR system. In this research, we present automated approaches that exploit statistical properties of document collections to alleviate this knowledge acquisition bottleneck. We focus on two important knowledge containers: relevance knowledge, which shows relatedness of features to cases, and similarity knowledge, which captures the relatedness of features to each other. The terminology is derived from the Case Retrieval Network (CRN) retrieval architecture in TCBR, which is used as the underlying formalism in this thesis applied to text classification. Latent Semantic Indexing (LSI) generated concepts are a useful resource for relevance knowledge acquisition for CRNs. This thesis introduces a supervised LSI technique called sprinkling that exploits class knowledge to bias LSI's concept generation. An extension of this idea, called Adaptive Sprinkling has been proposed to handle inter-class relationships in complex domains like hierarchical (e.g. Yahoo directory) and ordinal (e.g. product ranking) classification tasks. Experimental evaluation results show the superiority of CRNs created with sprinkling and AS, not only over LSI on its own, but also over state-of-the-art classifiers like Support Vector Machines (SVM). Current statistical approaches based on feature co-occurrences can be utilized to mine similarity knowledge for CRNs. However, related words often do not co-occur in the same document, though they co-occur with similar words. We introduce an algorithm to efficiently mine such indirect associations, called higher order associations. Empirical results show that CRNs created with the acquired similarity knowledge outperform both LSI and SVM. Incorporating acquired knowledge into the CRN transforms it into a densely connected network. While improving retrieval effectiveness, this has the unintended effect of slowing down retrieval. We propose a novel retrieval formalism called the Fast Case Retrieval Network (FCRN) which eliminates redundant run-time computations to improve retrieval speed. Experimental results show FCRN's ability to scale up over high dimensional textual casebases. Finally, we investigate novel ways of visualizing and estimating complexity of textual casebases that can help explain performance differences across casebases. Visualization provides a qualitative insight into the casebase, while complexity is a quantitative measure that characterizes classification or retrieval hardness intrinsic to a dataset. We study correlations of experimental results from the proposed approaches against complexity measures over diverse casebases

    Role of semantic indexing for text classification.

    Get PDF
    The Vector Space Model (VSM) of text representation suffers a number of limitations for text classification. Firstly, the VSM is based on the Bag-Of-Words (BOW) assumption where terms from the indexing vocabulary are treated independently of one another. However, the expressiveness of natural language means that lexically different terms often have related or even identical meanings. Thus, failure to take into account the semantic relatedness between terms means that document similarity is not properly captured in the VSM. To address this problem, semantic indexing approaches have been proposed for modelling the semantic relatedness between terms in document representations. Accordingly, in this thesis, we empirically review the impact of semantic indexing on text classification. This empirical review allows us to answer one important question: how beneficial is semantic indexing to text classification performance. We also carry out a detailed analysis of the semantic indexing process which allows us to identify reasons why semantic indexing may lead to poor text classification performance. Based on our findings, we propose a semantic indexing framework called Relevance Weighted Semantic Indexing (RWSI) that addresses the limitations identified in our analysis. RWSI uses relevance weights of terms to improve the semantic indexing of documents. A second problem with the VSM is the lack of supervision in the process of creating document representations. This arises from the fact that the VSM was originally designed for unsupervised document retrieval. An important feature of effective document representations is the ability to discriminate between relevant and non-relevant documents. For text classification, relevance information is explicitly available in the form of document class labels. Thus, more effective document vectors can be derived in a supervised manner by taking advantage of available class knowledge. Accordingly, we investigate approaches for utilising class knowledge for supervised indexing of documents. Firstly, we demonstrate how the RWSI framework can be utilised for assigning supervised weights to terms for supervised document indexing. Secondly, we present an approach called Supervised Sub-Spacing (S3) for supervised semantic indexing of documents. A further limitation of the standard VSM is that an indexing vocabulary that consists only of terms from the document collection is used for document representation. This is based on the assumption that terms alone are sufficient to model the meaning of text documents. However for certain classification tasks, terms are insufficient to adequately model the semantics needed for accurate document classification. A solution is to index documents using semantically rich concepts. Accordingly, we present an event extraction framework called Rule-Based Event Extractor (RUBEE) for identifying and utilising event information for concept-based indexing of incident reports. We also demonstrate how certain attributes of these events e.g. negation, can be taken into consideration to distinguish between documents that describe the occurrence of an event, and those that mention the non-occurrence of that event

    Representation and learning schemes for sentiment analysis.

    Get PDF
    This thesis identifies four novel techniques of improving the performance of sentiment analysis of text systems. Thes include feature extraction and selection, enrichment of the document representation and exploitation of the ordinal structure of rating classes. The techniques were evaluated on four sentiment-rich corpora, using two well-known classifiers: Support Vector Machines and Na¨ıve Bayes. This thesis proposes the Part-of-Speech Pattern Selector (PPS), which is a novel technique for automatically selecting Part-of-Speech (PoS) patterns. The PPS selects its patterns from a background dataset by use of a number of measures including Document Frequency, Information Gain, and the Chi-Squared Score. Extensive empirical results show that these patterns perform just as well as the manually selected ones. This has important implications in terms of both the cost and the time spent in manual pattern construction. The position of a phrase within a document is shown to have an influence on its sentiment orientation, and that document classification performance can be improved by weighting phrases in this regard. It is, however, also shown to be necessary to sample the distribution of sentiment rich phrases within documents of a given domain prior to adopting a phrase weighting criteria. A key factor in choosing a classifier for an Ordinal Sentiment Classification (OSC) problem is its ability to address ordinal inter-class similarities. Two types of classifiers are investigated: Those that can inherently solve multi-class problems, and those that decompose a multi-class problem into a sequence of binary problems. Empirical results showed the former to be more effective with regard to both mean squared error and classification time performances. Important features in an OSC problem are shown to distribute themselves across similar classes. Most feature selection techniques are ignorant of inter-class similarities and hence easily overlook such features. The Ordinal Smoothing Procedure (OSP), which augments inter-class similarities into the feature selection process, is introduced in this thesis. Empirical results show the OSP to have a positive effect on mean squared error performance

    Statistical natural language processing methods for intelligent process automation

    Get PDF
    Nowadays, digitization is transforming the way businesses work. Recently, Artificial Intelligence (AI) techniques became an essential part of the automation of business processes: In addition to cost advantages, these techniques offer fast processing times and higher customer satisfaction rates, thus ultimately increasing sales. One of the intelligent approaches for accelerating digital transformation in companies is the Robotic Process Automation (RPA). An RPA-system is a software tool that robotizes routine and time-consuming responsibilities such as email assessment, various calculations, or creation of documents and reports (Mohanty and Vyas, 2018). Its main objective is to organize a smart workflow and therethrough to assist employees by offering them more scope for cognitively demanding and engaging work. Intelligent Process Automation (IPA) offers all these advantages as well; however, it goes beyond the RPA by adding AI components such as Machine- and Deep Learning techniques to conventional automation solutions. Previously, IPA approaches were primarily employed within the computer vision domain. However, in recent times, Natural Language Processing (NLP) became one of the potential applications for IPA as well due to its ability to understand and interpret human language. Usually, NLP methods are used to analyze large amounts of unstructured textual data and to respond to various inquiries. However, one of the central applications of NLP within the IPA domain – are conversational interfaces (e.g., chatbots, virtual agents) that are used to enable human-to-machine communication. Nowadays, conversational agents gain enormous demand due to their ability to support a large number of users simultaneously while communicating in a natural language. The implementation of a conversational agent comprises multiple stages and involves diverse types of NLP sub-tasks, starting with natural language understanding (e.g., intent recognition, named entity extraction) and going towards dialogue management (i.e., determining the next possible bots action) and response generation. Typical dialogue system for IPA purposes undertakes straightforward customer support requests (e.g., FAQs), allowing human workers to focus on more complicated inquiries. In this thesis, we are addressing two potential Intelligent Process Automation (IPA) applications and employing statistical Natural Language Processing (NLP) methods for their implementation. The first block of this thesis (Chapter 2 – Chapter 4) deals with the development of a conversational agent for IPA purposes within the e-learning domain. As already mentioned, chatbots are one of the central applications for the IPA domain since they can effectively perform time-consuming tasks while communicating in a natural language. Within this thesis, we realized the IPA conversational bot that takes care of routine and time-consuming tasks regularly performed by human tutors of an online mathematical course. This bot is deployed in a real-world setting within the OMB+ mathematical platform. Conducting experiments for this part, we observed two possibilities to build the conversational agent in industrial settings – first, with purely rule-based methods, considering the missing training data and individual aspects of the target domain (i.e., e-learning). Second, we re-implemented two of the main system components (i.e., Natural Language Understanding (NLU) and Dialogue Manager (DM) units) using the current state-of-the-art deep-learning architecture (i.e., Bidirectional Encoder Representations from Transformers (BERT)) and investigated their performance and potential use as a part of a hybrid model (i.e., containing both rule-based and machine learning methods). The second part of the thesis (Chapter 5 – Chapter 6) considers an IPA subproblem within the predictive analytics domain and addresses the task of scientific trend forecasting. Predictive analytics forecasts future outcomes based on historical and current data. Therefore, using the benefits of advanced analytics models, an organization can, for instance, reliably determine trends and emerging topics and then manipulate it while making significant business decisions (i.e., investments). In this work, we dealt with the trend detection task – specifically, we addressed the lack of publicly available benchmarks for evaluating trend detection algorithms. We assembled the benchmark for the detection of both scientific trends and downtrends (i.e., topics that become less frequent overtime). To the best of our knowledge, the task of downtrend detection has not been addressed before. The resulting benchmark is based on a collection of more than one million documents, which is among the largest that has been used for trend detection before, and therefore, offers a realistic setting for the development of trend detection algorithms.Robotergesteuerte Prozessautomatisierung (RPA) ist eine Art von Software-Bots, die manuelle menschliche Tätigkeiten wie die Eingabe von Daten in das System, die Anmeldung in Benutzerkonten oder die Ausführung einfacher, aber sich wiederholender Arbeitsabläufe nachahmt (Mohanty and Vyas, 2018). Einer der Hauptvorteile und gleichzeitig Nachteil der RPA-bots ist jedoch deren Fähigkeit, die gestellte Aufgabe punktgenau zu erfüllen. Einerseits ist ein solches System in der Lage, die Aufgabe akkurat, sorgfältig und schnell auszuführen. Andererseits ist es sehr anfällig für Veränderungen in definierten Szenarien. Da der RPA-Bot für eine bestimmte Aufgabe konzipiert ist, ist es oft nicht möglich, ihn an andere Domänen oder sogar für einfache Änderungen in einem Arbeitsablauf anzupassen (Mohanty and Vyas, 2018). Diese Unfähigkeit, sich an veränderte Bedingungen anzupassen, führte zu einem weiteren Verbesserungsbereich für RPAbots – den Intelligenten Prozessautomatisierungssystemen (IPA). IPA-Bots kombinieren RPA mit Künstlicher Intelligenz (AI) und können komplexe und kognitiv anspruchsvollere Aufgaben erfüllen, die u.A. Schlussfolgerungen und natürliches Sprachverständnis erfordern. Diese Systeme übernehmen zeitaufwändige und routinemäßige Aufgaben, ermöglichen somit einen intelligenten Arbeitsablauf und befreien Fachkräfte für die Durchführung komplizierterer Aufgaben. Bisher wurden die IPA-Techniken hauptsächlich im Bereich der Bildverarbeitung eingesetzt. In der letzten Zeit wurde die natürliche Sprachverarbeitung (NLP) jedoch auch zu einem der potenziellen Anwendungen für IPA, und zwar aufgrund von der Fähigkeit, die menschliche Sprache zu interpretieren. NLP-Methoden werden eingesetzt, um große Mengen an Textdaten zu analysieren und auf verschiedene Anfragen zu reagieren. Auch wenn die verfügbaren Daten unstrukturiert sind oder kein vordefiniertes Format haben (z.B. E-Mails), oder wenn die in einem variablen Format vorliegen (z.B. Rechnungen, juristische Dokumente), dann werden ebenfalls die NLP Techniken angewendet, um die relevanten Informationen zu extrahieren, die dann zur Lösung verschiedener Probleme verwendet werden können. NLP im Rahmen von IPA beschränkt sich jedoch nicht auf die Extraktion relevanter Daten aus Textdokumenten. Eine der zentralen Anwendungen von IPA sind Konversationsagenten, die zur Interaktion zwischen Mensch und Maschine eingesetzt werden. Konversationsagenten erfahren enorme Nachfrage, da sie in der Lage sind, eine große Anzahl von Benutzern gleichzeitig zu unterstützen, und dabei in einer natürlichen Sprache kommunizieren. Die Implementierung eines Chatsystems umfasst verschiedene Arten von NLP-Teilaufgaben, beginnend mit dem Verständnis der natürlichen Sprache (z.B. Absichtserkennung, Extraktion von Entitäten) über das Dialogmanagement (z.B. Festlegung der nächstmöglichen Bot-Aktion) bis hin zur Response-Generierung. Ein typisches Dialogsystem für IPA-Zwecke übernimmt in der Regel unkomplizierte Kundendienstanfragen (z.B. Beantwortung von FAQs), so dass sich die Mitarbeiter auf komplexere Anfragen konzentrieren können. Diese Dissertation umfasst zwei Bereiche, die durch das breitere Thema vereint sind, nämlich die Intelligente Prozessautomatisierung (IPA) unter Verwendung statistischer Methoden der natürlichen Sprachverarbeitung (NLP). Der erste Block dieser Arbeit (Kapitel 2 – Kapitel 4) befasst sich mit der Impementierung eines Konversationsagenten für IPA-Zwecke innerhalb der E-Learning-Domäne. Wie bereits erwähnt, sind Chatbots eine der zentralen Anwendungen für die IPA-Domäne, da sie zeitaufwändige Aufgaben in einer natürlichen Sprache effektiv ausführen können. Der IPA-Kommunikationsbot, der in dieser Arbeit realisiert wurde, kümmert sich ebenfalls um routinemäßige und zeitaufwändige Aufgaben, die sonst von Tutoren in einem Online-Mathematikkurs in deutscher Sprache durchgeführt werden. Dieser Bot ist in der täglichen Anwendung innerhalb der mathematischen Plattform OMB+ eingesetzt. Bei der Durchführung von Experimenten beobachteten wir zwei Möglichkeiten, den Konversationsagenten im industriellen Umfeld zu entwickeln – zunächst mit rein regelbasierten Methoden, unter Bedingungen der fehlenden Trainingsdaten und besonderer Aspekte der Zieldomäne (d.h. E-Learning). Zweitens haben wir zwei der Hauptsystemkomponenten (Sprachverständnismodul, Dialog-Manager) mit dem derzeit fortschrittlichsten Deep Learning Algorithmus reimplementiert und die Performanz dieser Komponenten untersucht. Der zweite Teil der Doktorarbeit (Kapitel 5 – Kapitel 6) betrachtet ein IPA-Problem innerhalb des Vorhersageanalytik-Bereichs. Vorhersageanalytik zielt darauf ab, Prognosen über zukünftige Ergebnisse auf der Grundlage von historischen und aktuellen Daten zu erstellen. Daher kann ein Unternehmen mit Hilfe der Vorhersagesysteme z.B. die Trends oder neu entstehende Themen zuverlässig bestimmen und diese Informationen dann bei wichtigen Geschäftsentscheidungen (z.B. Investitionen) einsetzen. In diesem Teil der Arbeit beschäftigen wir uns mit dem Teilproblem der Trendprognose – insbesondere mit dem Fehlen öffentlich zugänglicher Benchmarks für die Evaluierung von Trenderkennungsalgorithmen. Wir haben den Benchmark zusammengestellt und veröffentlicht, um sowohl Trends als auch Abwärtstrends zu erkennen. Nach unserem besten Wissen ist die Aufgabe der Abwärtstrenderkennung bisher nicht adressiert worden. Der resultierende Benchmark basiert auf einer Sammlung von mehr als einer Million Dokumente, der zu den größten gehört, die bisher für die Trenderkennung verwendet wurden, und somit einen realistischen Rahmen für die Entwicklung von Trenddetektionsalgorithmen bietet

    MANIPULATION ACTION UNDERSTANDING FOR OBSERVATION AND EXECUTION

    Get PDF
    Modern intelligent agents will need to learn the actions that humans perform. They will need to recognize these actions when they see them and they will need to perform these actions themselves. We want to propose a cognitive system that interprets human manipulation actions from perceptual information (image and depth data) and consists of perceptual modules and reasoning modules that are in interaction with each other. The contributions of this work are given along two core problems at the heart of action understanding: a.) the grounding of relevant information about actions in perception (the perception - action integration problem), and b.) the organization of perceptual and high-level symbolic information for interpreting the actions (the sequencing problem). At the high level, actions are represented with the Manipulation Action Context-free Grammar (MACFG) , a syntactic grammar and associated parsing algorithms, which organizes actions as a sequence of sub-events. Each sub-event is described by the hand (as well as grasp type), movements (actions) and the objects and tools involved, and the relevant information about these quantities is obtained from biological-inspired perception modules. These modules track the hands and objects and recognize the hand grasp, actions, segmentation, and action consequences. Furthermore, a probabilistic semantic parsing framework based on CCG (Combinatory Categorial Grammar) theory is adopted to model the semantic meaning of human manipulation actions. Additionally, the lesson from the findings on mirror neurons is that the two processes of interpreting visually observed action and generating actions, should share the same underlying cognitive process. Recent studies have shown that grammatical structures underlie the representation of manipulation actions, which are used both to understand and to execute these actions. Analogically, understanding manipulation actions is like understanding language, while executing them is like generating language. Experiments on two tasks, 1) a robot observing people performing manipulation actions, and 2) a robot then executing manipulation actions accordingly, are presented to validate the formalism. The technical parts of this thesis are devoted to the experimental setting of task (1), while the task (2) is given as a live demonstration

    GIS-based identification of suitable areas for various kinds of water harvesting in Syria [online]

    Get PDF
    Abstract Main obstacle to development in the dry areas in Central Syria is the scarce and erratic rainfall. Water resources therefore run short in meeting the demand. Water harvesting has shown to be an appropriate means to garantee the sustainability of water resources designed for use in agricultural production and drinking water supply. Scope of the study is the determination of appropriate sites and techniques for water harvesting in Central Syria. Different parameters, such as rainfall, topography, land use and cover, soil and vegetation cover are important to runoff generation in semi-arid areas. Rainfall characteristics were evaluated by modern interpolation techniques such as kriging according to daily records of stations within the research area. Vegetation cover within the rangeland of Central Syria is highly depleted due to overexploitation by grazing. Infrastructure and accessibility of the research area is low. Remote sensing is therefore an appropriate tool to determine land cover and land use for vast areas. Landsat TM 5 data were analyzed using scenes of four dates, two recorded within the rainy season and two during the dry period. The research was focussed on an area of about 19,200 km². Land use and cover were classified by analysis of the satellite data according to the concept of Maximum Likelihood Classifier using ERDASImagine. Soil moisture could be partly analyzed by Tasseled CAP transformation. A Digital Terrain Model was created according to the interpolation of digitized contour lines of maps of the scale 1:100 000. All the different data sets including soil data are analyzed within the geographical information system using ArcView GIS. The runoff potential was analyzed by two methods: the US Soil Conservation Service (SCS) method and the indexing method. Since the indexing method allows to consider all the determinants this method has advantages compared to the SCS method. The process to decide finally on suitable sites for a water harvesting technique involves the assessment of alternatives. The Analytical Hierarchical Process (AHP) is a decision support system which allows to rank and weight different alternatives. Different parameters influencing the choice of water harvesting systems include the runoff potential, slope, the proximity to roads, soilscape units, proximity to military, industrial sites and badland areas and the neighborhood to settlement areas. The weighing and ranking of these alternatives allowed to present two different maps showing the suitability to floodwater harvesting or micro- / macrocatchment systems. According to these results most part of the research site is more suitable to micro- / macrocatchment systems. The maps are basis to further planning and design for water harvesting structures in the research area. Zusammenfassung Die rasch wachsende Bevölkerung Syriens ist auf eine ausreichende Lebensmittelversorgung und Trinkwasserversorgung angewiesen. Der zentrale Bereich von Syrien, der die Trockenzone zwischen 100 bis 200 mm umfasst, wird vorwiegend zur Weidewirtschaft genutzt. Die schnell ansteigende Zahl von Weidetieren hat in den letzten Jahren zu einer starken Degradierung der Steppenvegetation geführt. Diese wird verstärkt durch die natürlichen Voraussetzungen. In diesem typisch semi-ariden Gebiet ist der Niederschlag nur sporadisch und begrenzt auf eine über die Wintermonate andauernde Regenzeit zwischen November und April. Die meisten Regenfälle zeichnen sich durch kurze intensive Schauer aus, wobei der Abfluss meist unkontrolliert versickert. Zur Nutzung dieser Resource des Abflusses bietet sich die Anwendung von Sturzwasserbewässerungs- bzw. Wasserkonzentrationstechniken (Water harvesting) an. Die jahrtausendalte Ablenkdammbewässerung bei Marib (Jemen) zeigt, dass diese Techniken schon früher von den Sabatäern erfolgreich angewendet wurden. Die Arbeit konzentriert sich im wesentlichen auf zwei Beispiele von Wasserkonzentrationstechniken: Micro- / Macrocatchment- und Flutwasserkonzentrationsanlagen. Beispiele für Microcatchment-Systeme sind Halbmonde und halbkreisförmige Mulden, die das Wasser für die Pflanzen auffangen. Beispiele für Macrocatchment-Systeme sind Steindämme entlang der Abflussrichtung am Hang, die das Wasser auf Felder am Hangfuß leiten. Flutwasserkonzentrationstechniken umfassen beispielsweise Ablenkdämme im Bereich von Trockentälern (Wadis), die das Wasser auf angrenzende Felder leiten. Da es sich bei dem Untersuchungsgebiet um einen großen, zum Teil nur schlecht erschlossenen Bereich der Provinz Homs und Tadmor handelt, wurden ausgiebige Feldbegehungen zur Bewertung des Anwendungspotentials von Wasserkonzentrationstechniken ausgeschlossen. Moderne Techniken, die Datenerhebungen und analyse für schwer zugängliche Gebiete ermöglichen, sind Fernerkundungsmethoden und die Anwendung von Geografischen Informationssystemen (GIS). Satellitenbilder des Landsat TM 5 waren zu Beginn des Projektes Mitte der 90er Jahre gängige und viel verwendete Arbeitsmittel in der Fernerkundung. Für das Untersuchungsgebiet wurden Landsat TM 5 Szenen aus vier Zeitpunkten ausgewählt, zwei aus der Trockenperiode (Oktober 1993 und Juli 1994) und zwei aus der Regenzeit (April 1994 und April 1995). Für das Abflussgeschehen in semiariden Gebieten spielen verschiedene Faktoren eine Rolle. Der Oberflächenabfluss erfolgt hier zumeist nach dem Hortonschen Prinzip: Die stark intensiven Regenfälle führen bald zu Oberflächenabfluss, da die Infiltrationskapazität der häufig mit einer Kruste bedeckten Böden nicht ausreicht, die in kurzer Zeit dargebotene Wassermenge aufzunehmen. Zu den Parametern, die den Abfluss in semi-ariden Gebieten bestimmen, gehören klimatische Faktoren wie z. B. Regenmenge und Regenfallintensität, topographische Faktoren wie Hangneigung, Landnutzung und Charakteristika der Böden wie Bodenfeuchte und Bodentextur. Die meteorologischen Daten, die Regenfall und Temperaturdaten von mehreren Stationen im Untersuchungsgebiet betrafen, wurden ausgewertet und mithilfe von Interpolationstechniken wie Kriging-Verfahren regionalisiert. Jährliche Niederschlagssummen geben nur wenig Auskunft über das tatsächliche Wasserangebot in semi-ariden Gebieten, da Menge, Zeitdauer und Intensität eines Niederschlagsereignisses ausschlaggebend für das Abflussgeschehen sind. Es wurden tägliche Niederschlagswerte ausgewertet, wobei Niederschläge über 2 mm und über 5 mm täglich explizit betrachtet wurden, da diese nach Literaturangaben zu nennenswerten Abflussereignissen in semiariden Gebieten führen. Die Niederschläge wurden zudem über Extremwertverfahren analysiert, wobei 2-, 5- und 10-Jährlichkeiten von Extremniederschlägen ermittelt wurden. Informationen zur Temperatur ermöglichten die Ermittlung der potentiellen Verdunstung nach drei verschiedenen Verfahren, Penman-Monteith, Thornthwaite und Blaney-Criddle. Sie liegt im Bereich zwischen 1600 bis 2000 mm pro Jahr im Untersuchungsgebiet. Die Topographie, die eine starke Rolle beim Abflussgeschehen und der Auswahl von Wasserkonzentrationstechniken spielt, wurde über ein regelmässig gerastertes digitales Geländemodell in einer Auflösung von 100 m erfasst, das aus der Interpolation von Höhenkonturlinien aus Karten im Maßstab 1 : 100 000 erstellt wurde. Die Verteilung der Hangneigungsklassen zeigt, dass es sich um ein relativ flaches Gelände handelt mit der dominanten Hangneigungsklasse von 0 bis 1%. Zudem wurden anhand des digitalen Geländemodells die bevorzugten Abflusswege und deren Länge ermittelt. Bei den Böden im Untersuchungsgebiet handelt es sich vorwiegend um Aridisols (USDA Klassifizierung), die zum Teil stark zur Verkrustung neigen. Es wurde die Textur einiger typischer Böden und der Aggregatzustand des Oberbodens untersucht, die wichtige Parameter bezüglich der Infiltrationskapazität von Böden darstellen. Die Böden wurden aufgrund ihrer Eigenschaften, die Lithologie, Geologie, Landschaftsform, Hangneigung, Bodentiefe und Steinigkeit umfassen, in Bodeneinheiten unterteilt. Vegetation und Landnutzung wurden über die Auswertung der Satellitenbilder erfasst. Das Gebiet zählt zu über 50% zur Steppe, welche zur Weidewirtschaft von Schafen genutzt wird. Nur 2% des Landes im Bereich des Untersuchungsgebietes wird nach der offiziellen Statitistik für bewässerte Landwirtschaft genutzt. Die Grenze zum Regenfeldbau verläuft am nordwestlichen Rand des Untersuchungsgebietes entlang der Isohyete von mehr als 250 mm jährlichem Regenfalls. Die stark ansteigende Zahl von Schafen hat in den letzten Jahren zu einer starken Degradierung der Steppenvegetation geführt. Der Degeneration der Steppenvegetation wird z.T. durch Pflanzungen bzw. gezieltem Aussäen von Futterpflanzen begegnet. Die Auswertung der Satellitenbilder wurde auch zur Beschreibung der Vegetation benutzt. Hierbei wurden verschiedene Indices betrachtet, der NDVI (Normalized Difference Vegetation Index) und der PVI (Perpendicular Vegetation Index) -Ansatz. Der PVI-Ansatz beinhaltet, dass die Grauwerte des unbedeckten Bodens im Satellitenbild innerhalb des infraroten und roten Spektralbereichs eine lokalspezifische Linie bildet, die als sogenannte Bodenkennlinie bezeichnet wird. Diese wurde für die zwei Satellitenszenen aus April 1994 und April 1995 ermittelt. Es zeigte sich im Gegensatz zum NDVI-Ansatz, dass sich nur die mit dichter Vegetation bedeckten Bereiche in den Trockentälern (Wadis) bei der PVI-Analyse besser unterscheiden ließen. Somit wurden keine weiterführenden Kenntnisse über den Status der Vegetation über die rein visuelle Auswertung der Satellitenbilder hinaus gewonnen, so dass diese Auswertung nicht in die weiteren Betrachtungen miteinbezogen wurde. Um die Bodenfeuchte zu erfassen, wurde der Tasseled Cap Ansatz verwendet. Dieser basiert auf einer Hauptkomponentenanalyse, wobei die digitalen Werte der einzelnen Spektralbänder des Satellitenbildes über eine festgelegte Matrix multipliziert werden. Die erste Hauptkomponente stellt die Bodenhelligkeit dar, die Achse diagonal zur Bodenlinie den Vegetationsindex und die dritte Komponente zeigt den Feuchtegrad. Es zeigte sich, dass die Szenen aus der Regenperiode (April 1994 und April 1995) deutlich höhere Feuchtegrade zeigen. Die Landnutzungsklassen wurden über die Klassifizierung der Satellitenbilder ermittelt. Hierbei wurden während verschiedener Geländebegehungen Trainingsgebiete der unterschiedlichen Landbedeckungs- bzw. Landnutzungsklassen erfasst. Diese gingen ein in die Maximum-Likelihood-Analyse, die eine gängige Klassifizierungsmethode von Satellitenbildern bildet. Es wurden dreizehn Landnutzungsklassen unterschieden, wobei z.B. Klassen wie dichte Vegetation innerhalb der Trockentäler oder vegetationsfreie Böden unterschieden wurden. Die meisten Unterschiede der untersuchten Szene von April 1994 und 1995 zeigte die Klasse der dichten Vegetation innerhalb der Wadis. Schwierigkeiten der Klassifikation bildeten vor allem die Unterscheidung von Strassen oder Besiedlungen, da diese meist bedeckt sind von dem Staub aus der Umgebung. Auch gab es häufig Überlappungen der Klassen dichter Vegetation innerhalb der Trockentäler und bewässerter Getreidefelder. Die verschiedenen Daten wurden alle geometrisch kodiert und innerhalb des Geographischen Informationssystem (GIS) ausgewertet. Auch die Satellitenbilder wurden über Passpunkte, die im Gelände und auf dem Satellitenbild bestimmt wurden, in ein kartographische Koordinatennetz überführt, wobei das Universal Mercator System (UTM) gewählt wurde. Die Passpunkte im Gelände wurden über das GPS (Global Positioning System) bestimmt. Die Analyse des Abflusspotentials wurde über zwei Ansätze ausgeführt: die US Soil Conservation Methode, kurz SCS Methode genannt, und die Indizierungsmethode. Bei der SCS Methode flossen die Klassifizierung der Landnutzungsdaten aus der Satellitenbildauswertung und die Einteilung der Bodeneinheiten in hydrologische Bodenklassen ein. Der Regenfall wurde über die Zwei-Jährlichkeiten-Verteilung von Extremereignissen im Untersuchungsgebiet erfasst. Bei der Indizierungsmethode wurden verschiedenen Datenebenen Gewichtungen zugeteilt und ausgewertet. Die Datenebenen umfassten die Hangneigung, Bodentextur, Pflanzendecke, Steinigkeit der Bodenoberfläche, den Feuchteindex aus der Tasseled-Cap-Analyse und die Länge der Abflusswege. Der Einfluss der Pflanzendecke oder die Menge der Steine an der Bodenoberfläche in den einzelnen Landnutzungsklassen auf das Abflussgeschehen wurde anhand von Geländebegehungen und Erfahrungswerten aus der Literatur abgeschätzt. Es wurden zwei Szenarios berechnet, Szenario A die Länge der Abflusswege ausschließend, und Szenario B, jene einschließend. Es zeigte sich, dass die Indizierungsmethode das Abflusspotential schlüssiger im Gegensatz zur SCS Methode berechnet. Die SCS Methode gibt auch hinsichtlich der Menge des zu erwartenden Abflusses Aufschluss, allerdings muss hierbei beachtet werden, dass die Vorhersage von Niederschlagsereignissen in semi-ariden Gebieten mit vielen Schwierigkeiten behaftet ist. Um letztendlich die Eignung des Gebietes für verschiedene Wasserkonzentrationstechniken zu ermitteln, wurde ein Modell der Entscheidungsfindung (Decision process) angewendet. Hierbei handelt es sich um den Analytischen Hierarchischen Prozess (Analytical Hierarchical Process: AHP), der eine Gewichtung hinsichtlich der Präferenz von Alternativen der einzelnen Kriterien, die in der Entscheidungsfindung wichtig sind, erlaubt. Der AHP wird innerhalb von fünf elementaren Schritten unternommen: Eine klare Unterscheidung der Ziele muss getroffen werden. Die Faktoren, die die Entscheidung beieinflussen, müssen in einer Entscheidungshierarchie strukturiert werden. Die Gewichtung jedes Faktors muss anhand der Eigenvektorberechnung bestimmt werden. Letztendlich werden die einzelnen Fakoren zusammmengefasst in ihrer Rangfolge, und ein Eignungsindex wird eingeführt. Die Modelle zur Bestimmmung der Eignung des Gebietes für Micro- / Macrocatchment-Systeme oder Flutwasserkonzentrationstechniken umfassen 3 bis 4 verschiedene Ebenen: das Ziel, die Kriterien, Subkriterien und die Alternativen der Kriterien. Die Kriterien umfassen potentieller Abfluss, Hangneigung, Bodenklassen, Nähe zu Straßen, Nähe zu Siedlungen und Nähe zu industriellen, militärischen Anlagen und Ödland Gebieten. Die Alternativen der Kriterien betragen z. B. bei dem Kriterium der Nähe oder Nachbarschaft zu industriellen oder militärischen Anlagen oder Ödland die Klassen der Entfernung 0 bis 2,5 km, 2,5 bis 10 km und > 10 km. Diese Klassen werden aufgrund von Erfahrungswerten oder der speziellen Gegebenheiten vor Ort paarweise verglichen und anhand von Zahlen in eine Rangfolge gebracht. So weist die Klasse > 10 km eine größere Präferenz gegenüber der Klasse von 0 bis 2,5 km und wird somit mit dem Wert 7 versehen im Gegensatz zu 1. Der Eigenvektor, der sich dann aus einer Reihe von Werten der Alternativen und deren Anzahl errechnet, wird schliesslich in eine relative Gewichtung überführt. Es wurden bei der Errechnung der Eignung des Gebietes verschiedene Klassen unterschieden: günstigere oder weniger günstige, mehr oder weniger geeignete und ungeeignete Gebiete. Vor allem im südwestlichen Bereich des Untersuchungsgebietes zeigen sich mehr geeignete Flächen zur Anwendung von Wasserkonzentrationstechniken. Im allgemeinen ergab sich eine größere Eignung des Gebietes für den Einsatz von Micro- / MacrocatchmentSystemen. Entlang von Straßen zeigen sich sehr günstige Bereiche für Micro- / Macrocatchment-Systeme. Im Bereich der Abhänge der Südlichen Palmyriden eignen sich mehr Bereiche für Flutwasserkonzentrationstechniken. Die aus dem hierarchischen Entscheidungsmodell resultierenden Karten zeigen potentiell nutzbare Gebiete für die Anwendung der Wasserkonzentrationstechniken. Die quantitativ nutzbare Menge an Abfluss, die in durch die Wasserkonzentrationstechniken gesammelt und genutzt werden können, kann durch die vorliegende Analyse nicht ermittelt werden. Hierzu fehlen konkrete Niederschlags- und Abflussdaten von einzelnen Niederschlagsereignissen. Diese würden dann erlauben, einen Abflusskoeffizienten zu ermitteln, der die Dimensionierung einer Wasserkonzentrationsanlage ermöglichen würde. Der Abflusskoeffizient könnte auch durch Regensimulationsanlagen im Gelände ermittelt werden. Mithilfe des CROPWAT-Modells der FAO und den berechneten potentiellen Verdunstungswerten wurde noch der Wasserbedarf einiger Pflanzen unter den gegebenen klimatischen Verhältnissen ermittelt. Die Methodik des AHP kann auf andere Gebiete übertragen werden. Der AHP innerhalb des GIS erlaubt auch ohne weiteres die Einbindung weiterer Faktoren wie z.B. sozioökonomischer Entscheidungskriterien. Ein Beispiel für sozioökonomische Kriterien wäre der Arbeitsaufwand, der benötigt wird für die Installation und Unterhaltung einzelner Wasserkonzentrationssysteme. Somit ermöglicht die angewandte Methodik, die moderne Techniken wie Fernerkundung und Geoinformationssysteme einschliesst, eine Entscheidungsfindung bezüglich der Anwendbarkeit von Wasserkonzentrationstechniken vor allem in großen, unzugänglichen Gebieten mit wenig bekannten hydrologischen Daten

    Rivista internazionale di scienze economiche e commerciali - Anno 38 N. 02

    Get PDF
    corecore