31 research outputs found

    Learning Efficient Disambiguation

    Get PDF
    This dissertation analyses the computational properties of current performance-models of natural language parsing, in particular Data Oriented Parsing (DOP), points out some of their major shortcomings and suggests suitable solutions. It provides proofs that various problems of probabilistic disambiguation are NP-Complete under instances of these performance-models, and it argues that none of these models accounts for attractive efficiency properties of human language processing in limited domains, e.g. that frequent inputs are usually processed faster than infrequent ones. The central hypothesis of this dissertation is that these shortcomings can be eliminated by specializing the performance-models to the limited domains. The dissertation addresses "grammar and model specialization" and presents a new framework, the Ambiguity-Reduction Specialization (ARS) framework, that formulates the necessary and sufficient conditions for successful specialization. The framework is instantiated into specialization algorithms and applied to specializing DOP. Novelties of these learning algorithms are 1) they limit the hypotheses-space to include only "safe" models, 2) are expressed as constrained optimization formulae that minimize the entropy of the training tree-bank given the specialized grammar, under the constraint that the size of the specialized model does not exceed a predefined maximum, and 3) they enable integrating the specialized model with the original one in a complementary manner. The dissertation provides experiments with initial implementations and compares the resulting Specialized DOP (SDOP) models to the original DOP models with encouraging results.Comment: 222 page

    Fourth Conference on Artificial Intelligence for Space Applications

    Get PDF
    Proceedings of a conference held in Huntsville, Alabama, on November 15-16, 1988. The Fourth Conference on Artificial Intelligence for Space Applications brings together diverse technical and scientific work in order to help those who employ AI methods in space applications to identify common goals and to address issues of general interest in the AI community. Topics include the following: space applications of expert systems in fault diagnostics, in telemetry monitoring and data collection, in design and systems integration; and in planning and scheduling; knowledge representation, capture, verification, and management; robotics and vision; adaptive learning; and automatic programming

    The organisational precursors to human automation interaction issues in safety-critical domains: the case of an automated alarm system from the air traffic management domain

    Get PDF
    Much has been written about the side effects of automation in complex safety-critical domains, such as air traffic management, aviation, nuclear power generation, and healthcare. Here, human factors and safety researchers have long acknowledged that the potential of automation to increase cost-effectiveness, quality of service and safety, is accompanied by undesired side effects or issues in human automation interaction (HAI). Such HAI issues may introduce the potential for increased confusion, uncertainty, and frustration amongst sharp end operators, i.e. the users of automation. These conditions may result in operators to refuse to use the automation, in impaired ability of operators to control the hazardous processes for which they are responsible, and in new, unintended paths to safety failure. The present thesis develops a qualitative framework of the organisational precursors to HAI issues (OPHAII) that can be found in safety-critical domains. Organisational precursors denote those organisational and managerial conditions that, although distant in time and space from the operational environment, may actually influence the quality of HAI found there. Such precursors have been extensively investigated by organisational safety (OS) scholars in relation to the occurrence of accidents and disasters—although not HAI issues. Thus, the framework’s development is motivated by the intent to explore the theoretical gap lying at the intersection between the OS area and the current perspectives on the problem—the human computer interaction (HCI) and the system lifecycle ones. While considering HAI issues as a design problem or a failure in human factors integration and/or safety assurance respectively, both perspectives, in fact, ignore, the organisational roots of the problem. The OPHAII framework was incrementally developed based on three qualitative studies: two successive, historical, case studies coupled with a third corroboratory expert study. The first two studies explored the organisational precursors to a known HAI issue: the nuisance alert problem relative to an automated alarm system from the air traffic management domain. In particular, the first case study investigated retrospectively the organisational response to the nuisance alert problem in the context of the alarm’s implementation and improvement in the US between 1977 and 2006. The second case study has a more contemporary focus, and examined at the organisational response to the same problem within two European Air Navigation Service Providers between 1990 and 2010. The first two studies produced a preliminary version of the framework. The third study corroborated and refined this version by subjecting it to the criticism from a panel of 11 subject matter experts. The resulting framework identifies three classes of organisational precursors: (i) the organisational assumptions driving automation adoption and improvement; (2) the availability of specific organisational capabilities for handling HAI issues; and (3) the control of implementation quality at the boundary between the service provider and the software manufacturer. These precursors advance current understanding of the organisational factors involved in the (successful and problematic) handling of HAI issues within safety-critical service provider organisations. Its dimensions support the view that HAI issues can be seen as and organisational phenomenon—an organisational problem that can be the target of analysis and improvements complementary to those identified by the HCI and the system lifecycle perspectives

    Explicitation in simultaneous interpreting : a study into explicitating behaviour of trainee interpreters

    Get PDF
    "Eksplicytacja w tłumaczeniu symultanicznym. Analiza zachowań eksplicytacyjnych studentów tłumaczenia ustnego" Do niedawna uważano, że eksplicytacja, jako zjawisko często przybierające formę amplifikacji tekstowej, występuje niezwykle rzadko w przekładzie symultanicznym, w którym ograniczenia czasowe nie pozwalają na tego typu operacje tekstowe. Badania między innymi Shlesinger (1995) dowiodły jednak, że eksplicytacja występuje w tłumaczeniu symultanicznym i choć uwarunkowana w dużej mierze ograniczeniami medium, nie jest bynajmniej zjawiskiem marginalnym. Celem niniejszej monografii jest analiza zjawiska eksplicytacji w tłumaczeniu symultanicznym studentów tłumaczenia ustnego. Trzy aspekty, na których skupia się autorka, to strategiczność eksplicytacji, wpływ kierunku tłumaczenia na tego typu zmiany oraz zależność pomiędzy indywidualnym stylem tłumaczenia a zachowaniem eksplicytacyjnym. Badanie ma charakter eksperymentalny. Badany jest zarówno produkt przekładu (poprzez porównanie tekstów wyjściowych z docelowymi), jak i sam proces tłumaczenia symultanicznego (poprzez analizę protokołów retrospektywnych). Korpus pracy stanowią nagrania i transkrypcje 240 tekstów docelowych wykonanych przez 120 tłumaczy – łącznie około 75 godzin nagrań. Część pierwsza (rozdziały od pierwszego do trzeciego) stanowi wprowadzenie do części empirycznej (drugiej). Rozdział pierwszy przedstawia aktualny stan badań nad eksplicytacją w przekładzie. Eksplicytacja to jedno z najczęściej omawianych zagadnień we współczesnej translatoryce. Jednak przyglądając się licznym opracowaniom i badaniom empirycznym, trudno oprzeć się wrażeniu, że już samo jednoznaczne zdefiniowanie tego zjawiska nastręcza niemałych trudności. Autorka omawia różne propozycje definicji eksplicytacji, zestawiając to pojęcie z pokrewnymi terminami, takimi jak dodanie, amplifikacja czy nadtłumaczenie, oraz charakteryzując pojęcia eksplicytności i implicytności leżące u podstaw eksplicytacji. Definicja przyjęta w niniejszej monografii, oparta w dużej mierze na pracach Murtisari (2013, 2016) i Séguinot (1988), zakłada, że eksplicytacja to transformacja polegająca na eksplicytnym wyrażeniu w tekście docelowym tego, co implicytne w tekście wyjściowym, lub na bardziej eksplicytnym wyrażeniu tego, co już eksplicytne w oryginale. Innymi słowy, eksplicytacja ma miejsce, jeśli treści implikowane czy też presuponowane w tekście wyjściowym zostały wyrażone wprost w tekście docelowym lub jeśli element tekstu wyjściowego został uwydatniony w tekście przekładu poprzez zastosowanie emfazy bądź dobór środków leksykalnych. Innym istotnym czynnikiem definiującym eksplicytację jest jej niezależność od różnic systemowych. Istnieje co prawda szereg prac, w których zmiany uwarunkowane różnicami systemowymi są uważane za tak zwaną eksplicytację obligatoryjną, większość współczesnych badaczy jest jednak zgodna, że za eksplicytację należy uznać jedynie te zmiany, które są całkowicie niezależne od różnic systemowych, a nawet preferencji stylistycznych danej pary języków. Zatem dowodem na istnienie eksplicytacji w tekście przekładu jest możliwość wypracowania jego poprawnej, lecz mniej eksplicytnej wersji. W rozdziale drugim zostały omówione mechanizmy językowe, które służą eksplikowaniu treści w tekście docelowym. Eksplicytacja może przyjmować formę amplifikacji tekstowej, a co za tym idzie, pociągać za sobą wprowadzenie do tekstu docelowego dodatkowych elementów leksykalnych lub syntaktycznych, lub formę konkretyzacji, która wiąże się nie z wprowadzeniem dodatkowych elementów, a jedynie z uwydatnieniem istniejących poprzez dobór bardziej eksplicytnych środków leksykalnych lub struktur syntaktycznych. Do pierwszej grupy należą: dodawanie konektorów, zastępowanie zaimków osobowych powtórzeniami danych jednostek leksykalnych, reiteracja, uzupełnianie konstrukcji eliptycznych, dodawanie przydawek i określników, dodawanie wyrażeń asekuracyjnych (hedges), dodawanie wyrażeń porządkujących tekst, dodawanie nazw własnych do nazw rodzajowych, dookreślanie znaczenia oraz rozwinięcie definicyjne; do drugiej: zastępowanie nominalizacji konstrukcjami czasownikowymi (demetaforyzacja gramatyczna), demetaforyzacja leksykalna lub zastępowanie metafor porównaniami, dookreślanie leksykalne, a także zamiana nazwy rodzajowej na nazwę własną. Niniejsza klasyfikacja eksplicytacji pod względem jej manifestacji w strukturze powierzchniowej tekstu została zastosowana w analizie przedstawionej w rozdziałach empirycznych. Rozdział trzeci przedstawia metodologię wykorzystaną w pracy oraz główne hipotezy i pytania badawcze. Autorka opisuje także szczegółowo procedury zastosowane w badaniu eksperymentalnym oraz charakteryzuje samą metodę retrospekcji w szerszym kontekście badań nad procesem przekładu; podaje również informacje na temat uczestników eksperymentu oraz tekstów stanowiących korpus badawczy. Znaczna część rozdziału została poświęcona modelowi teoretycznemu, stanowiącemu podstawę analizy eksplicytacji w tłumaczeniu symultanicznym. Analiza została przeprowadzona z uwzględnieniem ograniczeń typowych dla tłumaczenia ustnego (The Interpreting Constraints), użytych po raz pierwszy w badaniach nad spójnością tekstu tłumaczonego symultanicznie przez Shlesinger (1995). Czynniki ograniczające proces tłumaczenia ustnego obejmują: ograniczenie czasowe (The Time Constraint), ograniczenie związane z wymogiem linearności wypowiedzi (The Linearity Constraint), ograniczenie wynikające z braku wspólnego kontekstu komunikacyjnego (The (Un)shared Knowledge Constraint) oraz ograniczenie ze względu na pojemność pamięci (The Memory Load Constraint). Model ograniczeń w przekładzie ustnym (The Interpreting Constraints) zaproponowany przez Shlesinger został rozbudowany w niniejszej monografii o założenia Teorii Przetwarzania Informacji, a w szczególności Modeli Wysiłkowych oraz Modelu Grawitacyjnego Gile’a (1995). W poszerzonym modelu ograniczeń w przekładzie ustnym uwzględniono także koncepcję domen tekstualności Hatima i Masona (1997). Pierwszy z rozdziałów empirycznych (rozdział czwarty) prezentuje wyniki analizy dotyczącej strategiczności eksplicytacji w tłumaczeniu symultanicznym. Rezultaty badań świadczą o tym, że strategiczne zastosowanie tego typu modyfikacji tekstowych jest stosunkowo rzadkie w przekładzie symultanicznym, a co za tym idzie, niewielki odsetek przypadków eksplicytacji jest efektem świadomej decyzji tłumacza. Większość tego typu zmian w strukturze powierzchniowej tekstu nie została zwerbalizowana w protokołach retrospektywnych, a część tłumaczy przyznaje, że niektórych eksplicytacji dokonali odruchowo, w sposób automatyczny. Analiza protokołów retrospektywnych pokazuje również powody stosowania strategicznej, w pełni świadomej eksplicytacji. Jedną z motywacji jest aspekt komunikacyjny, podkreślany w pracach wielu badaczy przekładu. Zgodnie z tym założeniem, eksplicytacja bywa efektem troski tłumacza o odbiorców, którym chce on jak najlepiej przybliżyć treść komunikatu. Zastosowanie eksplicytacji wiąże się także ze zmniejszeniem wysiłku wkładanego w przetwarzanie informacji, przez co łatwiej odczytać komunikat. Wiele komentarzy retrospektywnych jednoznacznie wskazuje na świadome dążenie tłumacza do podniesienia walorów komunikacyjnych tekstu docelowego. Jednak przeważającą motywacją są same ograniczenia przekładu symultanicznego. Wydawać by się mogło, że ograniczenia te nie pozwalają tłumaczowi na eksplikowanie treści w tekście docelowym. Wyniki badań wskazują jednak, że w wielu przypadkach zastosowanie bardziej eksplicytnych form jest spowodowane właśnie ograniczeniami. W rozdziale piątym przedstawiono wyniki analizy wpływu kierunkowości na zachowania eksplicytacyjne tłumaczy. Tłumaczenie na język B jest powszechnie uważane za trudniejsze i wiąże się z większym wysiłkiem kognitywnym. Z tego też powodu kierunek ten charakteryzuje się większą częstotliwością eksplicytacji. Tłumacze częściej uzasadniają tego typu zmiany ograniczeniami, a jako powód podają konieczność kompensacji pominiętych segmentów tekstu, wypełnienia pauz spowodowanych koniecznością wydłużenia EVS-u, problemy z doborem leksykalnym oraz inne tym podobne. Interesujące wyniki dało porównanie tekstów docelowych i protokołów retrospektywnych z ankietą. W wielu przypadkach widać wyraźny brak korelacji pomiędzy realnym zachowaniem eksplicytacyjnym danej osoby a deklarowanymi przez nią w ankiecie preferencjami. Dowodzi to, że większość przypadków eksplicytacji w tłumaczeniu symultanicznym nie wynika ze świadomej decyzji tłumacza. Ostatni z rozdziałów analitycznych (rozdział szósty) dotyczy zależności pomiędzy indywidualnym stylem tłumaczenia a użyciem eksplicytacji. Autorka wyodrębnia dziewięć stylów eksplicytacyjnych, biorąc pod uwagę kryteria częstotliwości występowania oraz konsekwencji użycia tej transformacji tekstowej. Wiele tłumaczeń tego samego tekstu wyjściowego (każdy z 6 tekstów został przetłumaczony przez 40 tłumaczy) pozwoliło także na analizę zbieżności zachowań eksplicytacyjnych. Analiza wykazała bardzo niski poziom zbieżności, co świadczy o tym, że eksplicytacja jest zachowaniem bardzo indywidualnym, nie tylko zależnym od elementów stałych, takich jak ogólny styl tłumaczenia i preferowanie co do stosowania określonych strategii ratunkowych, lecz także uwarunkowanym sposobem przetworzenia poprzednich segmentów tekstu w danej sytuacji

    OBSERVER-BASED-CONTROLLER FOR INVERTED PENDULUM MODEL

    Get PDF
    This paper presents a state space control technique for inverted pendulum system. The system is a common classical control problem that has been widely used to test multiple control algorithms because of its nonlinear and unstable behavior. Full state feedback based on pole placement and optimal control is applied to the inverted pendulum system to achieve desired design specification which are 4 seconds settling time and 5% overshoot. The simulation and optimization of the full state feedback controller based on pole placement and optimal control techniques as well as the performance comparison between these techniques is described comprehensively. The comparison is made to choose the most suitable technique for the system that have the best trade-off between settling time and overshoot. Besides that, the observer design is analyzed to see the effect of pole location and noise present in the system

    A Review of Resonant Converter Control Techniques and The Performances

    Get PDF
    paper first discusses each control technique and then gives experimental results and/or performance to highlights their merits. The resonant converter used as a case study is not specified to just single topology instead it used few topologies such as series-parallel resonant converter (SPRC), LCC resonant converter and parallel resonant converter (PRC). On the other hand, the control techniques presented in this paper are self-sustained phase shift modulation (SSPSM) control, self-oscillating power factor control, magnetic control and the H-∞ robust control technique

    A Review of Resonant Converter Control Techniques and The Performances

    Get PDF
    paper first discusses each control technique and then gives experimental results and/or performance to highlights their merits. The resonant converter used as a case study is not specified to just single topology instead it used few topologies such as series-parallel resonant converter (SPRC), LCC resonant converter and parallel resonant converter (PRC). On the other hand, the control techniques presented in this paper are self-sustained phase shift modulation (SSPSM) control, self-oscillating power factor control, magnetic control and the H-∞ robust control technique

    State-Feedback Controller Based on Pole Placement Technique for Inverted Pendulum System

    Get PDF
    This paper presents a state space control technique for inverted pendulum system using simulation and real experiment via MATLAB/SIMULINK software. The inverted pendulum is difficult system to control in the field of control engineering. It is also one of the most important classical control system problems because of its nonlinear characteristics and unstable system. It has three main problems that always appear in control application which are nonlinear system, unstable and non-minimumbehavior phase system. This project will apply state feedback controller based on pole placement technique which is capable in stabilizing the practical based inverted pendulum at vertical position. Desired design specifications which are 4 seconds settling time and 5 % overshoot is needed to apply in full state feedback controller based on pole placement technique. First of all, the mathematical model of an inverted pendulum system is derived to obtain the state space representation of the system. Then, the design phase of the State-Feedback Controller can be conducted after linearization technique is performed to the nonlinear equation with the aid of mathematical aided software such as Mathcad. After that, the design is simulated using MATLAB/Simulink software. The controller design of the inverted pendulum system is verified using simulation and experiment test. Finally the controller design is compared with PID controller for benchmarking purpose

    A system that learns to recognize 3-D objects

    Get PDF
    A system that learns to recognize 3-D objects from single and multiple views is presented. It consists of three parts: a simulator of 3-D figures, a Learner, and a recognizer. The 3-D figure simulator generates and plots line drawings of certain 3-D objects. A series of transformations leads to a number of 2-D images of a 3-D object, which are considered as different views and are the basic input to the next two parts. The learner works in three stages using the method of Learning from examples. In the first stage an elementary-concept learner learns the basic entities that make up a line drawing. In the second stage a multiple-view learner learns the definitions of 3-D objects that are to be recognized from multiple views. In the third stage a single-view learner learns how to recognize the same objects from single views. The recognizer is presented with line drawings representing 3-D scenes. A single-view recognizer segments the input into faces of possible 3-D objects, and attempts to match the segmented scene with a set of single-view definitions of 3-D objects. The result of the recognition may include several alternative answers, corresponding to different 3-D objects. A unique answer can be obtained by making assumptions about hidden elements (e. g. faces) of an object and using a multiple-view recognizer. Both single-view and multiple-view recognition are based on the structural relations of the elements that make up a 3-D object. Some analytical elements (e. g. angles) of the objects are also calculated, in order to determine point containment and conveziti. The system performs well on polyhedra with triangular and quadrilateral faces. A discussion of the system's performance and suggestions for further development is given at the end. The simulator and the part of the recognizer that makes the analytical calculations are written in C. The learner and the rest of the recognizer are written in PROLOG

    Strategies of reading as communication : with reference to Yemeni tertiary learners

    Get PDF
    Reading is an important skill for all languages and all language learning. It is a skill complex to understand, complex to teach and complex to learn. \ud This thesis addresses the issue of reading from the reader's point of view. It provides a detailed analysis of the reading strategies used by the Yemeni learners of English at the tertiary level as they read textbooks. In doing so it draws from two domains of second/foreign language learning, viz reading and strategies. Within the framework of these two domains it focuses on readin g strategies, depending on the first part (reading) on the reader-text interaction view of reading and for the second part (strategies) on the conscious effort involved in solving a reading problem. It investigates two related aspects of the reading process: reading problems arising in the creation of meaning as far as the systemic and schematic knowledge is concerned and reading solutions as given by the reader.\ud The concept of 'strategy' is first examined as it is found in learning and communication studies. It is then presented in reading and reading models. Studies that have addressed the issue are then reviewed.\ud Reading strategies are investigated through a five-stage design where a different instrument is used in each stage. Subjects in each of the five stages (questionnaires, interviews, classroom observations, doze/recall tasks and verbal protocols in Li and L2) range from 60 to 100 in number, coming from two different disciplines, viz Education and Engineering.\ud The data of the study are analysed using quantitative and qualitative techniques. The results present a picture of the strategies the readers used in reading texts in Arabic and in English in the form of some twenty-four different strategies, which are categorised as problem identifying and problem-solving ones. These strategies are then discussed with reference to the reading models presented earlier.\ud On the basis of this, implications for theory and pedagogy are made. \u
    corecore