31 research outputs found
Learning Efficient Disambiguation
This dissertation analyses the computational properties of current
performance-models of natural language parsing, in particular Data Oriented
Parsing (DOP), points out some of their major shortcomings and suggests
suitable solutions. It provides proofs that various problems of probabilistic
disambiguation are NP-Complete under instances of these performance-models, and
it argues that none of these models accounts for attractive efficiency
properties of human language processing in limited domains, e.g. that frequent
inputs are usually processed faster than infrequent ones. The central
hypothesis of this dissertation is that these shortcomings can be eliminated by
specializing the performance-models to the limited domains. The dissertation
addresses "grammar and model specialization" and presents a new framework, the
Ambiguity-Reduction Specialization (ARS) framework, that formulates the
necessary and sufficient conditions for successful specialization. The
framework is instantiated into specialization algorithms and applied to
specializing DOP. Novelties of these learning algorithms are 1) they limit the
hypotheses-space to include only "safe" models, 2) are expressed as constrained
optimization formulae that minimize the entropy of the training tree-bank given
the specialized grammar, under the constraint that the size of the specialized
model does not exceed a predefined maximum, and 3) they enable integrating the
specialized model with the original one in a complementary manner. The
dissertation provides experiments with initial implementations and compares the
resulting Specialized DOP (SDOP) models to the original DOP models with
encouraging results.Comment: 222 page
Fourth Conference on Artificial Intelligence for Space Applications
Proceedings of a conference held in Huntsville, Alabama, on November 15-16, 1988. The Fourth Conference on Artificial Intelligence for Space Applications brings together diverse technical and scientific work in order to help those who employ AI methods in space applications to identify common goals and to address issues of general interest in the AI community. Topics include the following: space applications of expert systems in fault diagnostics, in telemetry monitoring and data collection, in design and systems integration; and in planning and scheduling; knowledge representation, capture, verification, and management; robotics and vision; adaptive learning; and automatic programming
The organisational precursors to human automation interaction issues in safety-critical domains: the case of an automated alarm system from the air traffic management domain
Much has been written about the side effects of automation in complex safety-critical domains, such as air traffic management, aviation, nuclear power generation, and healthcare. Here, human factors and safety researchers have long acknowledged that the potential of automation to increase cost-effectiveness, quality of service and safety, is accompanied by undesired side effects or issues in human automation interaction (HAI). Such HAI issues may introduce the potential for increased confusion, uncertainty, and frustration amongst sharp end operators, i.e. the users of automation. These conditions may result in operators to refuse to use the automation, in impaired ability of operators to control the hazardous processes for which they are responsible, and in new, unintended paths to safety failure.
The present thesis develops a qualitative framework of the organisational precursors to HAI issues (OPHAII) that can be found in safety-critical domains. Organisational precursors denote those organisational and managerial conditions that, although distant in time and space from the operational environment, may actually influence the quality of HAI found there. Such precursors have been extensively investigated by organisational safety (OS) scholars in relation to the occurrence of accidents and disasters—although not HAI issues. Thus, the framework’s development is motivated by the intent to explore the theoretical gap lying at the intersection between the OS area and the current perspectives on the problem—the human computer interaction (HCI) and the system lifecycle ones. While considering HAI issues as a design problem or a failure in human factors integration and/or safety assurance respectively, both perspectives, in fact, ignore, the organisational roots of the problem.
The OPHAII framework was incrementally developed based on three qualitative studies: two successive, historical, case studies coupled with a third corroboratory expert study. The first two studies explored the organisational precursors to a known HAI issue: the nuisance alert problem relative to an automated alarm system from the air traffic management domain. In particular, the first case study investigated retrospectively the organisational response to the nuisance alert problem in the context of the alarm’s implementation and improvement in the US between 1977 and 2006. The second case study has a more contemporary focus, and examined at the organisational response to the same problem within two European Air Navigation Service Providers between 1990 and 2010. The first two studies produced a preliminary version of the framework. The third study corroborated and refined this version by subjecting it to the criticism from a panel of 11 subject matter experts.
The resulting framework identifies three classes of organisational precursors: (i) the organisational assumptions driving automation adoption and improvement; (2) the availability of specific organisational capabilities for handling HAI issues; and (3) the control of implementation quality at the boundary between the service provider and the software manufacturer. These precursors advance current understanding of the organisational factors involved in the (successful and problematic) handling of HAI issues within safety-critical service provider organisations. Its dimensions support the view that HAI issues can be seen as and organisational phenomenon—an organisational problem that can be the target of analysis and improvements complementary to those identified by the HCI and the system lifecycle perspectives
Explicitation in simultaneous interpreting : a study into explicitating behaviour of trainee interpreters
"Eksplicytacja w tłumaczeniu symultanicznym.
Analiza zachowań eksplicytacyjnych studentów tłumaczenia ustnego" Do niedawna uważano, że eksplicytacja, jako zjawisko często przybierające formę amplifikacji
tekstowej, występuje niezwykle rzadko w przekładzie symultanicznym, w którym ograniczenia
czasowe nie pozwalają na tego typu operacje tekstowe. Badania między innymi Shlesinger (1995)
dowiodły jednak, że eksplicytacja występuje w tłumaczeniu symultanicznym i choć uwarunkowana
w dużej mierze ograniczeniami medium, nie jest bynajmniej zjawiskiem marginalnym.
Celem niniejszej monografii jest analiza zjawiska eksplicytacji w tłumaczeniu symultanicznym
studentów tłumaczenia ustnego. Trzy aspekty, na których skupia się autorka, to strategiczność
eksplicytacji, wpływ kierunku tłumaczenia na tego typu zmiany oraz zależność pomiędzy indywidualnym
stylem tłumaczenia a zachowaniem eksplicytacyjnym. Badanie ma charakter eksperymentalny.
Badany jest zarówno produkt przekładu (poprzez porównanie tekstów wyjściowych
z docelowymi), jak i sam proces tłumaczenia symultanicznego (poprzez analizę protokołów
retrospektywnych). Korpus pracy stanowią nagrania i transkrypcje 240 tekstów docelowych wykonanych
przez 120 tłumaczy – łącznie około 75 godzin nagrań.
Część pierwsza (rozdziały od pierwszego do trzeciego) stanowi wprowadzenie do części
empirycznej (drugiej). Rozdział pierwszy przedstawia aktualny stan badań nad eksplicytacją
w przekładzie. Eksplicytacja to jedno z najczęściej omawianych zagadnień we współczesnej
translatoryce. Jednak przyglądając się licznym opracowaniom i badaniom empirycznym, trudno
oprzeć się wrażeniu, że już samo jednoznaczne zdefiniowanie tego zjawiska nastręcza niemałych
trudności. Autorka omawia różne propozycje definicji eksplicytacji, zestawiając to pojęcie z pokrewnymi
terminami, takimi jak dodanie, amplifikacja czy nadtłumaczenie, oraz charakteryzując
pojęcia eksplicytności i implicytności leżące u podstaw eksplicytacji. Definicja przyjęta w niniejszej
monografii, oparta w dużej mierze na pracach Murtisari (2013, 2016) i Séguinot (1988), zakłada,
że eksplicytacja to transformacja polegająca na eksplicytnym wyrażeniu w tekście docelowym
tego, co implicytne w tekście wyjściowym, lub na bardziej eksplicytnym wyrażeniu tego, co już
eksplicytne w oryginale. Innymi słowy, eksplicytacja ma miejsce, jeśli treści implikowane czy też
presuponowane w tekście wyjściowym zostały wyrażone wprost w tekście docelowym lub jeśli
element tekstu wyjściowego został uwydatniony w tekście przekładu poprzez zastosowanie emfazy
bądź dobór środków leksykalnych. Innym istotnym czynnikiem definiującym eksplicytację
jest jej niezależność od różnic systemowych. Istnieje co prawda szereg prac, w których zmiany
uwarunkowane różnicami systemowymi są uważane za tak zwaną eksplicytację obligatoryjną,
większość współczesnych badaczy jest jednak zgodna, że za eksplicytację należy uznać jedynie te
zmiany, które są całkowicie niezależne od różnic systemowych, a nawet preferencji stylistycznych
danej pary języków. Zatem dowodem na istnienie eksplicytacji w tekście przekładu jest możliwość
wypracowania jego poprawnej, lecz mniej eksplicytnej wersji. W rozdziale drugim zostały omówione mechanizmy językowe, które służą eksplikowaniu
treści w tekście docelowym. Eksplicytacja może przyjmować formę amplifikacji tekstowej, a co
za tym idzie, pociągać za sobą wprowadzenie do tekstu docelowego dodatkowych elementów
leksykalnych lub syntaktycznych, lub formę konkretyzacji, która wiąże się nie z wprowadzeniem
dodatkowych elementów, a jedynie z uwydatnieniem istniejących poprzez dobór bardziej eksplicytnych
środków leksykalnych lub struktur syntaktycznych. Do pierwszej grupy należą: dodawanie
konektorów, zastępowanie zaimków osobowych powtórzeniami danych jednostek leksykalnych,
reiteracja, uzupełnianie konstrukcji eliptycznych, dodawanie przydawek i określników, dodawanie
wyrażeń asekuracyjnych (hedges), dodawanie wyrażeń porządkujących tekst, dodawanie nazw
własnych do nazw rodzajowych, dookreślanie znaczenia oraz rozwinięcie definicyjne; do drugiej:
zastępowanie nominalizacji konstrukcjami czasownikowymi (demetaforyzacja gramatyczna), demetaforyzacja
leksykalna lub zastępowanie metafor porównaniami, dookreślanie leksykalne, a także
zamiana nazwy rodzajowej na nazwę własną. Niniejsza klasyfikacja eksplicytacji pod względem
jej manifestacji w strukturze powierzchniowej tekstu została zastosowana w analizie przedstawionej
w rozdziałach empirycznych.
Rozdział trzeci przedstawia metodologię wykorzystaną w pracy oraz główne hipotezy i pytania
badawcze. Autorka opisuje także szczegółowo procedury zastosowane w badaniu eksperymentalnym
oraz charakteryzuje samą metodę retrospekcji w szerszym kontekście badań nad
procesem przekładu; podaje również informacje na temat uczestników eksperymentu oraz tekstów
stanowiących korpus badawczy. Znaczna część rozdziału została poświęcona modelowi teoretycznemu,
stanowiącemu podstawę analizy eksplicytacji w tłumaczeniu symultanicznym. Analiza
została przeprowadzona z uwzględnieniem ograniczeń typowych dla tłumaczenia ustnego (The
Interpreting Constraints), użytych po raz pierwszy w badaniach nad spójnością tekstu tłumaczonego
symultanicznie przez Shlesinger (1995). Czynniki ograniczające proces tłumaczenia ustnego
obejmują: ograniczenie czasowe (The Time Constraint), ograniczenie związane z wymogiem
linearności wypowiedzi (The Linearity Constraint), ograniczenie wynikające z braku wspólnego
kontekstu komunikacyjnego (The (Un)shared Knowledge Constraint) oraz ograniczenie ze względu
na pojemność pamięci (The Memory Load Constraint). Model ograniczeń w przekładzie ustnym
(The Interpreting Constraints) zaproponowany przez Shlesinger został rozbudowany w niniejszej
monografii o założenia Teorii Przetwarzania Informacji, a w szczególności Modeli Wysiłkowych
oraz Modelu Grawitacyjnego Gile’a (1995). W poszerzonym modelu ograniczeń w przekładzie
ustnym uwzględniono także koncepcję domen tekstualności Hatima i Masona (1997).
Pierwszy z rozdziałów empirycznych (rozdział czwarty) prezentuje wyniki analizy dotyczącej
strategiczności eksplicytacji w tłumaczeniu symultanicznym. Rezultaty badań świadczą o tym, że
strategiczne zastosowanie tego typu modyfikacji tekstowych jest stosunkowo rzadkie w przekładzie
symultanicznym, a co za tym idzie, niewielki odsetek przypadków eksplicytacji jest efektem świadomej
decyzji tłumacza. Większość tego typu zmian w strukturze powierzchniowej tekstu nie została
zwerbalizowana w protokołach retrospektywnych, a część tłumaczy przyznaje, że niektórych
eksplicytacji dokonali odruchowo, w sposób automatyczny. Analiza protokołów retrospektywnych
pokazuje również powody stosowania strategicznej, w pełni świadomej eksplicytacji. Jedną z motywacji
jest aspekt komunikacyjny, podkreślany w pracach wielu badaczy przekładu. Zgodnie z tym
założeniem, eksplicytacja bywa efektem troski tłumacza o odbiorców, którym chce on jak najlepiej
przybliżyć treść komunikatu. Zastosowanie eksplicytacji wiąże się także ze zmniejszeniem wysiłku
wkładanego w przetwarzanie informacji, przez co łatwiej odczytać komunikat. Wiele komentarzy
retrospektywnych jednoznacznie wskazuje na świadome dążenie tłumacza do podniesienia walorów
komunikacyjnych tekstu docelowego. Jednak przeważającą motywacją są same ograniczenia
przekładu symultanicznego. Wydawać by się mogło, że ograniczenia te nie pozwalają tłumaczowi
na eksplikowanie treści w tekście docelowym. Wyniki badań wskazują jednak, że w wielu przypadkach
zastosowanie bardziej eksplicytnych form jest spowodowane właśnie ograniczeniami. W rozdziale piątym przedstawiono wyniki analizy wpływu kierunkowości na zachowania
eksplicytacyjne tłumaczy. Tłumaczenie na język B jest powszechnie uważane za trudniejsze i wiąże
się z większym wysiłkiem kognitywnym. Z tego też powodu kierunek ten charakteryzuje się większą
częstotliwością eksplicytacji. Tłumacze częściej uzasadniają tego typu zmiany ograniczeniami,
a jako powód podają konieczność kompensacji pominiętych segmentów tekstu, wypełnienia pauz
spowodowanych koniecznością wydłużenia EVS-u, problemy z doborem leksykalnym oraz inne
tym podobne. Interesujące wyniki dało porównanie tekstów docelowych i protokołów retrospektywnych
z ankietą. W wielu przypadkach widać wyraźny brak korelacji pomiędzy realnym
zachowaniem eksplicytacyjnym danej osoby a deklarowanymi przez nią w ankiecie preferencjami.
Dowodzi to, że większość przypadków eksplicytacji w tłumaczeniu symultanicznym nie wynika
ze świadomej decyzji tłumacza.
Ostatni z rozdziałów analitycznych (rozdział szósty) dotyczy zależności pomiędzy indywidualnym
stylem tłumaczenia a użyciem eksplicytacji. Autorka wyodrębnia dziewięć stylów eksplicytacyjnych,
biorąc pod uwagę kryteria częstotliwości występowania oraz konsekwencji użycia
tej transformacji tekstowej. Wiele tłumaczeń tego samego tekstu wyjściowego (każdy z 6 tekstów
został przetłumaczony przez 40 tłumaczy) pozwoliło także na analizę zbieżności zachowań eksplicytacyjnych.
Analiza wykazała bardzo niski poziom zbieżności, co świadczy o tym, że eksplicytacja
jest zachowaniem bardzo indywidualnym, nie tylko zależnym od elementów stałych, takich jak
ogólny styl tłumaczenia i preferowanie co do stosowania określonych strategii ratunkowych, lecz
także uwarunkowanym sposobem przetworzenia poprzednich segmentów tekstu w danej sytuacji
OBSERVER-BASED-CONTROLLER FOR INVERTED PENDULUM MODEL
This paper presents a state space control technique for inverted pendulum system. The system is a common classical control problem that has been widely used to test multiple control algorithms because of its nonlinear and unstable behavior. Full state feedback based on pole placement and optimal control is applied to the inverted pendulum system to achieve desired design specification which are 4 seconds settling time and 5% overshoot. The simulation and optimization of the full state feedback controller based on pole placement and optimal control techniques as well as the performance comparison between these techniques is described comprehensively. The comparison is made to choose the most suitable technique for the system that have the best trade-off between settling time and overshoot. Besides that, the observer design is analyzed to see the effect of pole location and noise present in the system
A Review of Resonant Converter Control Techniques and The Performances
paper first discusses each control technique and then gives experimental results and/or performance to highlights their merits. The resonant converter used as a case study is not specified to just single topology instead it used few topologies such as series-parallel resonant converter (SPRC), LCC resonant converter and parallel resonant converter (PRC). On the other hand, the control techniques presented in this paper are self-sustained phase shift modulation (SSPSM) control, self-oscillating power factor
control, magnetic control and the H-∞ robust control technique
A Review of Resonant Converter Control Techniques and The Performances
paper first discusses each control technique and then gives experimental results and/or performance to highlights their merits. The resonant converter used as a case study is not specified to just single topology instead it used few topologies such as series-parallel resonant converter (SPRC), LCC resonant converter and parallel resonant converter (PRC). On the other hand, the control techniques presented in this paper are self-sustained phase shift modulation (SSPSM) control, self-oscillating power factor
control, magnetic control and the H-∞ robust control technique
State-Feedback Controller Based on Pole Placement Technique for Inverted Pendulum System
This paper presents a state space control technique for inverted pendulum system using simulation and real experiment via MATLAB/SIMULINK software. The inverted pendulum is difficult system to control in the field of control engineering. It is also one of the most important classical control system problems because of its nonlinear characteristics and unstable system. It has three main problems that always appear in control application which are nonlinear system, unstable and non-minimumbehavior
phase system. This project will apply state feedback controller based on pole placement technique which is capable in stabilizing the practical based inverted pendulum at vertical position. Desired design specifications which are 4 seconds settling time and 5 % overshoot is needed to apply in full state feedback controller based on pole placement technique. First of all, the mathematical model of an inverted pendulum system is derived to obtain the state space representation of the system. Then, the design phase of the State-Feedback Controller can be conducted after linearization technique is
performed to the nonlinear equation with the aid of mathematical aided software such as Mathcad. After that, the design is simulated using MATLAB/Simulink software. The controller design of the inverted pendulum system is verified using simulation and experiment test. Finally the controller design is compared with PID controller for benchmarking purpose
A system that learns to recognize 3-D objects
A system that learns to recognize 3-D objects from single and
multiple views is presented. It consists of three parts: a simulator
of 3-D figures, a Learner, and a recognizer.
The 3-D figure simulator generates and plots line drawings of
certain 3-D objects. A series of transformations leads to a number of
2-D images of a 3-D object, which are considered as different views
and are the basic input to the next two parts.
The learner works in three stages using the method of Learning
from examples. In the first stage an elementary-concept learner learns
the basic entities that make up a line drawing. In the second stage a
multiple-view learner learns the definitions of 3-D objects that are to
be recognized from multiple views. In the third stage a single-view
learner learns how to recognize the same objects from single views.
The recognizer is presented with line drawings representing 3-D
scenes. A single-view recognizer segments the input into faces of
possible 3-D objects, and attempts to match the segmented scene with a
set of single-view definitions of 3-D objects. The result of the
recognition may include several alternative answers, corresponding to
different 3-D objects. A unique answer can be obtained by making
assumptions about hidden elements (e. g. faces) of an object and using a
multiple-view recognizer. Both single-view and multiple-view recognition
are based on the structural relations of the elements that make up a
3-D object. Some analytical elements (e. g. angles) of the objects are
also calculated, in order to determine point containment and conveziti.
The system performs well on polyhedra with triangular and
quadrilateral faces. A discussion of the system's performance and
suggestions for further development is given at the end.
The simulator and the part of the recognizer that makes the
analytical calculations are written in C. The learner and the rest
of the recognizer are written in PROLOG
Strategies of reading as communication : with reference to Yemeni tertiary learners
Reading is an important skill for all languages and all language learning. It is a skill complex to understand, complex to teach and complex to learn. \ud
This thesis addresses the issue of reading from the reader's point of view. It provides a detailed analysis of the reading strategies used by the Yemeni learners of English at the tertiary level as they read textbooks. In doing so it draws from two domains of second/foreign language learning, viz reading and strategies. Within the framework of these two domains it focuses on readin g strategies, depending on the first part (reading) on the reader-text interaction view of reading and for the second part (strategies) on the conscious effort involved in solving a reading problem. It investigates two related aspects of the reading process: reading problems arising in the creation of meaning as far as the systemic and schematic knowledge is concerned and reading solutions as given by the reader.\ud
The concept of 'strategy' is first examined as it is found in learning and communication studies. It is then presented in reading and reading models. Studies that have addressed the issue are then reviewed.\ud
Reading strategies are investigated through a five-stage design where a different instrument is used in each stage. Subjects in each of the five stages (questionnaires, interviews, classroom observations, doze/recall tasks and verbal protocols in Li and L2) range from 60 to 100 in number, coming from two different disciplines, viz Education and Engineering.\ud
The data of the study are analysed using quantitative and qualitative techniques. The results present a picture of the strategies the readers used in reading texts in Arabic and in English in the form of some twenty-four different strategies, which are categorised as problem identifying and problem-solving ones. These strategies are then discussed with reference to the reading models presented earlier.\ud
On the basis of this, implications for theory and pedagogy are made. \u