662 research outputs found
Explicitation and directionality in simultaneous interpreting
The aim of the present study is to investigate the relationship between explicitation
and directionality in simultaneous interpreting. Given that explicitation in this mode
of interpretation is often triggered by the constraints inherent in the process of interpreting,
it has been hypothesized that explicitating shifts might be more frequent in
retour, which is considered to be more demanding. The study is both product- and
process-oriented, relying on recordings and transcripts of interpreting outputs as well
as retrospective protocols. The participants in the study were 36 advanced interpreting
students. The analysed forms of explicitation range from cohesive explicitation (e.g.
adding connectives, reiteration, etc.), through substituting nominalisations with verb
phrases and disambiguating lexical metaphors, to inserting explanatory remarks. The
present paper is aimed to be a pilot study for a larger project in progress
The Social Investment Welfare State in Europe, 1990s and 2000s: Economic Ideas and Social Policies
Since the late 1990s, new ideas and strategies concerning the role and shape of the Welfare State have been formulated. All these analyses and policy developments point towards a similar policy logic based on ‘social investment’. The aim of this paper is to map out the contours of this new perspective, both at the ideational level and in terms of the policies implemented throughout Europe. It also aims at assessing the achievements, as well as the shortcomings, of this strategy. In doing so it provides a critical analysis of the content and coherence of the social investment ideas and policies and opens up for a discussion of whether the social investment perspective can provide adequate responses to challenges such as population ageing, the impact of the economic crisis and environmental issues
Explicitation in simultaneous interpreting : a study into explicitating behaviour of trainee interpreters
"Eksplicytacja w tłumaczeniu symultanicznym.
Analiza zachowań eksplicytacyjnych studentów tłumaczenia ustnego" Do niedawna uważano, że eksplicytacja, jako zjawisko często przybierające formę amplifikacji
tekstowej, występuje niezwykle rzadko w przekładzie symultanicznym, w którym ograniczenia
czasowe nie pozwalają na tego typu operacje tekstowe. Badania między innymi Shlesinger (1995)
dowiodły jednak, że eksplicytacja występuje w tłumaczeniu symultanicznym i choć uwarunkowana
w dużej mierze ograniczeniami medium, nie jest bynajmniej zjawiskiem marginalnym.
Celem niniejszej monografii jest analiza zjawiska eksplicytacji w tłumaczeniu symultanicznym
studentów tłumaczenia ustnego. Trzy aspekty, na których skupia się autorka, to strategiczność
eksplicytacji, wpływ kierunku tłumaczenia na tego typu zmiany oraz zależność pomiędzy indywidualnym
stylem tłumaczenia a zachowaniem eksplicytacyjnym. Badanie ma charakter eksperymentalny.
Badany jest zarówno produkt przekładu (poprzez porównanie tekstów wyjściowych
z docelowymi), jak i sam proces tłumaczenia symultanicznego (poprzez analizę protokołów
retrospektywnych). Korpus pracy stanowią nagrania i transkrypcje 240 tekstów docelowych wykonanych
przez 120 tłumaczy – łącznie około 75 godzin nagrań.
Część pierwsza (rozdziały od pierwszego do trzeciego) stanowi wprowadzenie do części
empirycznej (drugiej). Rozdział pierwszy przedstawia aktualny stan badań nad eksplicytacją
w przekładzie. Eksplicytacja to jedno z najczęściej omawianych zagadnień we współczesnej
translatoryce. Jednak przyglądając się licznym opracowaniom i badaniom empirycznym, trudno
oprzeć się wrażeniu, że już samo jednoznaczne zdefiniowanie tego zjawiska nastręcza niemałych
trudności. Autorka omawia różne propozycje definicji eksplicytacji, zestawiając to pojęcie z pokrewnymi
terminami, takimi jak dodanie, amplifikacja czy nadtłumaczenie, oraz charakteryzując
pojęcia eksplicytności i implicytności leżące u podstaw eksplicytacji. Definicja przyjęta w niniejszej
monografii, oparta w dużej mierze na pracach Murtisari (2013, 2016) i Séguinot (1988), zakłada,
że eksplicytacja to transformacja polegająca na eksplicytnym wyrażeniu w tekście docelowym
tego, co implicytne w tekście wyjściowym, lub na bardziej eksplicytnym wyrażeniu tego, co już
eksplicytne w oryginale. Innymi słowy, eksplicytacja ma miejsce, jeśli treści implikowane czy też
presuponowane w tekście wyjściowym zostały wyrażone wprost w tekście docelowym lub jeśli
element tekstu wyjściowego został uwydatniony w tekście przekładu poprzez zastosowanie emfazy
bądź dobór środków leksykalnych. Innym istotnym czynnikiem definiującym eksplicytację
jest jej niezależność od różnic systemowych. Istnieje co prawda szereg prac, w których zmiany
uwarunkowane różnicami systemowymi są uważane za tak zwaną eksplicytację obligatoryjną,
większość współczesnych badaczy jest jednak zgodna, że za eksplicytację należy uznać jedynie te
zmiany, które są całkowicie niezależne od różnic systemowych, a nawet preferencji stylistycznych
danej pary języków. Zatem dowodem na istnienie eksplicytacji w tekście przekładu jest możliwość
wypracowania jego poprawnej, lecz mniej eksplicytnej wersji. W rozdziale drugim zostały omówione mechanizmy językowe, które służą eksplikowaniu
treści w tekście docelowym. Eksplicytacja może przyjmować formę amplifikacji tekstowej, a co
za tym idzie, pociągać za sobą wprowadzenie do tekstu docelowego dodatkowych elementów
leksykalnych lub syntaktycznych, lub formę konkretyzacji, która wiąże się nie z wprowadzeniem
dodatkowych elementów, a jedynie z uwydatnieniem istniejących poprzez dobór bardziej eksplicytnych
środków leksykalnych lub struktur syntaktycznych. Do pierwszej grupy należą: dodawanie
konektorów, zastępowanie zaimków osobowych powtórzeniami danych jednostek leksykalnych,
reiteracja, uzupełnianie konstrukcji eliptycznych, dodawanie przydawek i określników, dodawanie
wyrażeń asekuracyjnych (hedges), dodawanie wyrażeń porządkujących tekst, dodawanie nazw
własnych do nazw rodzajowych, dookreślanie znaczenia oraz rozwinięcie definicyjne; do drugiej:
zastępowanie nominalizacji konstrukcjami czasownikowymi (demetaforyzacja gramatyczna), demetaforyzacja
leksykalna lub zastępowanie metafor porównaniami, dookreślanie leksykalne, a także
zamiana nazwy rodzajowej na nazwę własną. Niniejsza klasyfikacja eksplicytacji pod względem
jej manifestacji w strukturze powierzchniowej tekstu została zastosowana w analizie przedstawionej
w rozdziałach empirycznych.
Rozdział trzeci przedstawia metodologię wykorzystaną w pracy oraz główne hipotezy i pytania
badawcze. Autorka opisuje także szczegółowo procedury zastosowane w badaniu eksperymentalnym
oraz charakteryzuje samą metodę retrospekcji w szerszym kontekście badań nad
procesem przekładu; podaje również informacje na temat uczestników eksperymentu oraz tekstów
stanowiących korpus badawczy. Znaczna część rozdziału została poświęcona modelowi teoretycznemu,
stanowiącemu podstawę analizy eksplicytacji w tłumaczeniu symultanicznym. Analiza
została przeprowadzona z uwzględnieniem ograniczeń typowych dla tłumaczenia ustnego (The
Interpreting Constraints), użytych po raz pierwszy w badaniach nad spójnością tekstu tłumaczonego
symultanicznie przez Shlesinger (1995). Czynniki ograniczające proces tłumaczenia ustnego
obejmują: ograniczenie czasowe (The Time Constraint), ograniczenie związane z wymogiem
linearności wypowiedzi (The Linearity Constraint), ograniczenie wynikające z braku wspólnego
kontekstu komunikacyjnego (The (Un)shared Knowledge Constraint) oraz ograniczenie ze względu
na pojemność pamięci (The Memory Load Constraint). Model ograniczeń w przekładzie ustnym
(The Interpreting Constraints) zaproponowany przez Shlesinger został rozbudowany w niniejszej
monografii o założenia Teorii Przetwarzania Informacji, a w szczególności Modeli Wysiłkowych
oraz Modelu Grawitacyjnego Gile’a (1995). W poszerzonym modelu ograniczeń w przekładzie
ustnym uwzględniono także koncepcję domen tekstualności Hatima i Masona (1997).
Pierwszy z rozdziałów empirycznych (rozdział czwarty) prezentuje wyniki analizy dotyczącej
strategiczności eksplicytacji w tłumaczeniu symultanicznym. Rezultaty badań świadczą o tym, że
strategiczne zastosowanie tego typu modyfikacji tekstowych jest stosunkowo rzadkie w przekładzie
symultanicznym, a co za tym idzie, niewielki odsetek przypadków eksplicytacji jest efektem świadomej
decyzji tłumacza. Większość tego typu zmian w strukturze powierzchniowej tekstu nie została
zwerbalizowana w protokołach retrospektywnych, a część tłumaczy przyznaje, że niektórych
eksplicytacji dokonali odruchowo, w sposób automatyczny. Analiza protokołów retrospektywnych
pokazuje również powody stosowania strategicznej, w pełni świadomej eksplicytacji. Jedną z motywacji
jest aspekt komunikacyjny, podkreślany w pracach wielu badaczy przekładu. Zgodnie z tym
założeniem, eksplicytacja bywa efektem troski tłumacza o odbiorców, którym chce on jak najlepiej
przybliżyć treść komunikatu. Zastosowanie eksplicytacji wiąże się także ze zmniejszeniem wysiłku
wkładanego w przetwarzanie informacji, przez co łatwiej odczytać komunikat. Wiele komentarzy
retrospektywnych jednoznacznie wskazuje na świadome dążenie tłumacza do podniesienia walorów
komunikacyjnych tekstu docelowego. Jednak przeważającą motywacją są same ograniczenia
przekładu symultanicznego. Wydawać by się mogło, że ograniczenia te nie pozwalają tłumaczowi
na eksplikowanie treści w tekście docelowym. Wyniki badań wskazują jednak, że w wielu przypadkach
zastosowanie bardziej eksplicytnych form jest spowodowane właśnie ograniczeniami. W rozdziale piątym przedstawiono wyniki analizy wpływu kierunkowości na zachowania
eksplicytacyjne tłumaczy. Tłumaczenie na język B jest powszechnie uważane za trudniejsze i wiąże
się z większym wysiłkiem kognitywnym. Z tego też powodu kierunek ten charakteryzuje się większą
częstotliwością eksplicytacji. Tłumacze częściej uzasadniają tego typu zmiany ograniczeniami,
a jako powód podają konieczność kompensacji pominiętych segmentów tekstu, wypełnienia pauz
spowodowanych koniecznością wydłużenia EVS-u, problemy z doborem leksykalnym oraz inne
tym podobne. Interesujące wyniki dało porównanie tekstów docelowych i protokołów retrospektywnych
z ankietą. W wielu przypadkach widać wyraźny brak korelacji pomiędzy realnym
zachowaniem eksplicytacyjnym danej osoby a deklarowanymi przez nią w ankiecie preferencjami.
Dowodzi to, że większość przypadków eksplicytacji w tłumaczeniu symultanicznym nie wynika
ze świadomej decyzji tłumacza.
Ostatni z rozdziałów analitycznych (rozdział szósty) dotyczy zależności pomiędzy indywidualnym
stylem tłumaczenia a użyciem eksplicytacji. Autorka wyodrębnia dziewięć stylów eksplicytacyjnych,
biorąc pod uwagę kryteria częstotliwości występowania oraz konsekwencji użycia
tej transformacji tekstowej. Wiele tłumaczeń tego samego tekstu wyjściowego (każdy z 6 tekstów
został przetłumaczony przez 40 tłumaczy) pozwoliło także na analizę zbieżności zachowań eksplicytacyjnych.
Analiza wykazała bardzo niski poziom zbieżności, co świadczy o tym, że eksplicytacja
jest zachowaniem bardzo indywidualnym, nie tylko zależnym od elementów stałych, takich jak
ogólny styl tłumaczenia i preferowanie co do stosowania określonych strategii ratunkowych, lecz
także uwarunkowanym sposobem przetworzenia poprzednich segmentów tekstu w danej sytuacji
The Variable Determinacy Thesis
This Article proposes a novel technique for characterizing the relative determinacy of legal decision-making. I begin with the observation that the determinacy of legal outcomes varies from context to context within the law. To augment this intuition, I develop a theoretical model of determinate legal decision-making. This model aims to capture the essential features that are typically associated with the concept of legal determinacy. I then argue that we can use such an idealized model as a standard for expressing the relative determinacy or indeterminacy of decision-making in actual, observed legal contexts. From a legal theory standpoint, this approach — separating determinacy and indeterminacy into their constituent conceptual elements — helps us to more rigorously define these theoretical ideas. Ultimately, from a practical standpoint, I assert that this framework assists in understanding why legal outcomes in certain contexts are determinate enough to be amenable to resolution by computers
A survey of data mining techniques for social media analysis
Social network has gained remarkable attention in the last decade. Accessing social network sites such as Twitter, Facebook LinkedIn and Google+ through the internet and the web 2.0 technologies has become more affordable. People are becoming more interested in and relying on social network for information, news and opinion of other users on diverse subject matters. The heavy reliance on social network sites causes them to generate massive data characterised by three computational issues namely; size, noise and dynamism. These issues often make social network data very complex to analyse manually, resulting in the pertinent use of computational means of analysing them. Data mining provides a wide range of techniques for detecting useful knowledge from massive datasets like trends, patterns and rules [44]. Data mining techniques are used for information retrieval, statistical modelling and machine learning. These techniques employ data pre-processing, data analysis, and data interpretation processes in the course of data analysis. This survey discusses different data mining techniques used in mining diverse aspects of the social network over decades going from the historical techniques to the up-to-date models, including our novel technique named TRCM. All the techniques covered in this survey are listed in the Table.1 including the tools employed as well as names of their authors
Access-rights Analysis in the Presence of Subjects
Modern software development and run-time environments, such as Java and the Microsoft .NET Common Language Runtime (CLR), have adopted a declarative form of access control. Permissions are granted to code providers, and during execution, the platform verifies compatibility between the permissions required by a security-sensitive operation and those granted to the executing code. While convenient, configuring the access-control policy of a program is not easy. If a code component is not granted sufficient permissions, authorization failures may occur. Thus, security administrators tend to define overly permissive policies, which violate the Principle of Least Privilege (PLP).
A considerable body of research has been devoted to building program-analysis tools for computing the optimal policy for a program. However, Java and the CLR also allow executing code under the authority of a subject (user or service), and no program-analysis solution has addressed the challenges of determining the policy of a program in the presence of subjects.
This paper introduces Subject Access Rights Analysis (SARA), a novel analysis algorithm for statically computing the permissions required by subjects at run time. We have applied SARA to 348 libraries in IBM WebSphere Application Server - a commercial enterprise application server written in Java that consists of >2 million lines of code and is required to support the Java permission- and subject-based security model. SARA detected 263 PLP violations, 219 cases of policies with missing permissions, and 29 bugs that led code to be unnecessarily executed under the authority of a subject. SARA corrected all these vulnerabilities automatically, and additionally synthesized fresh policies for all the libraries, with a false-positive rate of 5% and an average running time of 103 seconds per library. SARA also implements mechanisms for mitigating the risk of false negatives due to reflection and native code; according to a thorough result evaluation based on testing, no false negative was detected. SARA enabled IBM WebSphere Application Server to receive the Common Criteria for Information Technology Security Evaluation Assurance Level 4 certification
Privacy Policy-Based Framework for Privacy Disambiguation in Distributed Systems
With an increase in the pervasiveness of distributed systems, now and into the future, there will be an increasing concern for the privacy of users in a world where almost everyone will be connected to the internet through numerous devices. Current ways of considering privacy in distributed system development are based on the idea of protecting personally-identifiable information such as name and national insurance number, however, with the abundance of distributed systems it is becoming easier to identify people through information that is not personally-identifiable, thus increasing privacy concerns. As a result ideas about privacy have changed and should be reconsidered towards the development of distributed systems. This requires a new way to conceptualise privacy. In spite of active effort on handling the privacy and security worries throughout the initial periods of plan of distributed systems, there has not been much work on creating a reliable and meaningful contribution towards stipulating and scheming a privacy policy framework. Beside developing and fully understanding how the earliest stage of this work is been carried out, the procedure for privacy policy development risks marginalising stakeholders, and therefore defeating the object of what such policies are designed to do. The study proposes a new Privacy Policy Framework (PPF) which is based on a combination of a new method for disambiguating the meaning of privacy from users, owners and developers of distributed systems with distributed system architecture and technical considerations. Towards development of the PPF semi-structured interviews and questionnaires were conducted to determine the current situation regards privacy policy and technical considerations, these methods were also employed to demonstrate the application and evaluation of the PPF itself. The study contributes a new understanding and approach to the consideration of privacy in distributed systems and a practical approach to achieving user privacy and privacy disambiguation through the development of a privacy button concept
Applying Wikipedia to Interactive Information Retrieval
There are many opportunities to improve the interactivity of information retrieval systems beyond the ubiquitous search box. One idea is to use knowledge bases—e.g. controlled vocabularies, classification schemes, thesauri and ontologies—to organize, describe and navigate the information space. These resources are popular in libraries and specialist collections, but have proven too expensive and narrow to be applied to everyday webscale search. Wikipedia has the potential to bring structured knowledge into more widespread use. This online, collaboratively generated encyclopaedia is one of the largest and most consulted reference works in existence. It is broader, deeper and more agile than the knowledge bases put forward to assist retrieval in the past. Rendering this resource machine-readable is a challenging task that has captured the interest of many researchers. Many see it as a key step required to break the knowledge acquisition bottleneck that crippled previous efforts. This thesis claims that the roadblock can be sidestepped: Wikipedia can be applied effectively to open-domain information retrieval with minimal natural language processing or information extraction. The key is to focus on gathering and applying human-readable rather than machine-readable knowledge. To demonstrate this claim, the thesis tackles three separate problems: extracting knowledge from Wikipedia; connecting it to textual documents; and applying it to the retrieval process. First, we demonstrate that a large thesaurus-like structure can be obtained directly from Wikipedia, and that accurate measures of semantic relatedness can be efficiently mined from it. Second, we show that Wikipedia provides the necessary features and training data for existing data mining techniques to accurately detect and disambiguate topics when they are mentioned in plain text. Third, we provide two systems and user studies that demonstrate the utility of the Wikipedia-derived knowledge base for interactive information retrieval
Web Services Privacy Measurement Based on Privacy Policy and Sensitivity Level of Personal Information
Web services technology has been in the mainstream of today’s software development. Software designers can select Web services with certain functionality and use or compose them in their applications with ease and flexibility. To distinguish between different services with similar functionality, the designers consider quality of service. Privacy is one aspect of quality that is largely addressed since services may require service users to reveal personal information. A service should respect the privacy of the users by requiring only the information that is necessary for its processing as well as handling personal information in a correct manner. This paper presents a privacy measurement model for service users to determine privacy quality of a Web service. The model combines two aspects of privacy. That is, it considers the degree of privacy principles compliance of the service as well as the sensitivity level of user information which the service requires. The service which complies with the privacy principles and requires less sensitive information would be of high quality with regard to privacy. In addition, the service WSDL can be augmented with semantic annotation using SAWSDL. The annotation specifies the semantics of the user information required by the service, and this can help automate privacy measurement. We also present a measurement tool and an example of its application
- …