662 research outputs found

    Explicitation and directionality in simultaneous interpreting

    Get PDF
    The aim of the present study is to investigate the relationship between explicitation and directionality in simultaneous interpreting. Given that explicitation in this mode of interpretation is often triggered by the constraints inherent in the process of interpreting, it has been hypothesized that explicitating shifts might be more frequent in retour, which is considered to be more demanding. The study is both product- and process-oriented, relying on recordings and transcripts of interpreting outputs as well as retrospective protocols. The participants in the study were 36 advanced interpreting students. The analysed forms of explicitation range from cohesive explicitation (e.g. adding connectives, reiteration, etc.), through substituting nominalisations with verb phrases and disambiguating lexical metaphors, to inserting explanatory remarks. The present paper is aimed to be a pilot study for a larger project in progress

    The Social Investment Welfare State in Europe, 1990s and 2000s: Economic Ideas and Social Policies

    Get PDF
    Since the late 1990s, new ideas and strategies concerning the role and shape of the Welfare State have been formulated. All these analyses and policy developments point towards a similar policy logic based on ‘social investment’. The aim of this paper is to map out the contours of this new perspective, both at the ideational level and in terms of the policies implemented throughout Europe. It also aims at assessing the achievements, as well as the shortcomings, of this strategy. In doing so it provides a critical analysis of the content and coherence of the social investment ideas and policies and opens up for a discussion of whether the social investment perspective can provide adequate responses to challenges such as population ageing, the impact of the economic crisis and environmental issues

    Explicitation in simultaneous interpreting : a study into explicitating behaviour of trainee interpreters

    Get PDF
    "Eksplicytacja w tłumaczeniu symultanicznym. Analiza zachowań eksplicytacyjnych studentów tłumaczenia ustnego" Do niedawna uważano, że eksplicytacja, jako zjawisko często przybierające formę amplifikacji tekstowej, występuje niezwykle rzadko w przekładzie symultanicznym, w którym ograniczenia czasowe nie pozwalają na tego typu operacje tekstowe. Badania między innymi Shlesinger (1995) dowiodły jednak, że eksplicytacja występuje w tłumaczeniu symultanicznym i choć uwarunkowana w dużej mierze ograniczeniami medium, nie jest bynajmniej zjawiskiem marginalnym. Celem niniejszej monografii jest analiza zjawiska eksplicytacji w tłumaczeniu symultanicznym studentów tłumaczenia ustnego. Trzy aspekty, na których skupia się autorka, to strategiczność eksplicytacji, wpływ kierunku tłumaczenia na tego typu zmiany oraz zależność pomiędzy indywidualnym stylem tłumaczenia a zachowaniem eksplicytacyjnym. Badanie ma charakter eksperymentalny. Badany jest zarówno produkt przekładu (poprzez porównanie tekstów wyjściowych z docelowymi), jak i sam proces tłumaczenia symultanicznego (poprzez analizę protokołów retrospektywnych). Korpus pracy stanowią nagrania i transkrypcje 240 tekstów docelowych wykonanych przez 120 tłumaczy – łącznie około 75 godzin nagrań. Część pierwsza (rozdziały od pierwszego do trzeciego) stanowi wprowadzenie do części empirycznej (drugiej). Rozdział pierwszy przedstawia aktualny stan badań nad eksplicytacją w przekładzie. Eksplicytacja to jedno z najczęściej omawianych zagadnień we współczesnej translatoryce. Jednak przyglądając się licznym opracowaniom i badaniom empirycznym, trudno oprzeć się wrażeniu, że już samo jednoznaczne zdefiniowanie tego zjawiska nastręcza niemałych trudności. Autorka omawia różne propozycje definicji eksplicytacji, zestawiając to pojęcie z pokrewnymi terminami, takimi jak dodanie, amplifikacja czy nadtłumaczenie, oraz charakteryzując pojęcia eksplicytności i implicytności leżące u podstaw eksplicytacji. Definicja przyjęta w niniejszej monografii, oparta w dużej mierze na pracach Murtisari (2013, 2016) i Séguinot (1988), zakłada, że eksplicytacja to transformacja polegająca na eksplicytnym wyrażeniu w tekście docelowym tego, co implicytne w tekście wyjściowym, lub na bardziej eksplicytnym wyrażeniu tego, co już eksplicytne w oryginale. Innymi słowy, eksplicytacja ma miejsce, jeśli treści implikowane czy też presuponowane w tekście wyjściowym zostały wyrażone wprost w tekście docelowym lub jeśli element tekstu wyjściowego został uwydatniony w tekście przekładu poprzez zastosowanie emfazy bądź dobór środków leksykalnych. Innym istotnym czynnikiem definiującym eksplicytację jest jej niezależność od różnic systemowych. Istnieje co prawda szereg prac, w których zmiany uwarunkowane różnicami systemowymi są uważane za tak zwaną eksplicytację obligatoryjną, większość współczesnych badaczy jest jednak zgodna, że za eksplicytację należy uznać jedynie te zmiany, które są całkowicie niezależne od różnic systemowych, a nawet preferencji stylistycznych danej pary języków. Zatem dowodem na istnienie eksplicytacji w tekście przekładu jest możliwość wypracowania jego poprawnej, lecz mniej eksplicytnej wersji. W rozdziale drugim zostały omówione mechanizmy językowe, które służą eksplikowaniu treści w tekście docelowym. Eksplicytacja może przyjmować formę amplifikacji tekstowej, a co za tym idzie, pociągać za sobą wprowadzenie do tekstu docelowego dodatkowych elementów leksykalnych lub syntaktycznych, lub formę konkretyzacji, która wiąże się nie z wprowadzeniem dodatkowych elementów, a jedynie z uwydatnieniem istniejących poprzez dobór bardziej eksplicytnych środków leksykalnych lub struktur syntaktycznych. Do pierwszej grupy należą: dodawanie konektorów, zastępowanie zaimków osobowych powtórzeniami danych jednostek leksykalnych, reiteracja, uzupełnianie konstrukcji eliptycznych, dodawanie przydawek i określników, dodawanie wyrażeń asekuracyjnych (hedges), dodawanie wyrażeń porządkujących tekst, dodawanie nazw własnych do nazw rodzajowych, dookreślanie znaczenia oraz rozwinięcie definicyjne; do drugiej: zastępowanie nominalizacji konstrukcjami czasownikowymi (demetaforyzacja gramatyczna), demetaforyzacja leksykalna lub zastępowanie metafor porównaniami, dookreślanie leksykalne, a także zamiana nazwy rodzajowej na nazwę własną. Niniejsza klasyfikacja eksplicytacji pod względem jej manifestacji w strukturze powierzchniowej tekstu została zastosowana w analizie przedstawionej w rozdziałach empirycznych. Rozdział trzeci przedstawia metodologię wykorzystaną w pracy oraz główne hipotezy i pytania badawcze. Autorka opisuje także szczegółowo procedury zastosowane w badaniu eksperymentalnym oraz charakteryzuje samą metodę retrospekcji w szerszym kontekście badań nad procesem przekładu; podaje również informacje na temat uczestników eksperymentu oraz tekstów stanowiących korpus badawczy. Znaczna część rozdziału została poświęcona modelowi teoretycznemu, stanowiącemu podstawę analizy eksplicytacji w tłumaczeniu symultanicznym. Analiza została przeprowadzona z uwzględnieniem ograniczeń typowych dla tłumaczenia ustnego (The Interpreting Constraints), użytych po raz pierwszy w badaniach nad spójnością tekstu tłumaczonego symultanicznie przez Shlesinger (1995). Czynniki ograniczające proces tłumaczenia ustnego obejmują: ograniczenie czasowe (The Time Constraint), ograniczenie związane z wymogiem linearności wypowiedzi (The Linearity Constraint), ograniczenie wynikające z braku wspólnego kontekstu komunikacyjnego (The (Un)shared Knowledge Constraint) oraz ograniczenie ze względu na pojemność pamięci (The Memory Load Constraint). Model ograniczeń w przekładzie ustnym (The Interpreting Constraints) zaproponowany przez Shlesinger został rozbudowany w niniejszej monografii o założenia Teorii Przetwarzania Informacji, a w szczególności Modeli Wysiłkowych oraz Modelu Grawitacyjnego Gile’a (1995). W poszerzonym modelu ograniczeń w przekładzie ustnym uwzględniono także koncepcję domen tekstualności Hatima i Masona (1997). Pierwszy z rozdziałów empirycznych (rozdział czwarty) prezentuje wyniki analizy dotyczącej strategiczności eksplicytacji w tłumaczeniu symultanicznym. Rezultaty badań świadczą o tym, że strategiczne zastosowanie tego typu modyfikacji tekstowych jest stosunkowo rzadkie w przekładzie symultanicznym, a co za tym idzie, niewielki odsetek przypadków eksplicytacji jest efektem świadomej decyzji tłumacza. Większość tego typu zmian w strukturze powierzchniowej tekstu nie została zwerbalizowana w protokołach retrospektywnych, a część tłumaczy przyznaje, że niektórych eksplicytacji dokonali odruchowo, w sposób automatyczny. Analiza protokołów retrospektywnych pokazuje również powody stosowania strategicznej, w pełni świadomej eksplicytacji. Jedną z motywacji jest aspekt komunikacyjny, podkreślany w pracach wielu badaczy przekładu. Zgodnie z tym założeniem, eksplicytacja bywa efektem troski tłumacza o odbiorców, którym chce on jak najlepiej przybliżyć treść komunikatu. Zastosowanie eksplicytacji wiąże się także ze zmniejszeniem wysiłku wkładanego w przetwarzanie informacji, przez co łatwiej odczytać komunikat. Wiele komentarzy retrospektywnych jednoznacznie wskazuje na świadome dążenie tłumacza do podniesienia walorów komunikacyjnych tekstu docelowego. Jednak przeważającą motywacją są same ograniczenia przekładu symultanicznego. Wydawać by się mogło, że ograniczenia te nie pozwalają tłumaczowi na eksplikowanie treści w tekście docelowym. Wyniki badań wskazują jednak, że w wielu przypadkach zastosowanie bardziej eksplicytnych form jest spowodowane właśnie ograniczeniami. W rozdziale piątym przedstawiono wyniki analizy wpływu kierunkowości na zachowania eksplicytacyjne tłumaczy. Tłumaczenie na język B jest powszechnie uważane za trudniejsze i wiąże się z większym wysiłkiem kognitywnym. Z tego też powodu kierunek ten charakteryzuje się większą częstotliwością eksplicytacji. Tłumacze częściej uzasadniają tego typu zmiany ograniczeniami, a jako powód podają konieczność kompensacji pominiętych segmentów tekstu, wypełnienia pauz spowodowanych koniecznością wydłużenia EVS-u, problemy z doborem leksykalnym oraz inne tym podobne. Interesujące wyniki dało porównanie tekstów docelowych i protokołów retrospektywnych z ankietą. W wielu przypadkach widać wyraźny brak korelacji pomiędzy realnym zachowaniem eksplicytacyjnym danej osoby a deklarowanymi przez nią w ankiecie preferencjami. Dowodzi to, że większość przypadków eksplicytacji w tłumaczeniu symultanicznym nie wynika ze świadomej decyzji tłumacza. Ostatni z rozdziałów analitycznych (rozdział szósty) dotyczy zależności pomiędzy indywidualnym stylem tłumaczenia a użyciem eksplicytacji. Autorka wyodrębnia dziewięć stylów eksplicytacyjnych, biorąc pod uwagę kryteria częstotliwości występowania oraz konsekwencji użycia tej transformacji tekstowej. Wiele tłumaczeń tego samego tekstu wyjściowego (każdy z 6 tekstów został przetłumaczony przez 40 tłumaczy) pozwoliło także na analizę zbieżności zachowań eksplicytacyjnych. Analiza wykazała bardzo niski poziom zbieżności, co świadczy o tym, że eksplicytacja jest zachowaniem bardzo indywidualnym, nie tylko zależnym od elementów stałych, takich jak ogólny styl tłumaczenia i preferowanie co do stosowania określonych strategii ratunkowych, lecz także uwarunkowanym sposobem przetworzenia poprzednich segmentów tekstu w danej sytuacji

    The Variable Determinacy Thesis

    Get PDF
    This Article proposes a novel technique for characterizing the relative determinacy of legal decision-making. I begin with the observation that the determinacy of legal outcomes varies from context to context within the law. To augment this intuition, I develop a theoretical model of determinate legal decision-making. This model aims to capture the essential features that are typically associated with the concept of legal determinacy. I then argue that we can use such an idealized model as a standard for expressing the relative determinacy or indeterminacy of decision-making in actual, observed legal contexts. From a legal theory standpoint, this approach — separating determinacy and indeterminacy into their constituent conceptual elements — helps us to more rigorously define these theoretical ideas. Ultimately, from a practical standpoint, I assert that this framework assists in understanding why legal outcomes in certain contexts are determinate enough to be amenable to resolution by computers

    A survey of data mining techniques for social media analysis

    Get PDF
    Social network has gained remarkable attention in the last decade. Accessing social network sites such as Twitter, Facebook LinkedIn and Google+ through the internet and the web 2.0 technologies has become more affordable. People are becoming more interested in and relying on social network for information, news and opinion of other users on diverse subject matters. The heavy reliance on social network sites causes them to generate massive data characterised by three computational issues namely; size, noise and dynamism. These issues often make social network data very complex to analyse manually, resulting in the pertinent use of computational means of analysing them. Data mining provides a wide range of techniques for detecting useful knowledge from massive datasets like trends, patterns and rules [44]. Data mining techniques are used for information retrieval, statistical modelling and machine learning. These techniques employ data pre-processing, data analysis, and data interpretation processes in the course of data analysis. This survey discusses different data mining techniques used in mining diverse aspects of the social network over decades going from the historical techniques to the up-to-date models, including our novel technique named TRCM. All the techniques covered in this survey are listed in the Table.1 including the tools employed as well as names of their authors

    Access-rights Analysis in the Presence of Subjects

    Get PDF
    Modern software development and run-time environments, such as Java and the Microsoft .NET Common Language Runtime (CLR), have adopted a declarative form of access control. Permissions are granted to code providers, and during execution, the platform verifies compatibility between the permissions required by a security-sensitive operation and those granted to the executing code. While convenient, configuring the access-control policy of a program is not easy. If a code component is not granted sufficient permissions, authorization failures may occur. Thus, security administrators tend to define overly permissive policies, which violate the Principle of Least Privilege (PLP). A considerable body of research has been devoted to building program-analysis tools for computing the optimal policy for a program. However, Java and the CLR also allow executing code under the authority of a subject (user or service), and no program-analysis solution has addressed the challenges of determining the policy of a program in the presence of subjects. This paper introduces Subject Access Rights Analysis (SARA), a novel analysis algorithm for statically computing the permissions required by subjects at run time. We have applied SARA to 348 libraries in IBM WebSphere Application Server - a commercial enterprise application server written in Java that consists of >2 million lines of code and is required to support the Java permission- and subject-based security model. SARA detected 263 PLP violations, 219 cases of policies with missing permissions, and 29 bugs that led code to be unnecessarily executed under the authority of a subject. SARA corrected all these vulnerabilities automatically, and additionally synthesized fresh policies for all the libraries, with a false-positive rate of 5% and an average running time of 103 seconds per library. SARA also implements mechanisms for mitigating the risk of false negatives due to reflection and native code; according to a thorough result evaluation based on testing, no false negative was detected. SARA enabled IBM WebSphere Application Server to receive the Common Criteria for Information Technology Security Evaluation Assurance Level 4 certification

    Privacy Policy-Based Framework for Privacy Disambiguation in Distributed Systems

    Get PDF
    With an increase in the pervasiveness of distributed systems, now and into the future, there will be an increasing concern for the privacy of users in a world where almost everyone will be connected to the internet through numerous devices. Current ways of considering privacy in distributed system development are based on the idea of protecting personally-identifiable information such as name and national insurance number, however, with the abundance of distributed systems it is becoming easier to identify people through information that is not personally-identifiable, thus increasing privacy concerns. As a result ideas about privacy have changed and should be reconsidered towards the development of distributed systems. This requires a new way to conceptualise privacy. In spite of active effort on handling the privacy and security worries throughout the initial periods of plan of distributed systems, there has not been much work on creating a reliable and meaningful contribution towards stipulating and scheming a privacy policy framework. Beside developing and fully understanding how the earliest stage of this work is been carried out, the procedure for privacy policy development risks marginalising stakeholders, and therefore defeating the object of what such policies are designed to do. The study proposes a new Privacy Policy Framework (PPF) which is based on a combination of a new method for disambiguating the meaning of privacy from users, owners and developers of distributed systems with distributed system architecture and technical considerations. Towards development of the PPF semi-structured interviews and questionnaires were conducted to determine the current situation regards privacy policy and technical considerations, these methods were also employed to demonstrate the application and evaluation of the PPF itself. The study contributes a new understanding and approach to the consideration of privacy in distributed systems and a practical approach to achieving user privacy and privacy disambiguation through the development of a privacy button concept

    Applying Wikipedia to Interactive Information Retrieval

    Get PDF
    There are many opportunities to improve the interactivity of information retrieval systems beyond the ubiquitous search box. One idea is to use knowledge bases—e.g. controlled vocabularies, classification schemes, thesauri and ontologies—to organize, describe and navigate the information space. These resources are popular in libraries and specialist collections, but have proven too expensive and narrow to be applied to everyday webscale search. Wikipedia has the potential to bring structured knowledge into more widespread use. This online, collaboratively generated encyclopaedia is one of the largest and most consulted reference works in existence. It is broader, deeper and more agile than the knowledge bases put forward to assist retrieval in the past. Rendering this resource machine-readable is a challenging task that has captured the interest of many researchers. Many see it as a key step required to break the knowledge acquisition bottleneck that crippled previous efforts. This thesis claims that the roadblock can be sidestepped: Wikipedia can be applied effectively to open-domain information retrieval with minimal natural language processing or information extraction. The key is to focus on gathering and applying human-readable rather than machine-readable knowledge. To demonstrate this claim, the thesis tackles three separate problems: extracting knowledge from Wikipedia; connecting it to textual documents; and applying it to the retrieval process. First, we demonstrate that a large thesaurus-like structure can be obtained directly from Wikipedia, and that accurate measures of semantic relatedness can be efficiently mined from it. Second, we show that Wikipedia provides the necessary features and training data for existing data mining techniques to accurately detect and disambiguate topics when they are mentioned in plain text. Third, we provide two systems and user studies that demonstrate the utility of the Wikipedia-derived knowledge base for interactive information retrieval

    Web Services Privacy Measurement Based on Privacy Policy and Sensitivity Level of Personal Information

    Get PDF
    Web services technology has been in the mainstream of today’s software development. Software designers can select Web services with certain functionality and use or compose them in their applications with ease and flexibility. To distinguish between different services with similar functionality, the designers consider quality of service. Privacy is one aspect of quality that is largely addressed since services may require service users to reveal personal information. A service should respect the privacy of the users by requiring only the information that is necessary for its processing as well as handling personal information in a correct manner. This paper presents a privacy measurement model for service users to determine privacy quality of a Web service. The model combines two aspects of privacy. That is, it considers the degree of privacy principles compliance of the service as well as the sensitivity level of user information which the service requires. The service which complies with the privacy principles and requires less sensitive information would be of high quality with regard to privacy. In addition, the service WSDL can be augmented with semantic annotation using SAWSDL. The annotation specifies the semantics of the user information required by the service, and this can help automate privacy measurement. We also present a measurement tool and an example of its application
    corecore