163 research outputs found

    Modelling the analysis of translation memory use and post-editing of raw machine translation output: A pilot study of trainee translators' perceptions of difficulty and time effectiveness

    Get PDF
    This paper describes a pilot study undertaken to propose a model for the analysis of the respective impact of translation memory (TM) use and full post-editing (PE) of raw machine translation (MT) output on the level of difficulty perceived and on the time needed by trainee translators. Six Italian MA-level translation students were asked to produce high-quality target texts when translating semi-specialised material from English into their native Italian. For this experiment, we proposed a model of data triangulation in which we measured the time taken to complete the tasks and we collected data on their translation with TM software and PE processes by means of think-aloud protocols (TAPs) and retrospective interviews. We studied the extent to which the number of translation solutions regarded as correct influenced, on the one hand, the perception of difficulty associated with the translation strategies employed and, on the other, the duration of the translation and PE tasks. Using a TM led to a reduction of the difficulty perceived and of the time employed by the participants as a result of the increased correct translation solutions provided. In contrast, a reduction was not observed when participants post-edited raw MT output. Further factors were assumed to influence the translation and PE processes of the students, especially their attitudes towards the translation technologies being use

    Units of Production in Writing: Towards a Discourse Perspective

    Get PDF
    La identificación de unidades en la producción del lenguaje tiene una larga historia en los trabajos de investigación tanto de lingüística aplicada como de sico-lingüística, en particular en aquellos casos en los que existe interés en la descripción y medida de la productividad y la fluidez. Sin embargo, tales aplicaciones en contextos tanto de la L1 como de la L2 han tendido a centrarse en la producción de la lengua hablada, y en el uso de criterios sintácticos, semánticos o fonológicos, principalmente, como base para la identificación de unidades. El objeto de este artículo es ampliar y desarrollar la noción de unidades de producción al caso de la lengua escrita, así como explorar la posibilidad de una unidad orientada hacia el discurso en el análisis de la productividad y fluidez por escrito. Basándonos en los datos de un estudio sobre los procesos de redacción en línea en la L1 y la L2 que utiliza el registro del número de pulsaciones en un procesador de texto para elicitar registros temporales de la producción de grano fino, presentamos los resultados relativos a la productividad y tasa de producción de dos tareas de redacción académicas, y discutimos la importancia potencial de una unidad de discurso a la que aludiremos como ‘marcador discursivo’ [‘framing device’] en el proceso de producción del texto escrito.The identification of units in the production of language has a long history in both applied linguistic and psycholinguistic research, in particular where there is a concern for the description and measurement of productivity and fluency. Such applications in both L1 and L2 contexts have tended to focus on spoken language production, however, and to use principally syntactic, semantic or phonological criteria as the basis for the identification of units. The purpose of this paper is to extend and develop the notion of units of production to the case of written language, and to explore the possibility of a discourse-oriented unit of analysis of productivity and fluency in writing. Drawing on a study of L1 and L2 on-line writing processes which uses the recording of keystroke presses on a word processor to elicit fine-grained temporal records of production, we present a framework for the description and analysis of on-line written text production, focussing on the ‘framing device’ as a potentially useful unit in the analysis of text production

    Biometric Systems

    Get PDF
    Biometric authentication has been widely used for access control and security systems over the past few years. The purpose of this book is to provide the readers with life cycle of different biometric authentication systems from their design and development to qualification and final application. The major systems discussed in this book include fingerprint identification, face recognition, iris segmentation and classification, signature verification and other miscellaneous systems which describe management policies of biometrics, reliability measures, pressure based typing and signature verification, bio-chemical systems and behavioral characteristics. In summary, this book provides the students and the researchers with different approaches to develop biometric authentication systems and at the same time includes state-of-the-art approaches in their design and development. The approaches have been thoroughly tested on standard databases and in real world applications

    Protecting the infrastructure: 3rd Australian information warfare & security conference 2002

    Get PDF
    The conference is hosted by the We-B Centre (working with a-business) in the School of Management Information System, the School of Computer & Information Sciences at Edith Cowan University. This year\u27s conference is being held at the Sheraton Perth Hotel in Adelaide Terrace, Perth. Papers for this conference have been written by a wide range of academics and industry specialists. We have attracted participation from both national and international authors and organisations. The papers cover many topics, all within the field of information warfare and its applications, now and into the future. The papers have been grouped into six streams: • Networks • IWAR Strategy • Security • Risk Management • Social/Education • Infrastructur

    The development of understanding through writing

    Get PDF
    In dit proefschrift staat de vraag centraal op welke wijze schrijven bijdraagt aan leereffecten. Om meer inzicht te krijgen in deze kwestie worden de twee belangrijkste stromingen binnen het cognitieve procesonderzoek naar schrijven geëvalueerd (Flower & Hayes, 1980; Bereiter & Scardamalia, 1987; Galbraith, 2009). Om de claims over leereffecten door schrijven van de concurrerende modellen uit deze benaderingen te kunnen vergelijken, zijn binnen dit onderzoek naar de ontwikkeling van begrip door schrijven steeds zowel de achterliggende cognitieve processen als de subjectieve beoordelingen van studenten over hun begrip als uitgangspunt genomen voor analyses. Om de schrijfprocessen te kunnen onderzoeken, is gebruik gemaakt van toetsaanslagregistratiedata met behulp van Inputlog (Leijten & Van Waes, 2006). Om het begrip vast te stellen, is gebruik gemaakt van een subjectieve beoordeling door de schrijvers zelf. Hieronder zal eerst het theoretische kader van dit onderzoek uiteengezet worden. Daarna wordt kort ingegaan op de vier verschillende empirische studies die centraal staan in dit proefschrift. Ten slotte zal er een samenvatting worden gegeven van de belangrijkste bevindingen van het onderzoek. Het probleemoplossingsparadigma Binnen de cognitieve psychologie is ‘probleemoplossen’ een centraal begrip. Men gaat ervan uit dat individuen bij het oplossen van problemen op een strategische wijze gebruikmaken van de informatie die zij tot hun beschikking hebben (Bochardt, 1984). Flower en Hayes (1980) hebben dit robleemoplossingsparadigma toegepast op het schrijven van teksten en hebben schrijven hierbij getypeerd als een cognitief probleem dat de schrijver op de een of andere manier moet oplossen. Door dit en aanverwant onderzoek is de visie op het schrijfgedrag vanaf de jaren ’80 veranderd. Schrijven wordt niet langer gezien als een lineaire omzetting van gedachten in geschreven taal, maar als een recursief proces waarin verschillende factoren een rol spelen en waarin planning, formuleren en revisie elkaar afwisselen (Flower & Hayes, 1980). Tijdens een schrijftaak moet een schrijver verschillende schrijfprocessen organiseren. Zo moet een schrijver tijdens het schrijven nadenken over problemen die hij tegenkomt en moet hij nadenken over mogelijke oplossingen voor die problemen. Ook moet een schrijver tijdens het schrijven nadenken over ideeën, over de opbouw van de tekst en over de wijze van formuleren. Verder moet de schrijver rekening houden met de opdracht en met het publiek waarvoor de tekst geschreven wordt. Als laatste moet de schrijver schrijfdoelen bepalen en plannen ontwikkelen om die schrijfdoelen te bereiken. Dit alles maakt schrijven een complex proces (Bochardt, 1984)

    Empirical modelling of translation and interpreting

    Get PDF
    "Empirical research is carried out in a cyclic way: approaching a research area bottom-up, data lead to interpretations and ideally to the abstraction of laws, on the basis of which a theory can be derived. Deductive research is based on a theory, on the basis of which hypotheses can be formulated and tested against the background of empirical data. Looking at the state-of-the-art in translation studies, either theories as well as models are designed or empirical data are collected and interpreted. However, the final step is still lacking: so far, empirical data has not lead to the formulation of theories or models, whereas existing theories and models have not yet been comprehensively tested with empirical methods. This publication addresses these issues from several perspectives: multi-method product- as well as process-based research may gain insights into translation as well as interpreting phenomena. These phenomena may include cognitive and organizational processes, procedures and strategies, competence and performance, translation properties and universals, etc. Empirical findings about the deeper structures of translation and interpreting will reduce the gap between translation and interpreting practice and model and theory building. Furthermore, the availability of more large-scale empirical testing triggers the development of models and theories concerning translation and interpreting phenomena and behavior based on quantifiable, replicable and transparent data.
    corecore