163 research outputs found
Modelling the analysis of translation memory use and post-editing of raw machine translation output: A pilot study of trainee translators' perceptions of difficulty and time effectiveness
This paper describes a pilot study undertaken to propose a model for the analysis of the respective impact of translation memory (TM) use and full post-editing (PE) of raw machine translation (MT) output on the level of difficulty perceived and on the time needed by trainee translators. Six Italian MA-level translation students were asked to produce high-quality target texts when translating semi-specialised material from English into their native Italian. For this experiment, we proposed a model of data triangulation in which we measured the time taken to complete the tasks and we collected data on their translation with TM software and PE processes by means of think-aloud protocols (TAPs) and retrospective interviews.
We studied the extent to which the number of translation solutions regarded as correct influenced, on the one hand, the perception of difficulty associated with the translation strategies employed and, on the other, the duration of the translation and PE tasks. Using a TM led to a reduction of the difficulty perceived and of the time employed by the participants as a result of the increased correct translation solutions provided. In contrast, a reduction was not observed when participants post-edited raw MT output. Further factors were assumed to influence the translation and PE processes of the students, especially their attitudes towards the translation technologies being use
Units of Production in Writing: Towards a Discourse Perspective
La identificación de unidades en la producción del lenguaje tiene una larga historia en los
trabajos de investigación tanto de lingüística aplicada como de sico-lingüística, en particular
en aquellos casos en los que existe interés en la descripción y medida de la productividad
y la fluidez. Sin embargo, tales aplicaciones en contextos tanto de la L1 como de la L2 han
tendido a centrarse en la producción de la lengua hablada, y en el uso de criterios sintácticos,
semánticos o fonológicos, principalmente, como base para la identificación de unidades. El
objeto de este artículo es ampliar y desarrollar la noción de unidades de producción al caso
de la lengua escrita, así como explorar la posibilidad de una unidad orientada hacia el
discurso en el análisis de la productividad y fluidez por escrito. Basándonos en los datos de
un estudio sobre los procesos de redacción en línea en la L1 y la L2 que utiliza el registro del
número de pulsaciones en un procesador de texto para elicitar registros temporales de la
producción de grano fino, presentamos los resultados relativos a la productividad y tasa de
producción de dos tareas de redacción académicas, y discutimos la importancia potencial
de una unidad de discurso a la que aludiremos como ‘marcador discursivo’ [‘framing device’]
en el proceso de producción del texto escrito.The identification of units in the production of language has a long history in both applied
linguistic and psycholinguistic research, in particular where there is a concern for the description
and measurement of productivity and fluency. Such applications in both L1 and
L2 contexts have tended to focus on spoken language production, however, and to use
principally syntactic, semantic or phonological criteria as the basis for the identification of
units. The purpose of this paper is to extend and develop the notion of units of production
to the case of written language, and to explore the possibility of a discourse-oriented unit of
analysis of productivity and fluency in writing. Drawing on a study of L1 and L2 on-line
writing processes which uses the recording of keystroke presses on a word processor to elicit
fine-grained temporal records of production, we present a framework for the description
and analysis of on-line written text production, focussing on the ‘framing device’ as a potentially
useful unit in the analysis of text production
Biometric Systems
Biometric authentication has been widely used for access control and security systems over the past few years. The purpose of this book is to provide the readers with life cycle of different biometric authentication systems from their design and development to qualification and final application. The major systems discussed in this book include fingerprint identification, face recognition, iris segmentation and classification, signature verification and other miscellaneous systems which describe management policies of biometrics, reliability measures, pressure based typing and signature verification, bio-chemical systems and behavioral characteristics. In summary, this book provides the students and the researchers with different approaches to develop biometric authentication systems and at the same time includes state-of-the-art approaches in their design and development. The approaches have been thoroughly tested on standard databases and in real world applications
Protecting the infrastructure: 3rd Australian information warfare & security conference 2002
The conference is hosted by the We-B Centre (working with a-business) in the School of Management Information System, the School of Computer & Information Sciences at Edith Cowan University. This year\u27s conference is being held at the Sheraton Perth Hotel in Adelaide Terrace, Perth. Papers for this conference have been written by a wide range of academics and industry specialists. We have attracted participation from both national and international authors and organisations.
The papers cover many topics, all within the field of information warfare and its applications, now and into the future.
The papers have been grouped into six streams:
• Networks
• IWAR Strategy
• Security
• Risk Management
• Social/Education
• Infrastructur
The development of understanding through writing
In dit proefschrift staat de vraag centraal op welke wijze schrijven bijdraagt aan leereffecten. Om meer inzicht te krijgen in deze kwestie worden de twee belangrijkste stromingen binnen het cognitieve procesonderzoek naar schrijven geëvalueerd (Flower & Hayes, 1980; Bereiter & Scardamalia, 1987; Galbraith, 2009). Om de claims over leereffecten door schrijven van de concurrerende modellen uit deze benaderingen te kunnen vergelijken, zijn binnen dit onderzoek naar de ontwikkeling van begrip door schrijven steeds zowel de achterliggende cognitieve processen als de subjectieve beoordelingen van studenten over hun begrip als uitgangspunt genomen voor analyses. Om de schrijfprocessen te kunnen onderzoeken, is gebruik gemaakt van toetsaanslagregistratiedata met behulp van Inputlog (Leijten & Van Waes, 2006). Om het begrip vast te stellen, is gebruik gemaakt van een subjectieve beoordeling door de schrijvers zelf. Hieronder zal eerst het theoretische kader van dit onderzoek uiteengezet worden. Daarna wordt kort ingegaan op de vier verschillende empirische studies die centraal staan in dit proefschrift. Ten slotte zal er een samenvatting worden gegeven van de belangrijkste bevindingen van het onderzoek. Het probleemoplossingsparadigma Binnen de cognitieve psychologie is ‘probleemoplossen’ een centraal begrip. Men gaat ervan uit dat individuen bij het oplossen van problemen op een strategische wijze gebruikmaken van de informatie die zij tot hun beschikking hebben (Bochardt, 1984). Flower en Hayes (1980) hebben dit robleemoplossingsparadigma toegepast op het schrijven van teksten en hebben schrijven hierbij getypeerd als een cognitief probleem dat de schrijver op de een of andere manier moet oplossen. Door dit en aanverwant onderzoek is de visie op het schrijfgedrag vanaf de jaren ’80 veranderd. Schrijven wordt niet langer gezien als een lineaire omzetting van gedachten in geschreven taal, maar als een recursief proces waarin verschillende factoren een rol spelen en waarin planning, formuleren en revisie elkaar afwisselen (Flower & Hayes, 1980). Tijdens een schrijftaak moet een schrijver verschillende schrijfprocessen organiseren. Zo moet een schrijver tijdens het schrijven nadenken over problemen die hij tegenkomt en moet hij nadenken over mogelijke oplossingen voor die problemen. Ook moet een schrijver tijdens het schrijven nadenken over ideeën, over de opbouw van de tekst en over de wijze van formuleren. Verder moet de schrijver rekening houden met de opdracht en met het publiek waarvoor de tekst geschreven wordt. Als laatste moet de schrijver schrijfdoelen bepalen en plannen ontwikkelen om die schrijfdoelen te bereiken. Dit alles maakt schrijven een complex proces (Bochardt, 1984)
Recommended from our members
Proceedings of the 1st International Conference on Live Coding
Open Access peer reviewed papers on live coding published at the 1st International Conference on Live Coding (ICLC) in Leeds
Empirical modelling of translation and interpreting
"Empirical research is carried out in a cyclic way: approaching a research area bottom-up, data lead to interpretations and ideally to the abstraction of laws, on the basis of which a theory can be derived. Deductive research is based on a theory, on the basis of which hypotheses can be formulated and tested against the background of empirical data. Looking at the state-of-the-art in translation studies, either theories as well as models are designed or empirical data are collected and interpreted. However, the final step is still lacking: so far, empirical data has not lead to the formulation of theories or models, whereas existing theories and models have not yet been comprehensively tested with empirical methods. This publication addresses these issues from several perspectives: multi-method product- as well as process-based research may gain insights into translation as well as interpreting phenomena. These phenomena may include cognitive and organizational processes, procedures and strategies, competence and performance, translation properties and universals, etc. Empirical findings about the deeper structures of translation and interpreting will reduce the gap between translation and interpreting practice and model and theory building. Furthermore, the availability of more large-scale empirical testing triggers the development of models and theories concerning translation and interpreting phenomena and behavior based on quantifiable, replicable and transparent data.
- …