53 research outputs found

    Anglicisms and Vocabulary Dynamics in the Romanian Online Communication

    Get PDF
    The development of technological devices and the expansion of electronic communication and social media channels in the last few years has had a significant impact on how people communicate, especially in online written communication, particularly among young people, regardless of their nationality. Moreover, we can currently refer to our society as to a global society in which English prevails as a tool for communication and interaction between speakers of different languages particularly in the cyber space. Since English is the language of global communication, English loanwords constitute a linguistic and socio-cultural phenomenon. The creation and the development of this phenomenon is mainly owed to advances in electronic communication and technology, since the usage of English is widely spread from the IT to the economic and sociocultural fields. The influence of English on the Romanian language has been the object of numerous studies. In order to fill in a gap in the analysis of anglicisms in Romanian, the objective of this paper is to analyse the influence of English in the online communication between young people in Romania. Particular focus is given to a number of aspects of the vocabulary dynamics of Romanian: the position, the form and the functions of anglicisms, from a lexical and semantic perspective. Examples from the following sources will be illustrated and discussed: fashion articles from youth online publications, recordings of video blogs and podcasts as well as YouTube videos

    Variable Adaptation of English loanwords in German – a perceptual study

    Get PDF
    A big question in the field of loan phonology, is that of the extent to which the perception of the speakers of the borrowing language affects the adaptation itself. Past researchers have had varying thoughts about this, ranging from the idea that perception is of utmost importance (Peperkamp, 2003), to the thought that is of very little significance (Uffmann, 2006). One phenomenon in this field that offers us useful insight into such issues is that of variable adaptation, namely when one word or sound is adapted in multiple ways into one language, and this is what I am interested in. I investigate variable adaptation of the English FACE diphthong into German, which does not contain this “phoneme”. The diphthong is adapted sometimes to /ɛ:/ and sometimes to /e:/, and the source of the variability is not lexical, as German dictionaries list both pronunciations as possible options for German speakers. Jax (2011) suggested that the variation may be due to the internal timing of the diphthong’s formant trajectories, and the way this is perceived by German listeners. Another important aspect within this field that I address is that of the methodology used in studying loan phonology. Generally, in past studies, the methods used have differed a lot based on whether researchers have been approaching the issue from a phonological of a phonetic viewpoint. For instance, the level of bilingualism that the subjects who are tested possess varies greatly. By taking methods generally used to measure the perception of an L2, such as those used by Boersma & Escudero (2002, 2004) and Iverson & Evans (2007), I am able to control for more variables, enabling me to argue that loan word adaptation can neither be treated as an entirely phonetic nor an entirely phonological process

    Approaches to English for Specific and Academic Purposes

    Get PDF
    This volume presents a selection of eight papers presented at three symposia on English for Specific Purposes (ESP) and English for Academic Purposes (EAP) that were held at the Free University of Bozen-Bolzano, Italy. The experiences detailed in the chapters offer a representative sample of the diversity of approaches to teaching and assessing ESP and EAP that were shared on those occasions. The contributions vary markedly by teaching and research context: whereas some report the results of meticulously planned research projects, others describe in detail cases embedded in specific contexts in Italy and in the US; others analyse the specialised language of particular discourses or domains, or reflect upon teaching methods and materials

    Approaches to English for specific and academic purposes. Perspectives on teaching and assessing in tertiary and adult education

    Get PDF
    This volume presents a selection of eight papers presented at three symposia on English for Specific Purposes (ESP) and English for Academic Purposes (EAP) that were held at the Free University of Bozen-Bolzano, Italy. The experiences detailed in the chapters offer a representative sample of the diversity of approaches to teaching and assessing ESP and EAP that were shared on those occasions. The contributions vary markedly by teaching and research context: whereas some report the results of meticulously planned research projects, others describe in detail cases embedded in specific contexts in Italy and in the US; others analyse the specialised language of particular discourses or domains, or reflect upon teaching methods and materials. (DIPF/Orig.

    Globalization, English and the German University classroom: a sociolinguistic profile of students of English at the Freie Universität Berlin

    Get PDF
    This thesis surveys current theories of globalization and then inspects the effects of this phenomenon on the English language. It suggests that not only has the English language changed as a result of globalization, but that discourse about English and the means of analysis have changed. It then tests the relevance of contemporary theories of English to find if they match the reality of how English is being acquired, used and appropriated in the present age.Since globalization is appropriated differently by the various societies it affects, it is important to consider each individual place with its specific history, culture and politics to evaluate different outcomes. For this reason, this thesis examines the presence of English in the specific national context of Germany, but focuses on a group who uses the language regularly for a variety of international purposes: students of English at the Freie Universitat Berlin. Methods used in this analysis include a qualitative analysis of questionnaires, discourse analysis of ethnographic interviews with students and grammatical and stylistic analyses of student essays and assignments. The results of this study shed light on various student attitudes towards and motivations for learning English as well as their means of identifying with the language.With this in mind, this study suggests that several issues in the field of applied linguistics need to be reappraised, for example types of English learners, categorizations of English speakers, domains of language use, and the role of a lingua franca and its ability to represent identity in L2 language use. Furthermore, this work suggests important pedagogical implications for English language teaching as a result of these developments. As English is being increasingly used as a global language and also being accepted as the common language of the European Union, there need to be corresponding shifts in ELT pedagogy. Such changes would include an increased teaching of English as a global language; an opening up to the teaching of (at least awareness of) L2 varieties of English; the increasing study of contexts where English is used; measures to increase students' perceptive abilities concerning L2 varieties of English; a move away from teaching based on nationalist approaches to language learning; an emphasis on communicative expertise in language and not on following national linguistic norms; and teaching strategies that increase students' confidence in appropriating English

    The Web 2.0 Revolution: Using technology to shape standard-based instruction

    Get PDF
    Different Web 2.0 applications, such as weblogs, podcasts, wikis, and twitter have revolutionized the way people interact online and opened a path to a new way of global mass-communication for every internet user. Web 2.0 applications have also proved to enhance foreign language instruction in terms of learner motivation, collaborative learning processes, time-and space independence for students across classroom boundaries, and chances for authentic language use and perception. This thesis demonstrates the uses of Web 2.0 to enhance standards-based foreign language education and address each of the five C\u27s using 21st-century technologies. By implementing Web 2.0 as an instructional tool, teachers can align their courses with the ACTFL standards and the modes of communication through which they can best be communicated. The thesis outlines a thematic unit of instruction, which demonstrates the use of Web 2.0 in teaching the standards and modes of communication and also functions as a ready-to-use sequence in class

    Language for International Communication: Linking Interdisciplinary Perspectives (2nd international symposium)

    Get PDF
    This collection contains papers delivered at the 2nd international symposium "Language for International Communication: Linking Interdisciplinary Perspectives" held at the University of Latvia, Latvia, on 23-24 May 2013

    Accents and folk linguistics: A grounded-theoretical analysis of Icelanders' reactions to foreigners' use of Icelandic

    Get PDF
    Iceland has long been a monolingual and monoethnic society, with the Icelandic language serving as a key element in the construction and maintenance of national identity. As numbers and percentages of first-generation, L2 speakers have risen substantially in the past three decades, foreign-accented Icelandic has only recently become perceivable throughout society. However, mechanisms underlying evaluations of L2 Icelandic are not yet known. Against this background, this dissertation seeks to investigate folk ideas about the status of Icelandic in general and L2 accents in Icelandic in particular. Such ideas are considered in light of the longstanding ideological positions on L1 Icelandic, including a stable evaluation system. Drawing on concepts and methods established by research in folk linguistics, this qualitative study involved five focus group discussions with thirty-two participants, employing a semi-structured discussion guide. L1-speaker participants discussed general ideas on the Icelandic language and language variation. They were then presented with a voice-placing task using six verbal guises that had been recorded by five L2 speakers of Icelandic and one L1 speaker, each of whom read aloud the same grammatically and stylistically sound text. Subsequently, participants elaborated on their voice-placing strategies as well as different themes connected with ideas on Icelandic, including L2 and foreign-accented speech. The results of this investigation show that mechanisms underlying evaluations of the use of L1 Icelandic are well in place, with participants resorting to deep-rooted categories when referring to assessments of good and bad language. In contrast, an evaluation system for L2 Icelandic has not yet been fully formed. Nevertheless, outcomes of this study indicate that language use of L2 speakers is less harshly judged than that of L1 speakers. In addition, results suggest that perceptions of listener effort, speaker effort, and ideas about geographic/linguistic origin of a speaker influence assessment of foreign-accented speech.Oft er litið svo á að sérstakt „málloftslag“ ríki á Íslandi sem einkennist að einsleitni í máli, tiltölulega íhaldssömum viðhorfum til þess og sterkri málstefnu. Ísland var lengi eintyngt samfélag og íslenskan er oft talin vera helsta sameiningartákn Íslendinga. Á undanförnum árum hefur innflytjendum fjölgað mikið og tala sífellt fleiri íbúar hér á landi annað mál en íslensku eða íslensku með erlendum hreim. Í ljósi þess hefur þessi ritgerð það að markmiði að kanna viðhorf innfæddra Íslendinga til stöðu íslensku og erlends hreims og skoða þá þætti sem liggja á bak við þau viðhorf. Tekið er tillit til þeirra rótgrónu hugmynda sem hafa legið til grundvallar mati á máli þeirra sem hafa íslensku að móðurmáli og hafa myndað stöðugt matskerfi. Rannsókn þessi er framkvæmd með eigindlegum aðferðum og nýtir sér hugtök og aðferðir alþýðumálfræði (e. folk linguistics). Skipulögð voru fimm rýnihópaviðtöl með þrjátíu og tveimur þátttakendum þar sem stuðst var við hálfstaðlaðan spurningalista. Auk almennrar umræðu um afstöðu til íslensku og breytileika í íslensku voru sex upptökur spilaðar fyrir þátttakendurna og þeir beðnir um að meta þær. Í upptökunum voru fimm einstaklingar með íslensku sem annað mál og einn móðurmálshafi fengnir til að lesa upp sama textann, sem var stuttur og málfræðilega tækur. Auk viðtalanna var heimskort lagt fyrir þátttakendurna og þeir látnir merkja það svæði sem þeir héldu að viðkomandi væri frá. Þátttakendurnir gerðu svo ítarlega grein fyrir ákvörðunum sínum og ræddu mismunandi þemu tengd hugmyndum um íslensku, innfædda og talaða með hreim. Niðurstöður rannsóknarinnar hafa leitt í ljós að kerfið sem liggur til grundvallar mati á íslensku innfæddra byggist á því að þátttakendur grípa til rótgróinna hugmynda um gott og miður gott mál. Á hinn bóginn benda niðurstöður þessarar rannsóknar til þess að ekki hafi (enn) mótast matskerfi fyrir íslensku sem annað mál, þ.m.t. íslensku með erlendum hreim. Engu að síður gefa niðurstöðurnar til kynna að málnotkun innfæddra Íslendinga sé metin harkalegar en íslenska þeirra sem hafa hana sem annað mál. Þar að auki benda niðurstöðurnar til að skynjun tiltekinna þátta á borð við skynjaðan skiljanleika (e. listener effort), viðleitni talandans og hugmyndir um uppruna talandans hafi áhrif á mat á erlendum hreim.This study was supported by the Icelandic Research Fund, grant no. 152145-051, The University of Iceland Research Fund and Studienstiftung des deutschen Volkes

    The Space of Alterity: Language and National Identity in Theodor Adorno and W.G. Sebald

    Full text link
    The German Romantic monolingual paradigm of national identity emerged in the late eighteenth century to establish a mother tongue as a national backbone. This paradigm portrayed multilingualism as destabilizing, impoverishing, and unsuitable for aesthetics. Radicalized by the Nazis and overlooked in postwar debates over German national identity, this paradigm persists in contemporary societies and continues to conceal, belittle, and discredit multilingualism. To oppose that paradigm, this dissertation unveils the enriching and nourishing qualities of foreign languages, presents translingualism as a viable alternative to monolingualism, and reveals how translingual literature creates transnational connectedness. The limitations of the paradigm are traced from the late eighteenth century to contemporary German literature to show how the German Romantics sacralized the concept of the mother tongue through religious and ethical qualities, and to expose how the exaltation of linguistic purity spreads hostility to foreign languages and fuels violence. Theodor Adorno and W.G. Sebald secularize the notion of the mother tongue and rehabilitate multilingualism. Adorno advocates a philosophical and an aesthetic framework with one language open to foreign expressions, whereas Sebald promotes translingual literature that mixes languages to create transnational bridges. This exploration of foreign tongues in Adorno and Sebald adds an ideological and an aesthetic dimension to the scholarship on their multilingualism and refutes the invocations of linguistic purity

    Grapheme-to-phoneme conversion in the era of globalization

    Get PDF
    This thesis focuses on the phonetic transcription in the framework of text-to-speech conversion, especially on improving adaptability, reliability and multilingual support in the phonetic module. The language is constantly evolving making the adaptability one of major concerns in phonetic transcription. The phonetic transcription has been addressed from a data- based approach. On one hand, several classifiers such as Decision Trees, Finite State Transducers, Hidden Markov Models were studied and applied to the grapheme-to-phoneme conversion task. In addition, we analyzed a method of generation of pronunciation by analogy, considering different strategies. Further improvements were obtained by means of application of the transformation-based error-driven learning algorithm. The most significant improvements were obtained for classifiers with higher error rates. The experimental results show that the adaptability of phonetic module was improved, having obtained word error rates as low as 12% (for English). Next, steps were taken towards increasing reliability of the output of the phonetic module. Although, the G2P results were quite good, in order to achieve a higher level of reliability we propose using dictionary fusion. The ways the pronunciations are represented in different lexica depend on many factors such as: expert¿s opinion, local accent specifications, phonetic alphabet chosen, assimilation level (for proper names), etc. There are often discrepancies between pronunciations of the same word found in different lexica. The fusion system is a system that learns phoneme-to-phoneme transformations and converts pronunciations from the source lexicon into pronunciations from the target lexicon. Another important part of this thesis consisted in acing the challenge of multilingualism, a phenomenon that is becoming a usual part of our daily lives. Our goal was to obtain such pronunciations for foreign inclusions that would not be totally unfamiliar either to a native or proficient speakers of the language to be adapted, or to speakers of this language with average to low proficiency. Nativization by analogy was applied to both orthographic and phonetic forms of the word. The results obtained show that phonetic analogy gives better performance than analogy in the orthographic domain for both proper names and common nouns. Both objective and perceptual results obtained show the validity of this proposal.Fa tan sols uns deu anys les aplicacions de sistemes TTS eren molt més limitades, encara que un passat tan recent sembla més llunyà a causa dels canvis produïts en les nostres vides per la invasió massiva de les tecnologies intel·ligents. Els processos d’automatització de serveis també han assolit nous nivells. Què és el que defineix un bon sistema TTS avui dia? El mercat exigeix que aquest sigui molt adaptable a qualsevol tipus d’àmbit. També és imprescindible un alt nivell de fiabilitat ja que un simple error d’un TTS pot causar problemes seriosos en el nostre dia a dia. La nostra agenda és cada vegada més exigent i hem de fer front a més volums d’informació en menys temps. Deleguem les nostres tasques quotidianes als nostres dispositius intel·ligents que ens ajuden a llegir llibres, triar productes, trobar un lloc al mapa, etc. A més viatgem més i més cada dia. Aprenem a parlar noves llengües, les barregem, en un món més i més globalitzat. Un sistema TTS que no és capaç de fer front a les entrades multilingües no serà capaç de sostenir la competència. Els sistemes TTS moderns han de ser multilingües. La transcripció fonètica és el primer mòdul del TTS per la qual cosa el seu correcte funcionament és fonamental. Aquesta tesi se centra en la millora de l’adaptabilitat, fiabilitat i suport multilingüe del mòdul fonètic del nostre sistema TTS. El mòdul de transcripció fonètica del TTS va passar de ser basat en regles o diccionaris a ser automàtic, derivat de dades. La llengua està en constant evolució, igual que tots els organismes vius. És per això que l’adaptabilitat és un dels principals problemes de la transcripció fonètica. Per millorar-la es necessita un mètode basat en dades que funcioni bé per a derivar la pronunciació de paraules no trobades al lèxic del sistema. En aquesta tesi es comparen diferents mètodes G2P impulsats per dades que utilitzen les mateixes dades d’entrenament i test i es proposen millores. S’han aplicat diversos classificadors basats en dades, com ara arbres de decisió, traductors d’estats finits i models de Markov, a la tasca de transcripció fonètica, analitzant i comparant els resultats. L’algorisme TBL, basat en aprenentatge dels errors proporciona millores adicionals als classificadors esmentats. Aquest mètode permet capturar patrons d’errors i corregir-los. Les millores més significatives s’obtenen per classificadors amb taxes d’errors més gran. Els millors resultats s’obtenen mitjançant l’aplicació del millor classificador FST amb posterior correcció dels errors pel TBL. Els resultats obtingut per altres classificadors i corregits pel TBL mostren millores entre 2-4 punts percentuals en la taxa d’error de les paraules. La millora que s’obté mitjançant l’aplicació del TBL per als resultats del classificador més simple basat només en correspondències lletra-fonema presents en el corpus d’entrenament, ML, és enorme (77-83 punts percentuals depenent del lèxic), el que demostra l’eficàcia del TBL per si sol. L’èxit de l’algorisme TBL demostra l’eficàcia de l’aprenentatge basat en els errors, que és bastant similar a l’aprenentatge de llengües pels humans. Una altra tècnica que els éssers humans utilitzen de forma regular en l’aprenentatge d’idiomes és la pronunciació per analogia. Això és encara més cert per a llengües amb ortografia profunda, on la correspondència entre la forma escrita i parlada és bastant ambigua. Per millorar encara més la capacitat d’adaptació del nostre mòdul de pronunciació fonètica, es va desenvolupar un algorisme de pronunciació per analogia. Aquest algorisme troba arcs de lletres als quals correspon la mateixa pronunciació i calcula la seva freqüència. La pronunciació d’una nova paraula es construeix amb els arcs més llargs que constitueixen el camí més curt a través del graf de totes les pronunciacions disponibles per a aquesta paraula. Es basa en paràmetres com ara la freqüència d’arc, posició en la paraula, etc. Les pronunciacions que contenen el menor nombre d’arcs (si hi ha més d’una) es donen un rang i les estratègies de puntuació escullen la millor opció. En aquest treball s’han proposat noves estratègies de puntuació i s’han obtingut resultats prometedors. Una de les noves estratègies propostes clarament supera a les altres. Les noves estratègies propostes també apareixen a la llista de les millors combinacions d’estratègies. Els millors resultats per al PbA són entre 63 i 88 % paraules correctes segons el lèxic. S’han avaluat els G2P no solament per a l’anglès, si no també per altres idiomes europeus. També s’ha considerat el cas de la parla contínua. Per L’anglès, La adaptació de la pronunciació a la parla contínua considera les formes febles. Els resultats generals mostren que la capacitat d’adaptació del mòdul fonètic ha estat millorada. També s’ha actuat en línies que permeten augmentar la fiabilitat del mòdul fonètic. Tot i que els resultats experimentals per al G2P són bastant bons, encara hi ha errors que poden impedir que la intel·ligibilitat de certes paraules i, per tant, reduir la qualitat de la parla en general. Es proposa aconseguir un major nivell de fiabilitat a través de fusió de diccionaris. Les pronunciació de les paraules presents en els diccionaris depèn de molts factors, per exemple: opinió experta, especificacions de l’accent local, alfabet fonètic triat, nivell d’assimilació (per a noms propis), etc. Sovint hi ha discrepàncies entre la pronunciació de la mateixa paraula en diferents lèxics. En general, aquestes discrepàncies, encara que de vegades significatives, no obstaculitzen greument la pronunciació global de la paraula ja que totes les pronunciacions lèxic han estat prèviament validades per un lingüista expert. Aquestes discrepàncies normalment es troben a la pronunciació de vocals i diftongs. La substitució de vocals per similars no es considera un error greu perquè no afecta la intel·ligibilitat i per tant la qualitat de veu. El sistema de fusió proposat es basa en el mètode P2P, que transforma les pronunciacions del lèxic d’origen a les pronunciacions del lèxic de destí (el sistema està capacitat per aprendre aquestes transformacions). Per entrenar el classificador, es seleccionen les entrades comunes entre el lèxic font i destí. Els experiments es duen a terme tant per paraules comuns com per a noms propis. Els experiment realitzat s’han basat en les tècniques DT i FST. Els resultats mostren que la qualitat de la parla en general es pot millorar significativament donadas les baixes taxes d’error de G2P i una àmplia cobertura del diccionari del sistema. El sistema TTS final és més adaptable i fiable, més preparat per afrontar el repte del multilingüisme, el fenomen que ja forma part habitual de les nostres vides quotidianes. Aquesta tesi considera contextos que contenen la barreja de llengües, on la llengua pot canviar de forma inesperada. Aquestes situacions abunden en les xarxes socials, fòrums, etc. Es proposa un esquema de G2P multilingüe incloent la nativització. El primer component d’un TTS multilingüe és el mòdul d’identificació d’idioma. S’ha desenvolupat un identificador d’idioma basat en n -gramas (de lletres) obtenint bons resultats. Els contextos amb llengües mixtes han de ser tractats amb especial delicadesa. En general, cada frase o paràgraf tenen una llengua principal i les paraules estrangeres presents s’hi consideren inclusions. A l’hora de decidir com pronunciar frases en diverses llengües es poden considerar dos escenaris: 1) aplicar, per cada llengua el diferents G2P classificadors propis de la llengua (es produiria canvis fonètics bruscs que sonarien molt poc natural); 2) aplicar el classificador G2P per a l’idioma principal de la frase suposant que aquesta pronunciació seria més acceptable que la que conté fonemes estrangers. I si cap de les propostes anteriors es acceptada? Per països com Espanya, on el domini de llengües estrangeres per la població general és bastant limitat, proposem nativitzar la pronunciació de paraules estrangeres en frases espanyoles. Quins criteris s’han d’utilitzar tenint en compte les significatives diferències en l’inventari de fonemes? El nostre objectiu és obtenir pronunciacions que no són del tot desconegudes i que siguin acceptades tant per parlants nadius o amb alt domini de l’idioma estranger com per parlants d’aquesta llengua amb nivell mitjà o baix. En aquest treball la nativització es porta a terme per a les inclusions angleses i catalanes en frases en castellà. Quan hi ha diferències significatives en els inventaris de fonemes entre les llengües nativització presenta reptes addicionals. Per tal de validar ràpidament la idea de nativització es van crear taules de mapeig de fonemes estrangers als nativizats, també es va dur a terme una avaluació perceptual. La nativització basada en taules mostra un major nivell d’acceptació per part del públic que la síntesi sense cap nativiztació. Per tal de millorar encara més els resultats de nativització de forma eficaç es necessita un mètode basat en dades. Com a gran part de pronunciacions estrangeres s’aprenen per analogia, l’aplicació del PbA a aquesta tasca és idoni, sobretot perquè ja ha demostrat excel·lents resultats per a la tasca de transcripció fonètica. Per a això s’explora l’analogia tant en el domini ortogràfic com fonètic. Tots els mètodes basats en dades requereixen un corpus d’entrenament i PbA, per descomptat, no és una excepció. Ja que cap corpus de nativització adequat per a la tasca estava disponible es va prendre la decisió de crear un corpus d’entrenament i test per entrenar i validar el nostre classificador per inclusions angleses en castellà, i un altre joc per a les catalanes. Tots els dos corpus d’entrenament contenen 1.000 paraules i són ortogràficament equilibrats. S’aplica la nativització per analogia basada en la forma ortogràfica de la paraula G2Pnat i també basada en la forma fonètica acs ppnat per tal d’nativitzar paraules comunes i noms propis en anglès i paraules comunes en català en frases en castellà. Els resultats obtinguts mostren que l’analogia fonètica dóna un millor rendiment que l’analogia en el domini ortogràfic pels noms propis i paraules comunes. No obstant això, els resultats obtinguts per als noms propis anglesos es troben uns 12 punts percentuals per sota dels obtinguts per a les paraules comunes en anglès. Això és degut al fet que la pronunciació noms propis està influenciada per factors més complexos i fins i tot per als éssers humans presenta importants reptes. L’algorisme TBL també s’ha aplicat per millorar els resultats de nativización per inclusions angleses. S’obtenen millores per als resultats obtinguts per P2Pnat, així com per als resultats obtinguts per les taules de nativiztació. Els bons resultats obtinguts per l’algorisme TBL aplicat a la predicció del mètode ML demostra l’eficàcia del mètode d’aprenentatge a partir d’errors, també per a aquesta tasca. A l’avaluació perceptual duta a terme per inclusions angleses en castellà, es va demanar als oients que votessin el millor dels tres mètodes disponibles: G2P (per castellà), NatTAB i P2Pnat. P2Pnat és triat com el millor en el 50 % dels casos mentre que el G2P per a espanyol obté la majoria de vots negatius (45 % dels casos). Aquests resultats perceptuals i els encoratjadors resultats objectius demostren la idoneïtat de nativització per sistemes TTS multilingüesHace tan sólo unos diez años, las aplicaciones de sistemas TTS estaban mucho más limitadas, aunque un pasado tan reciente parece más lejano debido a los cambios producidos en nuestras vidas por la invasión masiva de las tecnologías inteligentes. Los procesos de automatización de los servicios han alcanzado a nuevos niveles. ¿Qué es lo que define un buen sistema TTS hoy en día? El mercado exige que éste sea muy adaptable a cualquier tipo de ámbito. También es imprescindible un alto nivel de fiabilidad, ya que un simple error de un TTS puede causar problemas serios en nuestro día a día. Nuestra agenda es cada vez más exigente y tenemos que hacer frente a un volumen cada vez mayor de información en menos tiempo. Delegamos nuestras tareas cotidianas a nuestros dispositivos inteligentes que nos ayudan a leer libros, elegir productos, encontrar un lugar en el mapa, etc. Además, cada día viajamos más, aprendemos a hablar nuevas lenguas, las mezclamos, volviéndonos más y más globalizados. Un sistema TTS que no sea capaz de hacer frente a las entradas multilngües no será capaz de sostener la competencia. Los sistemas TTS modernos tienen que ser multilngües. La transcripción fonética es el primer módulo del TTS por lo cual su correcto funcionamiento es fundamental. Esta tesis se centra en la mejora de la adaptabilidad, fiabilidad y soporte del módulo fonético de nuestro sistema TTS. El módulo de transcripción fonética del TTS pasó de ser basado en reglas o diccionarios a ser automática, basada en datos. La lengua está en constante evolución al igual que todos los organismos vivos. Es por eso que la adaptabilidad es uno de los principales problemas de la transcripción fonética. Para mejorarla se necesita un método basado en datos que funcione bien para derivar la pronunciación de palabras no encontradas en el léxico del sistema. En esta tesis se comparan diferentes métodos G2P basados en datos, utilizando los mismos datos de entrenamiento y test y se proponen mejoras. Se han estudiado clasificadores basados en datos, tales como árboles de decisión, traductores de estados finitos y modelos de Markov, aplicados a la tarea de transcripción fonética y comparando los resultados. El algoritmo TBL, basado en aprendizaje de los errores y que permite capturar patrones de errores y corregirlos ha aportado nuevas mejoras, que han sido especialmente significativas para los clasificadores con tasa de error más alta. Los mejores resultados se obtienen mediante la aplicación del mejor clasificador FST con posterior corrección de los errores por el TBL. Los resultados obtenido por otros clasificadores y corregidos por el TBL muestran mejoras entre 2-4 puntos porcentuales en la tasa de error de las palabras. La mejora que se obtiene mediante la aplicación del TBL para a los resultados del clasificador más simple, basado solamente en correspondencias letra-fonema presentes en el corpus de entrenamiento, ML, es enorme (77-83 puntos porcentuales dependiendo del léxico), lo que demuestra la eficacia del TBL por si solo. El éxito del algoritmo TBL demuestra la eficacia del aprendizaje basado en los errores, que es bastante similar al aprendizaje de lenguas por los humanos. Otra técnica que los seres humanos utilizan de forma regular en el aprendizaje de idiomas es pronunciación por analogía. Esto es aún más cierto para lenguas con ortografía profunda, donde la correspondencia entre la forma escrita y hablada es bastante ambigua. Para mejorar aún más la capacidad de adaptación de nuestro módulo de pronunciación fonética, se ha estudiado un algoritmo de pronunciación por analogía. Este algoritmo encuentra arcos de letras a los que corresponde la misma pronunciación y calcula su frecuencia. La pronunciación de una nueva palabra se construye con los arcos más largos que constituyen el camino más corto a través del grafo de todas las pronunciaciones disponibles para esta palabra. Se basa en parámetros tales como la frecuencia de arco, posición en la palabra, etc., las pronunciaciones que contienen el menor número de arcos (si hay más de una ) se dan un rango y las estrategias de puntuación escogen la mejor opción. En esta tesis se han propuesto nuevas estrategias de puntuación, obteniéndose resultados prometedores. Una de las nuevas estrategias propuestas claramente supera a los demás. Además, las estrategias propuestas también aparecen seleccionadas al observar las mejores combinaciones de estrategias. Los mejores resultados para PbA son entre 63 y 88% palabras correctas según el léxico. Se obtienen resultados G2P no solamente para el inglés, sino también para otros idiomas europeos. También se ha considerado el caso del habla continua, adaptando la pronunciación para el habla continua del inglés, utilizando las llamadas formas débiles. Los resultados generales muestran que la capacidad de adaptación del módulo fonético ha sido mejorada. Otra línea de investigación en esta tesis se encamina a aumentar la fiabilidad del módulo fonético. Aunque, los resultados experimentales para el G2P son bastante buenos, todavía existen errores que pueden impedir que la inteligibilidad de ciertas palabras y, por lo tanto, reducir la calidad del habla en general. Para lograr un mayor nivel de fiabilidad se propone utilizar la fusión de diccionarios. Las pronunciación de las palabras presentes en los distintos diccionarios depende de muchos factores, por ejemplo: opinión experta, especificaciones del acento local, alfabeto fonético elegido, nivel de asimilación (para nombres propios), etc. A menudo hay discrepancias entre la pronunciación de la misma palabra en diferentes léxicos. Por lo general, estas discrepancias, aunque a veces significativas, no obstaculizan gravemente la pronunciación global de la palabra ya que todas las pronunciaciones léxico han sido previamente validadas por un lingüista experto. Estas discrepancias normalmente se encuentran en la pronunciación de vocales y diptongos. La sustitución de vocales por otras similares no se considera un error grave porque no afecta la inteligibilidad y por lo tanto la calidad de voz. El sistema de fusión estudiado es un sistema P2P que transforma las pronunciaciones del léxico de origen en pronunciaciones del léxico destino (el sistema está capacitado para aprender estas transformaciones). Para entrenar el clasificador, se seleccionan las entradas comunes entre el léxico fuente y destino. Se han realizado experimentos tanto para las palabras comunes como para los nombres propios, considerando los métodos de transformación basados en DT y FST. Los resultados experimentales muestran que la calidad del habla en general se puede mejorar significativamente dadas las bajas tasas de error de G2P y la amplia cobertura del diccionario del sistema. Un sistema TTS adaptable y fiable tiene que estar preparado para afrontar el reto del multilingüísmo, fenómeno que ya forma parte habitual de nuestras vidas cotidianas. Esta tesis también ha considerado contextos que contienen la mezcla de lenguas, en los que la lengua puede cambiar de forma inesperada. Este tipo de contextos abundan en las redes sociales, foros, etc. Se propone un esquema de G2P multilngüe incluyendo la nativización. El primer componente de un TTS multilngüe es el módulo de identificación de idioma. Se ha desarrollado un identificador de idioma basado n -gramas (de letras) que proporciona buenos resultados. Los contextos en los que intervienen varias lenguas deben ser tratados con especial delicadeza. Por lo general, cada frase o párrafo tienen una lengua principal y las palabras extranjeras presentes en ella se consideran inclusiones. Al definir la estrategia sobre cómo pronunciar frases en varias lenguas puede partirse de dos escenarios: 1) aplicar a cada lengua un clasificador G2P distinto e independiente (que produciría cambios fonéticos bruscos que sonarían muy poco natural); 2) aplicar el clasificador G2P para el idioma principal de la frase suponiendo que es
    corecore