135 research outputs found

    TEXT-TO-SPEECH CONVERSION (FOR BAHASA MELAYU)

    Get PDF
    Text-to-Speech (TTS) is an application that help user in having the text given to be read out loud. This project highlighted in creating a TTS system that allows text reading in Standard Malay Language (Bahasa Melayu). There is a lack of computer aided learning (CAL) tools that emphasize in Malay linguistic and misconception that people have regarding the usage of English-based TTS to read Bahasa Melayu text derived the development ofthis project. The end result is the TTS conversion prototype for Bahasa Melayu that reads by syllable using syllabification techniques through the employment ofMaximum Onset Principle (MOP) and produce syllable sounding speech by using syllable to sound mapping method

    “Excuse me, hands off the monument”: тематическое исследование (повторного) перевода романа The catcher in the rye на русский язык

    Get PDF
    This paper studies two Russian translations of J. D. Salinger’s novel The Catcher in the Rye: the first translation, produced in the Soviet period, and a retranslation produced in the 2000s.The presence of English loanwords and youth slang expressions is selected as a micro-textual variable which may be an indicator of the influence of the target culture context on the shape of the first translation and the retranslation studied. In view of the tendencies in borrowing from English in contemporary Russia, the total number of English loanwords (Anglicisms) is expected to be significantly higher in the more recent translation, and the two translations are also expected to differ in the number of English loanwords belonging to youth slang. These hypotheses are tested by analysing the English loanwords in the two translations. Further, various paratextual elements surrounding the first translation and a retranslation of Salinger’s novel are analysed. The aim is to shed light on the dynamics of the relations between the first, canonized translation and the retranslation as a possible explanation for their linguistic make-up and for the attitudes of the members of the Russian literary establishment towards them. The insights gained by the analysis of the paratexts are interpreted relying on Lefevere’s concepts of patronage and poetics. The analysis of the attitudes of the political and literary establishments in the Soviet and post-Soviet periods towards the first translation and the selected retranslation is also used to provide a wider insight into the dominant attitudes towards retranslation in the Soviet and post-Soviet periods.U radu se analiziraju dva ruska prijevoda romana J. D. Salingera The Catcher in the Rye: prvi prijevod, nastao u Sovjetskom Savezu, te ponovni prijevod iz 2000-ih. Prisutnost engleskih posuđenica i izraza koji pripadaju mladenačkom slengu odabrana je kao mikrotekstualna varijabla koja može biti pokazatelj utjecaja konteksta ciljne kulture na izradu prvog i ponovnog prijevoda. Imajući na umu tendencije u posuđivanju iz engleskog jezika u suvremenoj Rusiji, očekuje se da je ukupan broj engleskih posuđenica (anglicizama) znatno veći u novijem prijevodu te da se dva prijevoda razlikuju u broju engleskih posuđenica koje pripadaju mladenačkom slengu. Te se hipoteze ispituju analizom engleskih posuđenica u dvama prijevodima. Nadalje, analiziraju se različiti elementi parateksta prvog i ponovnog prijevoda Salingerova romana. Cilj je ovog dijela analize rasvijetliti dinamiku odnosa između prvog, kanoniziranog prijevoda i ponovnog prijevoda te ponuditi moguće objašnjenje za njihovu jezičnu konfiguraciju kao i za stavove pripadnika ruskog književnog establishmenta prema obama prijevodima. Uvidi dobiveni analizom paratekstova tumače se u svjetlu Lefeverovih koncepata pokroviteljstva (patronage) i poetike (poetics). Analizom stavova političkih i književnih autoriteta u sovjetskom i post-sovjetskom razdoblju prema prvom prijevodu i odabranom ponovnom prijevodu ujedno se stječe dublji uvid u dominantne stavove prema ponovnom prevođenju u sovjetskom i post-sovjetskom razdoblju.В работе проводится анализ двух переводов на русский язык романа Дж. Д. Сэлинджера «Над пропастью во ржи» (The Catcher in the Rye): первый перевод этой книги выполнен в советский период, а повторный - в 2000-х годах. Наличие английских заимствований и выражений, относящихся к молодежному сленгу, выбрано в качестве микротекстовой переменной, которая может использоваться как показатель влияния контекста целевой культуры на выполнение первого и повторного перевода. Принимая во внимание тенденции, существующие в современной России касаемо языкового заимствования из английского языка, предполагается, что общее количество английских заимствований (англицизмов) значительно больше в более позднем переводе, и что два перевода отличаются друг от друга количеством англицизмов, принадлежащих к молодёжному сленгу. Обоснованность этих гипотез проверяется путём анализа англицизмов в двух переводах. Далее, в работе анализируются различные паратекстовые элементы, которыми сопровождается первый перевод и более поздний повторный перевод романа Дж. Д. Сэлинджера для разъяснения динамики связей между первым «канонизированным» переводом и повторным переводом с целью предоставления возможного объяснения их языкового состава и позиций, которые занимают представители литературной элиты в России по отношению к этим переводам. Данные, полученные в результате анализа паратекстов, интерпретируются в соответствии с концепциями „патронажа” (patronage) и поэтики (poetics) А. Лефевра. Анализ отношения политической и литературной элиты в советском и постсоветском периодах к первому переводу и избранному повторному переводу также обеспечивает более глубокое представление о доминирующих позициях в советском и постсоветском периоде в связи с повторным переводом

    TEXT-TO-SPEECH CONVERSION (FOR BAHASA MELAYU)

    Get PDF
    Text-to-Speech (TTS) is an application that help user in having the text given to be read out loud. This project highlighted in creating a TTS system that allows text reading in Standard Malay Language (Bahasa Melayu). There is a lack of computer aided learning (CAL) tools that emphasize in Malay linguistic and misconception that people have regarding the usage of English-based TTS to read Bahasa Melayu text derived the development ofthis project. The end result is the TTS conversion prototype for Bahasa Melayu that reads by syllable using syllabification techniques through the employment ofMaximum Onset Principle (MOP) and produce syllable sounding speech by using syllable to sound mapping method

    Preprocessing models for speech technologies : the impact of the normalizer and the grapheme-to-phoneme on hybrid systems

    Get PDF
    Um dos usos mais promissores e de crescimento mais rápido da tecnologia de linguagem natural corresponde às Tecnologias de Processamento da Fala. Esses sistemas usam tecnologia de reconhecimento automático de fala e conversão de texto em fala para fornecer uma interface de voz para aplicações de conversão. Com efeito, esta tecnologia está presente em diversas situações do nosso quotidiano, tais como assistentes virtuais em smartphones (como a SIRI ou Alexa), ou sistemas de interação por voz em automóveis. As tecnologias de fala evoluíram progressivamente até ao ponto em que os sistemas podem prestar pouca atenção à sua estrutura linguística. Com efeito, o Conhecimento Linguístico pode ser extremamente importante numa arquitetura de fala, particularmente numa fase de pré-processamento de dados: combinar conhecimento linguístico em modelo de tecnologia de fala permite produzir sistemas mais confiáveis e robustos. Neste sentido, o pré-processamento de dados é uma etapa fundamental na construção de um modelo de Inteligência Artificial (IA). Se os dados forem razoavelmente pré-processados, os resultados serão consistentes e de alta qualidade (García et al., 2016). Por exemplo, os sistemas mais modernos de reconhecimento de fala permitem modelizar entidades linguísticas em vários níveis, frases, palavras, fones e outras unidades, usando várias abordagens estatísticas (Jurafsky & Martin, 2022). Apesar de treinados sobre dados, estes sistemas são tão mais precisos quanto mais eficazes e eficientes a capturarem o conhecimento linguístico. Perante este cenário, este trabalho descreve os métodos de pré-processamento linguístico em sistemas híbridos (de inteligência artificial combinada com conhecimento linguístico) fornecidos por uma empresa internacional de Inteligência Artificial (IA), a Defined.ai. A start-up concentra-se em fornecer dados, modelos e ferramentas de alta qualidade para IA., a partir da sua plataforma de crowdsourcing Neevo. O utilizador da plataforma tem acesso a pequenas tarefas de anotação de dados, tais como: transcrição, gravação e anotação de áudios, validação de pronúncia, tradução de frases, classificação de sentimentos num texto, ou até extração de informação a partir de imagens e vídeos. Até ao momento, a empresa conta com mais de 500,000 utilizadores de 70 países e 50 línguas diferentes. Através duma recolha descentralizada dos dados, a Defined.ai responde à necessidade crescente de dados de treino que sejam justos, i.e., que não reflitam e/ou amplifiquem os padrões de discriminação vigentes na nossa sociedade (e.g., de género, raça, orientação sexual). Como resultado, a Defined.ai pode ser vista como uma comunidade de especialistas em IA, que produz sistemas justos, éticos e de futuro. Assim, o principal objetivo deste trabalho é aprimorar e avançar a qualidade dos modelos de pré-processamento, aplicando-lhes conhecimento linguístico. Assim, focamo-nos em dois modelos linguísticos introdutórios numa arquitetura de fala: Normalizador e Grafema-Fonema. Para abordar o assunto principal deste estudo, vamos delinear duas iniciativas realizadas em colaboração com a equipa de Machine learning da Defined.ai. O primeiro projeto centra-se na expansão e melhoria de um modelo Normalizador pt-PT. O segundo projeto abrange a criação de modelos Grafema-Fonema (do inglês Grapheme-to-phoneme, G2P) para duas línguas diferentes – Sueco e Russo. Os resultados mostram que ter uma abordagem baseada em regras para o Normalizador e G2P aumenta a sua precisão e desempenho, representado uma vantagem significativa na melhoria das ferramentas da Defined.ai e nas arquiteturas de fala. Além disso, com os resultados obtidos no primeiro projeto, melhoramos o normalizador na sua facilidade de uso, aumentando cada regra com o respetivo conhecimento linguístico. Desta forma, a nossa pesquisa demonstra o valor e a importância do conhecimento linguístico em modelos de pré-processamento. O primeiro projeto teve como objetivo fornecer cobertura para diversas regras linguísticas: Números Reais, Símbolos, Abreviaturas, Ordinais, Medidas, Moeda, Datas e Hora. A tarefa consistia em expandir as regras com suas respetivas expressões normalizadas a partir de regras a seguir que teriam uma leitura não marcada inequívoca própria. O objetivo principal é melhorar o normalizador tornando-o mais simples, consistente entre diferentes linguagens e de forma a cobrir entradas não ambíguas. Para preparar um modelo G2P para dois idiomas diferentes - Sueco e Russo - quatro tarefas foram realizadas: 1. Preparar uma análise linguística de cada língua, 2. Desenvolver um inventário fonético-fonológico inicial, 3. Mapear e converter automaticamente o léxico fonético para DC-Arpabet (o alfabeto fonético que a Defined.ai construiu), 4. Rever e corrigir o léxico fonético, e 4. Avaliar o modelo Grafema-Fonema. A revisão dos léxicos fonéticos foi realizada, em consulta com a nossa equipa da Defined.ai, por linguistas nativos que verificaram se os inventários fonéticos-fonológicos seriam adequados para transcrever. Segundo os resultados de cada modelo, nós avaliamos de acordo com 5 métricas padrão na literatura: Word Error Rate (WER), Precision, Recall, F1-score e Accuracy. Adaptamos a métrica WER para Word Error Rate over normalizable tokens (WERnorm) por forma a responder às necessidades dos nossos modelos. A métrica WER (ou taxa de erro por palavra) foi adaptada de forma a contabilizar tokens normalizáveis, em vez de todos os tokens. Deste modo, a avaliação do normalizador, avalia-se usando um conjunto de aproximadamente 1000 frases de referência, normalizadas manualmente e marcadas com a regra de normalização que deveria ser aplicada (por exemplo, números reais, símbolos, entre outros). De acordo com os resultados, na versão 2 do normalizador, obtivemos discrepâncias estatisticamente significativas entre as regras. A regra dos ordinais apresenta a maior percentagem (94%) e as abreviaturas (43%) o menor percentual. Concluímos também um aumento significativo no desempenho de algumas das regras. Por exemplo, as abreviaturas mostram um desempenho de 23 pontos percentuais (pp.) superior. Quando comparamos as duas versões, concluímos que a versão 2 do normalizador apresenta, em média, uma taxa de erro 4 pp. menor sobre os tokens normalizáveis em comparação com a versão 1. Assim, o uso da regra dos ordinais (94% F1-score) e da regra dos números reais (89% F1-score) é a maior fonte de melhoria no normalizador. Além disso, em relação à precisão, a versão 2 apresenta uma melhoria de, em média, 28 pp em relação à versão 1. No geral, os resultados revelam inequivocamente uma melhoria da performance do normalizador em todas as regras aplicadas. De acordo com os resultados do segundo projeto, o léxico fonético sueco alcançou um WER de 10%, enquanto o léxico fonético russo um WER ligeiramente inferior (11%). Os inventários fonético-fonológicos suecos apresentam uma precisão maior (97%) do que os inventários fonético-fonológicos russos (96%). No geral, o modelo sueco G2P apresenta um melhor desempenho (98%), embora a sua diferença ser menor quando comparado ao modelo russo (96%). Em conclusão, os resultados obtidos tiveram um impacto significativo na pipeline de fala da empresa e nas arquiteturas de fala escrita (15% é a arquitetura de fala). Além disso, a versão 2 do normalizador começou a ser usada noutros projetos do Defined.ai, principalmente em coleções de prompts de fala. Observamos que nossa expansão e melhoria na ferramenta abrangeu expressões que compõem uma proporção considerável de expressões normalizáveis, não limitando a utilidade da ferramenta, mas aumentando a diversidade que ela pode oferecer ao entregar prompts, por exemplo. Com base no trabalho desenvolvido, podemos observar que, ao ter uma abordagem baseada em regras para o Normalizador e o G2P, conseguimos aumentar a sua precisão e desempenho, representando não só uma vantagem significativa na melhoria das ferramentas da Defined.ai, como também nas arquiteturas de fala. Além disso, a nossa abordagem também foi aplicada a outras línguas obtendo resultados muito positivos e mostrando a importância da metodologia aplicada nesta tese. Desta forma, o nosso trabalho mostra a relevância e o valor acrescentado de aplicar conhecimento linguístico a modelos de pré-processamento.One of the most fast-growing and highly promising uses of natural language technology is in Speech Technologies. Such systems use automatic speech recognition (ASR) and text-to-speech (TTS) technology to provide a voice interface for conversational applications. Speech technologies have progressively evolved to the point where they pay little attention to their linguistic structure. Indeed, linguistic knowledge can be extremely important in a speech pipeline, particularly in the Data Preprocessing phase: combining linguistic knowledge in a speech technology model allows producing more reliable and robust systems. Given this background, this work describes the linguistic preprocessing methods in hybrid systems provided by an Artificial Intelligence (AI) international company, Defined.ai. The startup focuses on providing high-quality data, models, and AI tools. The main goal of this work is to enhance and advance the quality of preprocessing models by applying linguistic knowledge. Thus, we focus on two introductory linguistic models in a speech pipeline: Normalizer and Grapheme-to-Phoneme (G2P). To do so, two initiatives were conducted in collaboration with the Defined.ai Machine Learning team. The first project focuses on expanding and improving a pt-PT Normalizer model. The second project covers creating G2P models for two different languages – Swedish and Russian. Results show that having a rule-based approach to the Normalizer and G2P increases its accuracy and performance, representing a significant advantage in improving Defined.ai tools and speech pipelines. Also, with the results obtained on the first project, we improved the normalizer in ease of use by increasing each rule with linguistic knowledge. Accordingly, our research demonstrates the added value of linguistic knowledge in preprocessing models

    How Good are Humans at Native Language Identification? A Case Study on Italian L2 writings

    Get PDF
    In this paper we present a pilot study on human performance for the Native Language Identification task. We performed two tests aimed at exploring the human baseline for the task in which test takers had to identify the writers’ L1 relying only on scripts written in Italian by English, French, German and Spanish native speakers. Then, we conducted an error analysis considering the language background of both test takers and text writers

    Una propuesta basada en corpus para enseñar un habitus de la traducción: diálogos iniciales con los enfoques sociológicos de Bourdieu

    Get PDF
    There is a growing body of literature that recognises the importance of Social Sciences in Translation Studies, such as the discussions surrounding the translational habitus, developed by Simeoni, Wolf, Inghilleri and Sela-Sheffy. In our research, we associate these ideas to corpora methodologies to analyse terminological usages as part of a professional behaviour. We hypothesise that when translation students previously face the most frequent terms extracted from a parallel corpus as well as their keyness and contexts, they replicate the same translational strategies in their texts, which can indicate their competencies eligible by their habitus.Un creciente volumen de literatura especializada reconoce la importancia de las ciencias sociales en los estudios de traducción, como los debates en torno al habitus de la traducción, a los que han contribuido Simeoni, Wolf e Inghilleri. En nuestra investigación asociamos estas ideas a metodologías de corpora para analizar los usos terminológicos como parte de un comportamiento profesional. Presumimos que, cuando los estudiantes de traducción observan, antes de enfrentarse a un encargo de traducción, los términos más frecuentes extraídos de un corpus paralelo (además de considerar si son o no términos clave y sus respectivos contextos), reproducen las mismas estrategias de traducción en sus textos, lo que puede indicar la adquisición de competencias ligadas a un determinado habitus

    The Arabic (Re)dubbing of Wordplay in Disney Animated Films

    Get PDF
    Although audiovisual translation (AVT) has received considerable attention in recent years, evidence suggests that there is a paucity of empirical research carried out on the dubbing of wordplay in the Arabophone countries. This piece of research sets to identify, describe and assess the most common translation techniques adopted by translators when dubbing English-language animated films into Arabic. The focus is on the special case of dubbing Disney animated films into Egyptian Arabic (EA) and their subsequent redubbing into Modern Standard Arabic (MSA), during the 1975-2015 period. The ultimate goal is to ascertain the similarities as well as the differences that set the two versions apart, particularly when it comes to the transfer of wordplay. To reach this objective, the methodological approach adopted for this study is a corpus of instances of wordplay that combines a quantitative phase, which has the advantage of identifying correlations between the types of wordplay and particular translation techniques and results and is then followed by a qualitative analysis that further probes the results and determines the different factors that contribute to the way wordplay is translated. The analysis reveals that, in their attempt to render this type of punning humour, in both Arabic dubbed versions, Arabic translators resort to a variety of translation techniques, namely, loan, direct translation, explication, paraphrase, substitution and omission. The examination of the data shows that achieving a humorous effect in the target dialogue is the top priority and driving factor influencing most of the strategies activated in the process of dubbing wordplay into EA. Dissimilarly, there is a noticeable lower amount of puns crossing over from the original films to the MSA dubbed versions, highlighting the fact that the approach generally taken by the dubbing teams seems to give priority to the denotative, informative dimension rather than the socio-pragmatic one. By shedding light on the intricacies of dubbing, it is hoped that this study would contribute to the advancement of knowledge in the translation of wordplay in the Arabophone countries and, more specifically, in the field of dubbing children’s programmes

    Negative vaccine voices in Swedish social media

    Get PDF
    Vaccinations are one of the most significant interventions to public health, but vaccine hesitancy creates concerns for a portion of the population in many countries, including Sweden. Since discussions on vaccine hesitancy are often taken on social networking sites, data from Swedish social media are used to study and quantify the sentiment among the discussants on the vaccination-or-not topic during phases of the COVID-19 pandemic. Out of all the posts analyzed a majority showed a stronger negative sentiment, prevailing throughout the whole of the examined period, with some spikes or jumps due to the occurrence of certain vaccine-related events distinguishable in the results. Sentiment analysis can be a valuable tool to track public opinions regarding the use, efficacy, safety, and importance of vaccination
    corecore