15 research outputs found

    Computational approach for the matter of stress in Brazilian Portuguese

    No full text
    O objetivo central do projeto foi investigar a questão do acento no português brasileiro por meio do uso de ferramentas computacionais, a fim de encontrar possíveis relações entre traços segmentais, prosódicos ou morfológicos com o acento. Tal análise foi realizada a partir do estudo crítico das principais soluções propostas para a questão advindas da Fonologia Teórica. Isso foi considerado o primeiro passo para desenvolver uma abordagem que traga inovação para a área. A discussão teórica foi concluída com a implementação de algoritmos que representam modelizações das propostas para o tratamento da questão do acento. Estas foram, posteriormente, testadas em corpora relevantes do português com o objetivo de analisar tanto os casos considerados como padrão pelas propostas, quanto aqueles que são considerados exceções ao comportamento do idioma. Simultaneamente, foi desenvolvido um corpus anotado de palavras acentuadas do português brasileiro, a partir do qual foram implementados os dois grupos de modelos de natureza probabilística que formam o quadro de abordagens desenhado pelo projeto. O primeiro grupo se baseia na noção de N-gramas, em que a atribuição de acento a uma palavra ocorre a partir da probabilidade das cadeias de tamanho \" que a compõem, configurando-se, assim, um modelo que enxerga padrões simples de coocorrência e que é computacionalmente eficiente. O segundo grupo de modelos foi chamado de classificador bayesiano ingênuo, que é uma abordagem probabilística mais sofisticada e exigente em termos de corpus e que leva em consideração um vetor de traços a serem definidos para, no caso, atribuir o acento de uma palavra. Esses traços englobaram tanto características morfológicas, quanto prosódicas e segmentais das palavras.The main goal of this project was to provide insight into the behavior of stress patterns of Brazilian Portuguese using computational tools in order to find eventual relationships between segmental, prosodic or morphologic features and word stress. Such analysis was based on a critical reading of some of the main proposals from theoretical phonology regarding the matter. This was considered the first step towards an innovative approach for this field of research. Such discussion was concluded by implementing algorithms representing models of the theoretical proposals for treating the behavior of stress. Afterward, those solutions were tested in relevant corpora of Portuguese aiming to analyze both the words which fell inside what was considered standard and the words that should be considered exceptions to the typical behavior in the language. Simultaneously, a noted corpus of Brazilian Portuguese words was compiled, from which were implemented both groups of models that have probabilistic nature that completes the frame of approaches drawn from this project. The first group is composed of models based on the notion of N-grams, in which the attribution of stress to a word happens based on the probability attributed to the `n\' sized chains that compose this word, which results in a model that is sensitive to patterns of co-occurrence and computationally efficient. The second group of models is called Naive Bayes Classifier, which is a more sophisticated probabilistic approach that is more corpus demanding, this approach takes into account a vector of features that was defined in order to attribute stress to a word. Those features were morphological, prosodic and segmental characteristics of the words

    Automatic punitivist hate speech detection in social media

    No full text
    O propósito deste trabalho é investigar a detecção automática do discurso de ódio punitivista em redes sociais. Para tanto, revisa a literatura sobre a tarefa de detecção automática de discurso de ódio em geral, traz a contextualização social e histórica sobre o que é o discurso de ódio punitivista e, a partir daí, passa por compilar um corpus de postagens de redes sociais, nomeado de Corpus de Discurso de Ódio Punitivista -- DOP -- para testar modelos de aprendizado de máquina dedicados a classificar textos como contendo discurso de ódio. Os modelos selecionados estão entre os mais utilizados nas tarefas de aprendizado de máquina e foram organizadas grades de hiperparâmetros para testar distintas configurações de cada modelo, a fim de gerar uma ampla gama de resultados, que são também comparados com os obtidos por um modelo genérico de detecção baseado em redes transformadores. Os resultados obtidos mostram que esse tipo de discurso de ódio tem comportamento similar ao de outros tipos mais estudados. Alguns modelos de aprendizado de máquina performam bem na tarefa de detecção automática. Os melhores resultados foram obtidos com o modelo de reforço extremo de gradiente (XGB), cuja métrica F1 obtida foi de o,76, contra o baseline de um modelo BERT específico para discurso de ódio em português, cuja métrica F1 foi de 0,49. Além disso, foi possível extrair algumas observações qualitativas sobre o fenômeno observado, que possibilitaram esboçar uma tipologia e alguns argumentos base do discurso de ódio punitivista. Dentro do campo da detecção automática de discurso de ódio, o fenômeno do ódio punitivista ainda não foi especificamente investigado. Além disso, ainda são poucos os trabalhos em português brasileiro sobre detecção automática de discurso de ódio em geral, especialmente dentro do ambiente das redes sociais. Apesar disso, dados de redes sociais são abundantes e cada vez mais o ambiente das redes se torna um espaço inevitável de socialização, ressaltando a importância de poder monitorar, identificar e alertar sobre comportamentos que estimulem o ódio e a violência, de forma que a tarefa de detecção automática de discurso de ódio constitui-se em uma ferramenta importante para o combate da disseminação de conteúdos tóxicos e agressivos.The purpose of this work is to investigate the automatic detection of punitivist hate speech in social media, therefore, it reviews the literature on the task of automatic detection of hate speech in general, brings the social and historical context about what is punitivist hate speech and then goes through compiling a corpus of social media posts, named Punitivist Hate Speech Corpus - Corpus DOP - to test machine learning models dedicated to classify texts as containing hate speech. The selected models are among the most used in machine learning tasks, and hyperparameter grids are organized to test different configurations of each model, in order to generate a wide range of results, which are also compared with those obtained by a generic detection model based on a transformer network. The results obtained show that this type of hate speech has a behavior similar to that of other more studied types and that some machine learning models perform well in the automatic detection task. The best results were obtained with the extreme gradient boost model (XGB), whose F1 metric obtained was 0.76, against the baseline of a specific BERT model for hate speech in Portuguese, whose F1 metric was 0.49. In addition, it was possible to extract some qualitative observations about the observed phenomenon, which made it possible to outline a typology and some basic arguments for punitivist hate speech. Within the field of automatic detection of hate speech, the phenomenon of punitivist hate has not yet been specifically investigated. In addition, there are still few works in Brazilian Portuguese on automatic detection of hate speech in general, especially within the social media environment. Despite this, data from social media is abundant and the network environment is increasingly becoming an inevitable space for socialization, highlighting the importance of being able to monitor, identify and alert about behaviors that encourage hatred and violence, so that the task automatic detection of hate speech constitutes an important tool to combat the dissemination of toxic and aggressive content

    Computational approach for the matter of stress in Brazilian Portuguese

    No full text
    O objetivo central do projeto foi investigar a questão do acento no português brasileiro por meio do uso de ferramentas computacionais, a fim de encontrar possíveis relações entre traços segmentais, prosódicos ou morfológicos com o acento. Tal análise foi realizada a partir do estudo crítico das principais soluções propostas para a questão advindas da Fonologia Teórica. Isso foi considerado o primeiro passo para desenvolver uma abordagem que traga inovação para a área. A discussão teórica foi concluída com a implementação de algoritmos que representam modelizações das propostas para o tratamento da questão do acento. Estas foram, posteriormente, testadas em corpora relevantes do português com o objetivo de analisar tanto os casos considerados como padrão pelas propostas, quanto aqueles que são considerados exceções ao comportamento do idioma. Simultaneamente, foi desenvolvido um corpus anotado de palavras acentuadas do português brasileiro, a partir do qual foram implementados os dois grupos de modelos de natureza probabilística que formam o quadro de abordagens desenhado pelo projeto. O primeiro grupo se baseia na noção de N-gramas, em que a atribuição de acento a uma palavra ocorre a partir da probabilidade das cadeias de tamanho \" que a compõem, configurando-se, assim, um modelo que enxerga padrões simples de coocorrência e que é computacionalmente eficiente. O segundo grupo de modelos foi chamado de classificador bayesiano ingênuo, que é uma abordagem probabilística mais sofisticada e exigente em termos de corpus e que leva em consideração um vetor de traços a serem definidos para, no caso, atribuir o acento de uma palavra. Esses traços englobaram tanto características morfológicas, quanto prosódicas e segmentais das palavras.The main goal of this project was to provide insight into the behavior of stress patterns of Brazilian Portuguese using computational tools in order to find eventual relationships between segmental, prosodic or morphologic features and word stress. Such analysis was based on a critical reading of some of the main proposals from theoretical phonology regarding the matter. This was considered the first step towards an innovative approach for this field of research. Such discussion was concluded by implementing algorithms representing models of the theoretical proposals for treating the behavior of stress. Afterward, those solutions were tested in relevant corpora of Portuguese aiming to analyze both the words which fell inside what was considered standard and the words that should be considered exceptions to the typical behavior in the language. Simultaneously, a noted corpus of Brazilian Portuguese words was compiled, from which were implemented both groups of models that have probabilistic nature that completes the frame of approaches drawn from this project. The first group is composed of models based on the notion of N-grams, in which the attribution of stress to a word happens based on the probability attributed to the `n\' sized chains that compose this word, which results in a model that is sensitive to patterns of co-occurrence and computationally efficient. The second group of models is called Naive Bayes Classifier, which is a more sophisticated probabilistic approach that is more corpus demanding, this approach takes into account a vector of features that was defined in order to attribute stress to a word. Those features were morphological, prosodic and segmental characteristics of the words

    Corpus ABG

    No full text
    RESUMO:Este artigo apresenta a metodologia empregada na compilação de um corpus linguístico do Português Brasileiro, o qual foi denominado de Corpus ABG, e no desenvolvimento de algumas ferramentas computacionais. O objetivo deste trabalho é reunir uma grande quantidade de textos, escritos e orais, que possa representar o falar brasileiro a fim de ser fonte de extração de dados fonológicos quantificados para duas pesquisas, a saber, Guide (2016) e Benevides (2017). O corpus contabiliza 3.616.625 ocorrências de palavras e 92.602 tipos de palavras, sendo que 1.938.805 ocorrências são provenientes dos corpora de fala e 1.676.820 ocorrências dos corpora escritos. Ancorado na metodologia da Linguística de Corpus e por meio de ferramentas computacionais desenvolvidas em Linguagem Python, o presente artigo divulga e disponibiliza à comunidade científica o Corpus ABG, as ferramentas computacionais (acentuador, categorizador de estruturas fonológicas, silabificador) e algumas informações fonológicas (acentuais e silábicas) já extraídas do corpus. Além disso, faz um convite a novas explorações dos dados a todos os pesquisadores que tiverem interesse.    ABSTRACT:The present paper presents the task of compiling a linguistic corpus of Brazilian Portuguese, which was undertaken by the authors. It is called ABG Corpus, and this article is also about the computational tools developed for the task. Our main goal is to reunite a large amount of texts, both from spoken and written language to, in the best way possible, represent the Brazilian language in a way that we could use it as a database for our researches, Guide (2016) and Benevides (2017). The ABG corpus has 3.616.625 word tokens and 92.602 types of words, being that 1.938.805 of those tokens are from spoken language corpora and 1.676.820 tokens come from written corpora. Based on the corpus linguistics framework and through the use of computational tools developed using Python, this article shows and provides access to the ABG Corpus, the computational tools (stress marker, phonological structure identifier, syllabifier), as well as some phonological information (stress and syllable related), already present on the corpus. We end by inviting the community to further expand our findings and explore this new tool

    Viability of remanufacturing practice: a strategic decision making framework for Chinese auto-parts companies

    Get PDF
    Remanufacturing is a sustainable and proven profitable practice in the western world. Research on remanufacturing practices is relatively unexploited in China, despite being the “global factory” and both the world's largest automobile manufacturer and vehicle market. The increasing amount of automotive output and End-of-Life vehicles (ELVs) in China provides Chinese auto-parts companies with significant potential for environmentally conscious manufacturing and product recovery. Using case studies, we have investigated the status of remanufacturing practices, key determinants for strategic decision making to remanufacture in-house, outsource remanufacturing and/or not to engage in remanufacturing in Chinese auto parts firms using an analytical hierarchy process (AHP). This study suggests that Chinese firms are keen to adopt remanufacturing practice in-house compared to outsourcing despite a lack of technical and managerial capabilities

    Validation of registration techniques applied to XRD signals for stress evaluations in titanium alloys

    No full text
    To estimate stresses near specimen surfaces, X-ray diffraction (XRD) is applied to titanium alloys. Some of these alloys are difficult to study since they are composed of various phases of different proportions, shapes and scales. For millimetric probed volumes, such multi-phase microstructures induce shallow and noisy diffraction signals. Two peak registration techniques are introduced and validated thanks to tensile tests performed on two titanium alloy samples
    corecore