1,216 research outputs found

    Constrained Density Matching and Modeling for Cross-lingual Alignment of Contextualized Representations

    Full text link
    Multilingual representations pre-trained with monolingual data exhibit considerably unequal task performances across languages. Previous studies address this challenge with resource-intensive contextualized alignment, which assumes the availability of large parallel data, thereby leaving under-represented language communities behind. In this work, we attribute the data hungriness of previous alignment techniques to two limitations: (i) the inability to sufficiently leverage data and (ii) these techniques are not trained properly. To address these issues, we introduce supervised and unsupervised density-based approaches named Real-NVP and GAN-Real-NVP, driven by Normalizing Flow, to perform alignment, both dissecting the alignment of multilingual subspaces into density matching and density modeling. We complement these approaches with our validation criteria in order to guide the training process. Our experiments encompass 16 alignments, including our approaches, evaluated across 6 language pairs, synthetic data and 5 NLP tasks. We demonstrate the effectiveness of our approaches in the scenarios of limited and no parallel data. First, our supervised approach trained on 20k parallel data (sentences) mostly surpasses Joint-Align and InfoXLM trained on over 100k parallel sentences. Second, parallel data can be removed without sacrificing performance when integrating our unsupervised approach in our bootstrapping procedure, which is theoretically motivated to enforce equality of multilingual subspaces. Moreover, we demonstrate the advantages of validation criteria over validation data for guiding supervised training.Comment: ACML2022 Camera Read

    Rethinking Wasserstein-Procrustes for Aligning Word Embeddings Across Languages

    Get PDF
    L'aparició de word embeddings sense supervisió, pre-entrenats en textos monolingües molt grans, és el nucli de la revolució neuronal en curs en el Processament de el Llenguatge Natural (NLP). Inicialment introduïts per a l'anglès, els word embeddings pre-entrenats van sorgir ràpidament per a altres idiomes. Posteriorment, hi ha hagut una sèrie d'intents d'alinear els espais d'aquests word embeddings de diferents idiomes d'una manera supervisada, semi-supervisada o sense supervisió, el que podria permetre una sèrie d'aplicacions NLP en diversos idiomes. En els enfocaments supervisats, l'alineació generalment es realitza d'acord amb la rotació que minimitza la norma de Frobenius en el problema de Procrustes, que té una solució de forma tancada, fàcilment obtenible utilitzant la descomposició de valors singulars (SVD). La formulació no supervisada de el problema és més complicada ja que necessita optimitzar l'objectiu de Wasserstein-Procrustes i, a la pràctica, la majoria dels estudis recorren a alguna modificació d'aquest objectiu. En el present treball, ensenyem com les propietats de problemes equivalents a Wasserstein-Procrustes poden ajudar en la configuració no supervisada. A més, mostrem que, tant en les configuracions supervisades com no supervisades, els actuals mètodes de traducció es poden millorar mitjançant un algoritme bastant simple que optimitza l'objectiu de Wasserstein-Procrustes. Finalment, una modificació d'aquest algoritme utilitzant només una mica de supervisió pot produir resultats satisfactoris. Creiem que el nostre replantejament de el problema de Wasserstein-Procrustes permetria una millor investigació i eventualment ajudaria a desenvolupar millors algoritmes per alinear word embeddings en tots els idiomes.La aparición de word embeddings sin supervisión, pre-entrenados en textos monolingües muy grandes, es el núcleo de la revolución neuronal en curso en el Procesamiento del Lenguaje Natural (NLP). Inicialmente introducidos para el inglés, tales word embeddings pre-entrenados surgieron rápidamente para otros idiomas. Posteriormente, ha habido una serie de intentos de alinear los espacios de dichos word embeddings de distintos idiomas de una manera supervisada, semi-supervisada o sin supervisión, lo que podría permitir una serie de aplicaciones NLP en varios idiomas. En los enfoques supervisados, la alineación generalmente se realiza de acuerdo con la rotación que minimiza la norma de Frobenius en el problema de Procrustes, que tiene una solución de forma cerrada, fácilmente obtenible utilizando la descomposición de valores singulares (SVD). La formulación no supervisada del problema es más complicada ya que necesita optimizar el objetivo de Wasserstein-Procrustes y, en la práctica, la mayoría de los enfoques recurren a alguna modificación de este objetivo. En el presente trabajo, mostramos cómo las propiedades de problemas equivalentes a Wasserstein-Procrustes pueden ayudar en la configuración no supervisada. Además, mostramos que, tanto en las configuraciones supervisadas como no supervisadas, los actuales métodos de traducción se pueden mejorar mediante un algoritmo bastante simple que optimiza el objetivo de Wasserstein-Procrustes. Finalmente, una modificación de este algoritmo usando solo un poco de supervisión puede producir resultados satisfactorios. Creemos que nuestro replanteamiento del problema de Wasserstein-Procrustes permitiría una mayor investigación y eventualmente ayudaría a desarrollar mejores algoritmos para alinear word embeddings en todos los idiomas.The emergence of unsupervised word embeddings, pre-trained on very large monolingual text corpora, is at the core of the ongoing neural revolution in Natural Language Processing (NLP). Initially introduced for English, such pre-trained word embeddings quickly emerged for a number of other languages. Subsequently, there have been a number of attempts to align the embedding spaces across languages in a supervised, semi-supervised, or an unsupervised manner, which could enable a number of cross-language NLP applications. In supervised approaches, the alignment is typically done according to the rotation that minimizes the Frobenius norm in the Procrustes problem, which has a closed-form solution, easily obtainable using singular value decomposition (SVD). The unsupervised formulation of the problem is more challenging as it needs to optimize the much harder Wasserstein-Procrustes objective, and thus, in practice, most approaches resort to some modification of this objective. In the present work, we demonstrate how properties of problems equivalent to Wasserstein-Procrustes can help in the unsupervised setup. We further show that, both in the supervised and unsupervised setups, strong baselines can be improved by a rather simple algorithm that optimizes the Wasserstein-Procrustes objective. Finally, a modification of this algorithm using just a little supervision can yield satisfactory results. We believe that our rethinking of the Wasserstein-Procrustes problem would enable further research and would eventually help develop better algorithms for aligning word embeddings across languages.Outgoin

    GRI: Graph-based Relative Isomorphism of Word Embedding Spaces

    Full text link
    Automated construction of bilingual dictionaries using monolingual embedding spaces is a core challenge in machine translation. The end performance of these dictionaries relies upon the geometric similarity of individual spaces, i.e., their degree of isomorphism. Existing attempts aimed at controlling the relative isomorphism of different spaces fail to incorporate the impact of semantically related words in the training objective. To address this, we propose GRI that combines the distributional training objectives with attentive graph convolutions to unanimously consider the impact of semantically similar words required to define/compute the relative isomorphism of multiple spaces. Experimental evaluation shows that GRI outperforms the existing research by improving the average P@1 by a relative score of up to 63.6%. We release the codes for GRI at https://github.com/asif6827/GRI
    corecore