49 research outputs found

    Rethinking Wasserstein-Procrustes for Aligning Word Embeddings Across Languages

    Get PDF
    L'aparici贸 de word embeddings sense supervisi贸, pre-entrenats en textos monoling眉es molt grans, 茅s el nucli de la revoluci贸 neuronal en curs en el Processament de el Llenguatge Natural (NLP). Inicialment introdu茂ts per a l'angl猫s, els word embeddings pre-entrenats van sorgir r脿pidament per a altres idiomes. Posteriorment, hi ha hagut una s猫rie d'intents d'alinear els espais d'aquests word embeddings de diferents idiomes d'una manera supervisada, semi-supervisada o sense supervisi贸, el que podria permetre una s猫rie d'aplicacions NLP en diversos idiomes. En els enfocaments supervisats, l'alineaci贸 generalment es realitza d'acord amb la rotaci贸 que minimitza la norma de Frobenius en el problema de Procrustes, que t茅 una soluci贸 de forma tancada, f脿cilment obtenible utilitzant la descomposici贸 de valors singulars (SVD). La formulaci贸 no supervisada de el problema 茅s m茅s complicada ja que necessita optimitzar l'objectiu de Wasserstein-Procrustes i, a la pr脿ctica, la majoria dels estudis recorren a alguna modificaci贸 d'aquest objectiu. En el present treball, ensenyem com les propietats de problemes equivalents a Wasserstein-Procrustes poden ajudar en la configuraci贸 no supervisada. A m茅s, mostrem que, tant en les configuracions supervisades com no supervisades, els actuals m猫todes de traducci贸 es poden millorar mitjan莽ant un algoritme bastant simple que optimitza l'objectiu de Wasserstein-Procrustes. Finalment, una modificaci贸 d'aquest algoritme utilitzant nom茅s una mica de supervisi贸 pot produir resultats satisfactoris. Creiem que el nostre replantejament de el problema de Wasserstein-Procrustes permetria una millor investigaci贸 i eventualment ajudaria a desenvolupar millors algoritmes per alinear word embeddings en tots els idiomes.La aparici贸n de word embeddings sin supervisi贸n, pre-entrenados en textos monoling眉es muy grandes, es el n煤cleo de la revoluci贸n neuronal en curso en el Procesamiento del Lenguaje Natural (NLP). Inicialmente introducidos para el ingl茅s, tales word embeddings pre-entrenados surgieron r谩pidamente para otros idiomas. Posteriormente, ha habido una serie de intentos de alinear los espacios de dichos word embeddings de distintos idiomas de una manera supervisada, semi-supervisada o sin supervisi贸n, lo que podr铆a permitir una serie de aplicaciones NLP en varios idiomas. En los enfoques supervisados, la alineaci贸n generalmente se realiza de acuerdo con la rotaci贸n que minimiza la norma de Frobenius en el problema de Procrustes, que tiene una soluci贸n de forma cerrada, f谩cilmente obtenible utilizando la descomposici贸n de valores singulares (SVD). La formulaci贸n no supervisada del problema es m谩s complicada ya que necesita optimizar el objetivo de Wasserstein-Procrustes y, en la pr谩ctica, la mayor铆a de los enfoques recurren a alguna modificaci贸n de este objetivo. En el presente trabajo, mostramos c贸mo las propiedades de problemas equivalentes a Wasserstein-Procrustes pueden ayudar en la configuraci贸n no supervisada. Adem谩s, mostramos que, tanto en las configuraciones supervisadas como no supervisadas, los actuales m茅todos de traducci贸n se pueden mejorar mediante un algoritmo bastante simple que optimiza el objetivo de Wasserstein-Procrustes. Finalmente, una modificaci贸n de este algoritmo usando solo un poco de supervisi贸n puede producir resultados satisfactorios. Creemos que nuestro replanteamiento del problema de Wasserstein-Procrustes permitir铆a una mayor investigaci贸n y eventualmente ayudar铆a a desarrollar mejores algoritmos para alinear word embeddings en todos los idiomas.The emergence of unsupervised word embeddings, pre-trained on very large monolingual text corpora, is at the core of the ongoing neural revolution in Natural Language Processing (NLP). Initially introduced for English, such pre-trained word embeddings quickly emerged for a number of other languages. Subsequently, there have been a number of attempts to align the embedding spaces across languages in a supervised, semi-supervised, or an unsupervised manner, which could enable a number of cross-language NLP applications. In supervised approaches, the alignment is typically done according to the rotation that minimizes the Frobenius norm in the Procrustes problem, which has a closed-form solution, easily obtainable using singular value decomposition (SVD). The unsupervised formulation of the problem is more challenging as it needs to optimize the much harder Wasserstein-Procrustes objective, and thus, in practice, most approaches resort to some modification of this objective. In the present work, we demonstrate how properties of problems equivalent to Wasserstein-Procrustes can help in the unsupervised setup. We further show that, both in the supervised and unsupervised setups, strong baselines can be improved by a rather simple algorithm that optimizes the Wasserstein-Procrustes objective. Finally, a modification of this algorithm using just a little supervision can yield satisfactory results. We believe that our rethinking of the Wasserstein-Procrustes problem would enable further research and would eventually help develop better algorithms for aligning word embeddings across languages.Outgoin
    corecore