10 research outputs found

    Interlingual Lexical Organisation for Multilingual Lexical Databases in NADIA

    Full text link
    We propose a lexical organisation for multilingual lexical databases (MLDB). This organisation is based on acceptions (word-senses). We detail this lexical organisation and show a mock-up built to experiment with it. We also present our current work in defining and prototyping a specialised system for the management of acception-based MLDB. Keywords: multilingual lexical database, acception, linguistic structure.Comment: 5 pages, Macintosh Postscript, published in COLING-94, pp. 278-28

    Papillon: a Project of Lexical Database for English, French and Japanese, using Interlingual Links

    No full text
    International audienceThis paper presents a new project, called Papillon [Papillon00]. Its goal is to build a French-English-Japanese multilingual lexical database by using interlingual links and to extract from it digital bilingual French-Japanese and Japanese-French dictionaries. These dictionaries will be available under the terms of an open source licence. This project, initiated by some computational linguists, aims at being useful and open to all those who are interested in Japanese and French. A seminar was organized on the 10-12 of August 2000 in Tokyo [Planas00]. It was devoted to discussions aiming at reaching a general consensus on the structure and content of the database, and to decide some technical aspects of database development, i.e. database configuration, contents of the entries and link between the entries

    Papillon Lexical Database Project: Monolingual Dictionaries and Interlingual Links

    No full text
    International audienceThis paper presents a new research and development project called Papillon. It started as a French-Japanese cooperation between laboratories GETA/CLIPS (Grenoble, France) and NII (Tokyo, Japan). Its goal is to build a multilingual lexical database and to extract from it digital bilingual dictionaries. The database is built with monolingual dictionaries, one for each language of the database, linked to an interlingual dictionary. The pivot architecture of the database is based on Gilles Sérasset's Ph.D. thesis. The structure of the monolingual dictionaries is based on the lexical work done by Igor Melc'uk and Alain Polguère. From the lexical database, it is planned to derive user customized bilingual dictionaries in multiple target formats. It will be possible to generate human usage dictionaries as well as specialized dictionaries for machine translation software. These dictionaries will be available under the terms of an open source license. This project, initiated by some computational linguists, aims at being useful and open to all those who are interested in Japanese and French. It is also opened to any other language. Moreover, the pivot architecture of the database will facilitate the addition of new languages and save translation efforts

    Création d'une base terminologique juridique multilingue à l'aide de la plateforme générique Jibiki : le projet LexALP

    No full text
    International audienceCet article présente l'utilisation de "Jibiki" (la plateforme de développement du serveur web Papillon) dans le cadre du projet LexALP. Le but de ce projet est d'harmoniser la terminologie des quatre langues (français, allemand, italien et slovène) de la Convention Alpine de sorte que les états membres puissent coopérer efficacement. Pour cela, le projet utilise la plateforme Jibiki afin de construire une banque terminologique permettant de comparer la terminologie spécialisée de sept systèmes légaux dans quatre langues, et de l'harmoniser, optimisant ainsi la compréhension entre les états alpins sur des questions environnementales au niveau supranational. Dans cet article, nous présentons comment peut être employée la plateforme générique Jibiki afin de gérer un dictionnaire particulier

    Using conceptual vectors to get Magn collocations (and using contrastive properties to get their translations)

    No full text
    International audienceThis paper presents a semi-automatic approach for extraction of collocations from corpora which uses the results of Conceptual Vectors as a semantic filter. First, this method estimates the ability of each co-occurrence to be a collocation, using a statistical measure based on the fact that it occurs more often than by chance. Then the results are automatically filtered (with conceptual vectors) to retain only one given semantic kind of collocations. Finally we perform a new filtering based on manually entered data. Our evaluation on monolingual and bilingual experiments shows the interest to combine automatic extraction and manual intervention to extract collocations (to fill multilingual lexical databases). It proves especially that the use of conceptual vectors to filter the candidates allows us to increase the precision noticeably

    La plate-forme "Jibiki" dans le projet LexALP

    No full text
    International audienceLe but du projet LexALP est d'harmoniser la terminologie en aménagement du territoire et développement durable au sein de la Convention Alpine afin de permettre aux états membres de communiquer et coopérer efficacement dans les quatre langues officielles (Allemand, Français, Italien et Slovène). Dans ce but, LexALP utilise la plate-forme " jibiki " pour construire une banque de termes permettant l'analyse contrastive de la terminologie spécia-lisée utilisée dans six systèmes légaux nationaux, trois systèmes supra-nationaux et quatre langues. Dans cet article, nous montrons comment la plate-forme Jibiki est utilisée pour implanter la banque de termes du projet LexALP

    Interlingual lexical organisation for multilingual lexical databases in NADIA

    No full text

    Interlingual Lexical Organisation for Multilingual Lexical Databases in NADIA

    No full text
    International audienceWe propose a lexical organisation for multilingual lexical databases (MLDB). This organisation is based on acceptions (word-senses). W e detail this lexical organisation and show a mock-up built to experiment with it. We also present our current work in defining and prototyping a specialised system for the management of acception-based MLDB

    Localisation interne et en contexte des logiciels commerciaux et libres

    No full text
    We propose a novel approach that allows in context localization of most commercial and open source software. Currently, the translation of textual resources of software (technical documents, online help, strings of the user interface, etc.) is entrusted only to professional translators. This makes the localization process long, expensive and sometimes of poor quality because professional translators have no knowledge about the context of use of the software. This current workflow seems impossible to apply for most under-resourced languages for reasons of cost, and quite often scarcity or even lack of professional translators. Our proposal aims at involving end users in the localization process in an efficient and dynamic way: while using an application (in context), users knowing the source language of the software (Often but not always English) could modify strings of the user interface presented by the application in their current context. So, users could translate in context buttons, menus, labels, tabpage, etc. or improve translations proposed by machine translation (MT) or translation memory (TM) systems. To implement this new paradigm, we modify the code as little as possible, very locally and in the same way for all software. Hence our localization method is internal. The implementation of such approach of localization required integration of a translation workflow built with SECTra_w. Thus, we have a new tripartite process of localization which parties are: the user, the software editor and the collaborative SECTra_w Web site. We have experimented our approach on Notepad-plus-plus and on Vuze, two open source applications.Nous proposons une méthode novatrice pour permettre la localisation en contexte de la majorité des logiciels commerciaux et libres, ceux programmés en Java et en C++/C#. Actuellement, la traduction des documents techniques ainsi que celle des éléments d'interface des logiciels commerciaux est confiée uniquement à des professionnels, ce qui allonge le processus de traduction, le rend coûteux, et quelquefois aboutit à une mauvaise qualité car les traducteurs professionnels n'ont pas accès au contexte d'utilisation des éléments textuels. Dès que l'on sort du petit ensemble des quelques langues les mieux dotées, et que lon veut localiser un logiciel pour des " langues peu dotées ", ce processus n'est plus viable pour des raisons de coût et surtout de rareté, de cherté, ou d'absence de traducteurs professionnels. Notre méthode consiste à faire participer de façon efficace et dynamique les bêta-testeurs et les utilisateurs finals au processus de localisation : pendant qu'ils utilisent l'application, les utilisateurs connaissant la langue originale du logiciel (souvent mais pas toujours l'anglais) peuvent intervenir sur les éléments textuels d'interface que l'application leur présente dans leur contexte d'utilisation courant. Ils peuvent ainsi traduire en contexte les boutons, les menus, les étiquettes, les onglets, etc., ou améliorer la traduction proposée par des systèmes de traduction automatique (TA) ou des mémoires de traductions (MT). Afin de mettre en place ce nouveau paradigme, nous avons besoin d'intervenir très localement sur le code source du logiciel : il s'agit donc aussi d'un paradigme de localisation interne. La mise en place d'une telle approche de localisation a nécessité l'intégration d'un gestionnaire de flot de traductions " SECTra_w ". Ainsi, nous avons un nouveau processus de localisation tripartite dont les trois parties sont l'utilisateur, l'éditeur du logiciel et le site collaboratif SECTra_w. Nous avons effectué une expérimentation complète du nouveau processus de localisation sur deux logiciels libres à code source ouvert : Notepad-plus-plus et Vuze
    corecore