Les modèles vectoriels de la mémoire sémantique : description, validation et perspectives

Abstract

International audience"Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) and "Hyperspace Analog to Language " (HAL ; Lund et Burgess, 1996) models can be called abstractive models (Tiberghien, 1997) because they model a semantic generalization over a number of learning episodes. LSA and HAL statistically analyze distribution of terms belonging to a large textual corpus to elaborate a semantic space in which each term is represented by a vector. The main goal of this note is to describe these two models by comparing them each other. We show that LSA and HAL are able to predict priming experiment data and to be combined with a comprehension model like Construction-Integration (Kintsch, 1988) to simulate in a realistic manner, signification access, predication process and construction of a consistent mental representation of a text.Les modèles "Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) et "Hyperspace Analog to Language" (HAL ; Lund et Burgess, 1996) peuvent être qualifiés d’abstractifs (Tiberghien, 1997) car ils modélisent le résultat d’une généralisation sémantique sur un ensemble d’épisodes d’apprentissage. Ces modèles analysent statistiquement la distribution de termes dans de larges corpus textuels pour élaborer un espace sémantique dans lequel chaque terme est représenté par un vecteur. L’objectif de cet article est de décrire ces deux modèles en les comparant. Nous montrons que ces modèles sont capables de prédire des résultats d’amorçage sémantique et qu’ils peuvent être couplés à des modèles de compréhension tels que Construction-Intégration (Kintsch, 1988) pour simuler l’accès à la signification, la prédication et la construction d’une représentation mentale cohérente d’un texte

    Similar works

    Full text

    thumbnail-image

    Available Versions