20 research outputs found

    A semantic space for modeling children's semantic memory

    Full text link
    The goal of this paper is to present a model of children's semantic memory, which is based on a corpus reproducing the kinds of texts children are exposed to. After presenting the literature in the development of the semantic memory, a preliminary French corpus of 3.2 million words is described. Similarities in the resulting semantic space are compared to human data on four tests: association norms, vocabulary test, semantic judgments and memory tasks. A second corpus is described, which is composed of subcorpora corresponding to various ages. This stratified corpus is intended as a basis for developmental studies. Finally, two applications of these models of semantic memory are presented: the first one aims at tracing the development of semantic similarities paragraph by paragraph; the second one describes an implementation of a model of text comprehension derived from the Construction-integration model (Kintsch, 1988, 1998) and based on such models of semantic memory

    A Computational Model for Simulating Text Comprehension

    No full text
    International audienceIn the present article, we outline the architecture of a computer program for simulating the process by which humans comprehend texts. The program is based on psycholinguistic theories about human memory and text comprehension processes, such as the onstruction-integration model (Kintsch, 1998), the latent semantic analysis theory of knowledge representation (Landauer & Dumais, 1997), and the predication algorithms (Kintsch, 2001; Lemaire & Bianco, 2003), and it is intended to help psycholinguists investigate the way humans comprehend texts

    Compréhension de texte et mémoire de travail à long terme (expérimentations et simulations)

    No full text
    Cette thèse est consacrée à l'étude de la mémoire de travail à long terme dans l'activité de compréhension de texte. Nous considérons que les modèles classiques de la mémoire de travail à court terme (Baddeley, 1986, 2000 ; Juste et Carpenter, 1992) ainsi que les modèles les plus récents de la mémoire à long terme, (Hintzam, 1986 ; Landaeur & Dumais, 1997 ; Lund & Burgess, 1996 ; Murdock, 1993, 1997) sont insuffisants pour expliquer la cognition complexe. Nous soutenons une théorie, la mémoire de travail à long terme (Ericsson & Kintsch, 1995), qui tient compte de l'interaction entre deux types d'apprentissage : par conjonction et par généralisation. Nous supposons que la compréhension de texte est une activité complexe qui consiste à construire la trace épisodique de chaque phrase par conjonction et à faire émerger une structure de récupération composée de macropropositions, par généralisation des informations encodées. Un premier test a consisté à mettre en évidence que, plus un texte est familier, plus les informations encodées sont généralisées, et par là, l'émergence d'une structure de récupération efficace. Nous utilisons une procédure d'interruption qui permet de vider le contenu de la mémoire de travail à court terme et nous faisons varier la familiarité des textes et la nature des questions qui portent sur le texte interrompu. Un deuxième test a consisté à mettre en évidence que les indices qui composent la structure de récupération, associés aux informations encodées, sont des macropropositions. Nous confrontons cette hypothèse aux hypothèses dérivées d'autres modèles de la compréhension de texte et nous utilisons une procédure d'interruption, en insérant après une interruption de lecture une phrase Sonde dont on manipule les caractéristiques. Les résultats de nos expériences, compatibles avec nos hypothèses, ont permis de construire un modèle qui simule l'intervention de la mémoire de travail à long terme en cours de lecture.AIX-MARSEILLE1-BU Lettres (130012101) / SudocSudocFranceF

    Les modèles vectoriels de la mémoire sémantique : description, validation et perspectives

    No full text
    International audience"Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) and "Hyperspace Analog to Language " (HAL ; Lund et Burgess, 1996) models can be called abstractive models (Tiberghien, 1997) because they model a semantic generalization over a number of learning episodes. LSA and HAL statistically analyze distribution of terms belonging to a large textual corpus to elaborate a semantic space in which each term is represented by a vector. The main goal of this note is to describe these two models by comparing them each other. We show that LSA and HAL are able to predict priming experiment data and to be combined with a comprehension model like Construction-Integration (Kintsch, 1988) to simulate in a realistic manner, signification access, predication process and construction of a consistent mental representation of a text.Les modèles "Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) et "Hyperspace Analog to Language" (HAL ; Lund et Burgess, 1996) peuvent être qualifiés d’abstractifs (Tiberghien, 1997) car ils modélisent le résultat d’une généralisation sémantique sur un ensemble d’épisodes d’apprentissage. Ces modèles analysent statistiquement la distribution de termes dans de larges corpus textuels pour élaborer un espace sémantique dans lequel chaque terme est représenté par un vecteur. L’objectif de cet article est de décrire ces deux modèles en les comparant. Nous montrons que ces modèles sont capables de prédire des résultats d’amorçage sémantique et qu’ils peuvent être couplés à des modèles de compréhension tels que Construction-Intégration (Kintsch, 1988) pour simuler l’accès à la signification, la prédication et la construction d’une représentation mentale cohérente d’un texte

    Les modèles vectoriels de la mémoire sémantique : description, validation et perspectives

    No full text
    International audience"Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) and "Hyperspace Analog to Language " (HAL ; Lund et Burgess, 1996) models can be called abstractive models (Tiberghien, 1997) because they model a semantic generalization over a number of learning episodes. LSA and HAL statistically analyze distribution of terms belonging to a large textual corpus to elaborate a semantic space in which each term is represented by a vector. The main goal of this note is to describe these two models by comparing them each other. We show that LSA and HAL are able to predict priming experiment data and to be combined with a comprehension model like Construction-Integration (Kintsch, 1988) to simulate in a realistic manner, signification access, predication process and construction of a consistent mental representation of a text.Les modèles "Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) et "Hyperspace Analog to Language" (HAL ; Lund et Burgess, 1996) peuvent être qualifiés d’abstractifs (Tiberghien, 1997) car ils modélisent le résultat d’une généralisation sémantique sur un ensemble d’épisodes d’apprentissage. Ces modèles analysent statistiquement la distribution de termes dans de larges corpus textuels pour élaborer un espace sémantique dans lequel chaque terme est représenté par un vecteur. L’objectif de cet article est de décrire ces deux modèles en les comparant. Nous montrons que ces modèles sont capables de prédire des résultats d’amorçage sémantique et qu’ils peuvent être couplés à des modèles de compréhension tels que Construction-Intégration (Kintsch, 1988) pour simuler l’accès à la signification, la prédication et la construction d’une représentation mentale cohérente d’un texte

    Texte, MĂ©moire et Corpus

    No full text
    International audienc

    Simulation de la compréhension de textes

    No full text
    International audienc

    Texte, MĂ©moire et Corpus

    No full text
    International audienc
    corecore