6,135 research outputs found

    Visual attention-capture cue in depicted scenes fails to modulate online sentence processing

    Get PDF
    Everyday communication is enriched by the visual environment that listeners concomitantly link to the linguistic input. If and when visual cues are integrated into the mental meaning representation of the communicative setting, is still unclear. In our earlier findings, the integration of linguistic cues (i.e., topic-hood of a discourse referent) reduced discourse updating costs of the mental representation as indicated by reduced sentence-initial processing costs of the non-canonical word order in German. In the present study we tried to replicate our earlier findings by replacing the linguistic cue by a visual attention-capture cue presented below the threshold of perception in order to direct participant’s attention to a depicted referent. While this type of cue has previously been shown to modulate word order preferences in sentence production, we found no effects on sentence comprehension. We discuss possible theory-based reasons for the null effect of the implicit visual cue as well as methodological caveats and issues that should be considered in future research on multimodal meaning integration

    Influence of speakers' gaze on situated language comprehension: Evidence from Event-Related Potentials

    Get PDF
    Behavioral studies have shown that speaker gaze to objects in a co-present scene can influence listeners' sentence comprehension. To gain deeper insight into the mechanisms involved in gaze processing and integration, we conducted two ERP experiments (N = 30, Age: [18, 32] and [19, 33] respectively). Participants watched a centrally positioned face performing gaze actions aligned to utterances comparing two out of three displayed objects. They were asked to judge whether the sentence was true given the provided scene. We manipulated the second gaze cue to be either Congruent (baseline), Incongruent or Averted (Exp1)/Mutual (Exp2). When speaker gaze is used to form lexical expectations about upcoming referents, we found an attenuated N200 when phonological information confirms these expectations (Congruent). Similarly, we observed attenuated N400 amplitudes when gaze-cued expectations (Congruent) facilitate lexical retrieval. Crucially, only a violation of gaze-cued lexical expectations (Incongruent) leads to a P600 effect, suggesting the necessity to revise the mental representation of the situation. Our results support the hypothesis that gaze is utilized above and beyond simply enhancing a cued object's prominence. Rather, gaze to objects leads to their integration into the mental representation of the situation before they are mentioned

    Preferential Inspection of Recent Real-World Events Over Future Events: Evidence from Eye Tracking during Spoken Sentence Comprehension

    Get PDF
    Eye-tracking findings suggest people prefer to ground their spoken language comprehension by focusing on recently seen events more than anticipating future events: When the verb in NP1-VERB-ADV-NP2 sentences was referentially ambiguous between a recently depicted and an equally plausible future clipart action, listeners fixated the target of the recent action more often at the verb than the object that hadn’t yet been acted upon. We examined whether this inspection preference generalizes to real-world events, and whether it is (vs. isn’t) modulated by how often people see recent and future events acted out. In a first eye-tracking study, the experimenter performed an action (e.g., sugaring pancakes), and then a spoken sentence either referred to that action or to an equally plausible future action (e.g., sugaring strawberries). At the verb, people more often inspected the pancakes (the recent target) than the strawberries (the future target), thus replicating the recent-event preference with these real-world actions. Adverb tense, indicating a future versus past event, had no effect on participants’ visual attention. In a second study we increased the frequency of future actions such that participants saw 50/50 future and recent actions. During the verb people mostly inspected the recent action target, but subsequently they began to rely on tense, and anticipated the future target more often for future than past tense adverbs. A corpus study showed that the verbs and adverbs indicating past versus future actions were equally frequent, suggesting long-term frequency biases did not cause the recent-event preference. Thus, (a) recent real-world actions can rapidly influence comprehension (as indexed by eye gaze to objects), and (b) people prefer to first inspect a recent action target (vs. an object that will soon be acted upon), even when past and future actions occur with equal frequency. A simple frequency-of-experience account cannot accommodate these findings

    The Effects of Social Context and Perspective on Language Processing: Evidence from Autism Spectrum Disorder

    Get PDF
    This thesis aimed to provide new insights into the role of perspective and non-linguistic context in language processing among autistic and typically developing (TD) adults. The mental simulation account and the one-step model state that language is mentally simulated and interpreted in context, suggesting that these processes are activated online while linguistic input is processed. Little is known of whether the same processes are activated in autism. In seven experiments (four were fully pre-registered), I used offline and online measures (e.g. EEG, eye-tracking) to investigate how social factors, such as the perspective, speaker's voice, emotional states of the characters, and topic of conversation influence language comprehension in both lab and real-life settings, in autism and TD adults. Based on the weak central coherence (WCC), and the complex information processing disorder (CIPD) theories, it was expected that autistic adults would struggle to integrate the social context with language, or at least show some subtle delays in the time-course of these anticipation/integration processes. First, I failed to find the same effect as previous findings, showing enhanced processing for personalized language, suggesting that this process is dependent on individual preferences in perspective-taking and task demands. Furthermore, I found that contrary to the WCC, autistic individuals had an intact ability to integrate social context online, while extracting the meaning from language. There were subtle differences in the time-course and strength of these processes between autistic and TD adults under high cognitive load. Findings are in line with CIPD hypothesis, showing that online language processes are disrupted as task demands increase, which consequently affect the quality of their social interactions. Future research should further investigate how these subtle differences impact social communication abilities in everyday life in autism

    The Processing of Emotional Sentences by Young and Older Adults: A Visual World Eye-movement Study

    Get PDF
    Carminati MN, Knoeferle P. The Processing of Emotional Sentences by Young and Older Adults: A Visual World Eye-movement Study. Presented at the Architectures and Mechanisms of Language and Processing (AMLaP), Riva del Garda, Italy

    The immediate influence of speaker gaze on situated speech comprehension : evidence from multiple ERP components

    Get PDF
    This thesis presents results from three ERP experiments on the influence of speaker gaze on listeners’ sentence comprehension with focus on the utilization of speaker gaze as part of the communicative signal. The first two experiments investigated whether speaker gaze was utilized in situated communication to form expectations about upcoming referents in an unfolding sentence. Participants were presented with a face performing gaze actions toward three objects surrounding it time aligned to utterances that compared two of the three objects. Participants were asked to judge whether the sentence they heard was true given the provided scene. Gaze cues preceded the naming of the corresponding object by 800ms. The gaze cue preceding the mentioning of the second object was manipulated such that it was either Congruent, Incongruent or Uninformative (Averted toward an empty position in experiment 1 and Mutual (redirected toward the listener) in Experiment 2). The results showed that speaker gaze was used to form expectations about the unfolding sentence indicated by three observed ERP components that index different underlying mechanisms of language comprehension: an increased Phonological Mapping Negativity (PMN) was observed when an unexpected (Incongruent) or unpredictable (Uninformative) phoneme is encountered. The retrieval of a referent’s semantics was indexed by an N400 effect in response to referents following both Incongruent and Uninformative gaze. Additionally, an increased P600 response was present only for preceding Incongruent gaze, indexing the revision process of the mental representation of the situation. The involvement of these mechanisms has been supported by the findings of the third experiment, in which linguistic content was presented to serve as a predictive cue for subsequent speaker gaze. In this experiment the sentence structure enabled participants to anticipate upcoming referents based on the preceding linguistic content. Thus, gaze cues preceding the mentioning of the referent could also be anticipated. The results showed the involvement of the same mechanisms as in the first two experiments on the referent itself, only when preceding gaze was absent. In the presence of object-directed gaze, while there were no longer significant effects on the referent itself, effects of semantic retrieval (N400) and integration with sentence meaning (P3b) were found on the gaze cue. Effects in the P3b (Gaze) and P600 (Referent) time-window further provided support for the presence of a mechanism of monitoring of the mental representation of the situation that subsumes the integration into that representation: A positive deflection was found whenever the communicative signal completed the mental representation such that an evaluation of that representation was possible. Taken together, the results provide support for the view that speaker gaze, in situated communication, is interpreted as part of the communicative signal and incrementally used to inform the mental representation of the situation simultaneously with the linguistic signal and that the mental representation is utilized to generate expectations about upcoming referents in an unfolding utterance.Diese Arbeit befasst sich mit der Frage, ob und in welchem Maße Zuhörer in situierten, kommunikativen Interaktionen den Blick des Sprechers nutzen, um Erwartungen ĂŒber Nennungen in einem sich entfaltenden Satz zu formen und diese, gegebenenfalls, zu evaluieren. Die in dieser Arbeit prĂ€sentierten Experimente mit Ereigniskorrelierten Potentialen (EKP) wurden mit dem Ziel entworfen, die zugrunde liegenden kognitiven Mechanismen, die in der Verwendung und Integration des Sprecherblicks involviert sind, zu untersuchen. Dem gehen in der Literatur beschriebene behaviorale Daten voraus, die darauf hindeuten, dass kommunikationsrelevante Sprecherblicke das SatzverstĂ€ndnis vereinfachen. Die von den gefunden EKP-Komponenten indizierten Mechanismen wurden in Bezug auf zwei vorgeschlagene AnsĂ€tze untersucht, welche die berichteten behavioralen Daten erklĂ€ren könnten: Unter dem Prominenzansatz wird davon ausgegangen, dass verbessertes oder verschlechtertes SatzverstĂ€ndnis daher rĂŒhrt, dass der Blick des Sprechers die Aufmerksamkeit des Zuhörers auf eine bestimmte Position oder ein bestimmtes Objekt lenkt. Dabei fĂŒhrt die Nennung von Objekten innerhalb des Fokus der Aufmerksamkeit des Hörers zu einer einfacheren Verarbeitung, wohingegen die Nennung eines Objektes außerhalb des Fokus dazu fĂŒhrt, dass zunĂ€chst die Aufmerksamkeit umgelenkt werden muss. Der durch dieses Umlenken herbeigefĂŒhrte Aufwand fĂŒhrt dann zu erschwertem SatzverstĂ€ndnis. Unter dem situativen Integrationsansatz wird, dem entgegengestellt, davon ausgegangen, dass die Verarbeitung des angeblickten Objekts ĂŒber den reinen Anstieg seiner Prominenz hinaus geht. Dies beinhaltet sowohl semantisches Retrieval als auch die Integration der Bedeutung in eine mentale ReprĂ€sentation der Situation. Es wird davon ausgegangen, dass letzteres eine Erwartung dafĂŒr hervorruft, dass das betrachtete Objekt als nĂ€chstes genannt wird. Um den Umfang der Verwendung des Sprecherblicks zu untersuchen, wurden drei Experimente entwickelt, in denen Teilnehmern eine Szene, bestehend aus drei unterschiedlich großen oder unterschiedlich hellen Objekten, prĂ€sentiert wurde. In der Mitte der Objekte wurde zudem ein stilisiertes Gesicht prĂ€sentiert, welches abgestimmt mit einem auditiv prĂ€sentierten Satz Augenbewegungen zu den Objekten hin durchfĂŒhrte. Die SĂ€tze stellten Vergleiche zwischen den dargestellten Objekten dar. In den ersten beiden Experimenten waren SĂ€tze wie im folgenden Beispiel strukturiert: "Verglichen mit dem Haus ist das Auto verhĂ€ltnismĂ€ĂŸig klein, denke ich." Der Blick zu dem jeweiligen Objekt ging der Nennung um 800ms voraus (Griffin and Bock, 2000). WĂ€hrend in diesem Satz der linguistische Kontext keine Grundlage bot um Vorhersagen ĂŒber kommende Nennungen zu treffen, konnte der Sprecherblick potentiell im Voraus genutzt werden, um die folgende Nennung zu antizipieren. Der Blick vor der Nennung des zweiten Objektes im Satz wurde so manipuliert, dass er entweder kongruent auf das nachfolgend genannten Objekt gerichtet wurde, inkongruent auf das Objekt, das im Satz nicht genannt wurde, oder uninformativ entweder zum unteren Rand des Bildschirms, wo kein Objekt abgebildet war (Experiment 1), oder zurĂŒck in die Mitte des Bildschirms, zum Zuhörer (Experiment 2). Es wurden drei zugrundeliegende Mechanismen prognostiziert, die bei der Sprachverarbeitung involviert sind: a) ein phonologischer Abgleichmechanismus, der das wahrgenommene Signal mit der erwarteten Wortform abgleicht und im EKP-Signal durch die sogenannte Phonological Mapping Negativity (PMN) Komponente indiziert wird (Connolly and Phillips, 1994; Hagoort and Brown, 2000). b) ein semantischer Retrieval-Mechanismus, der den Abruf der entsprechenden semantische Bedeutung des wahrgenommenen Wortes ausfĂŒhrt, welcher von einer N400-Komponente indiziert wird (Van Berkum, 2009; Kutas and Federmeier, 2011). c) ein Integrationsmechanismus, der das wahrgenommene Signal inkrementell nutzt, um die mentale ReprĂ€sentation der Situation zu informieren. Dieser Mechanismus wird durch die P600-Komponente indiziert (Burkhardt, 2007; Brouwer et al., 2017). Unter dem Prominenzansatz wurden in erster Linie Effekte des semantischen Retrieval-Mechanismus erwartet, da der Zugriff auf die semantische Bedeutung eines Wortes außerhalb des Fokus der Aufmerksamkeit erschwert ist. Gleichzeitig wurden keine Effekte des phonologischen Abgleichmechanismus und des Integrationsmechanismus erwartet, da beide Mechanismen voraussetzen, dass Erwartungen ĂŒber den Verlauf des Satzes geformt wurden. Im Detail benötigt der phonetische Abgleichmechanismus die Antizipation einer bestimmte Wortform, wobei der Integrationsmechanismus nur dann gehemmt sein sollte, wenn die Integration der Wortbedeutung erschwert wird, da eine andere Bedeutung bereits in der mentalen ReprĂ€sentation vorhanden ist. Wenn der Sprecherblick folglich lediglich den Fokus der Aufmerksamkeit lenkt, wĂŒrde dies nicht zu den fĂŒr diese Mechanismen notwendigen Erwartungen fĂŒhren. Unter dem situativen Integrationsansatz hingegen wird angenommen, dass der Sprecherblick als Teil des kommunikativen Signals verstanden wird und semantisches Retrieval so wie Integration bereits vor der Nennung des angeblickten Objektes stattfinden. Darauf basierend wurden neben Effekten des semantischen Retrieval-Mechanismus auch Effekte des phonologischen Abgleichmechanismus sowie des Integrationsmechanismus erwartet. Dies bedeutet, dass die erwartete Wortform basierend auf dem Sprecherblick mit dem wahrgenommenen Signal abgeglichen wird und, wenn diese nicht ĂŒbereinstimmen, zu einem Anstieg in der Reaktion der PMN-Komponente fĂŒhren. Gleichermaßen wurde ein Anstieg in der Reaktion der P600-Komponente erwartet, wenn die zu integrierende Bedeutung nicht mit der bereits in der mentalen ReprĂ€sentation der Situation ĂŒbereinstimmt und dadurch zu einer Revision der ReprĂ€sentation fĂŒhrt. Die Ergebnisse der ersten beiden Experimente zeigen, dass der Sprecherblick genutzt wird, um Erwartungen an den bevorstehenden Referenten zu formulieren, was fĂŒr den situativen Integrationsansatz spricht. Eine nur fĂŒr kongruenten Blick abgeschwĂ€chte PMN-Reaktion vor dem N400-Zeitfenster deutet darauf hin, dass Erwartungen nicht nur auf konzeptioneller Ebene, sondern auch ĂŒber die konkrete lexikalische Form gebildet werden, wenn ein einzelnes Objekt hervorgehoben wird. Ein N400-Effekt, wenn der Blick uninformativ oder irrefĂŒhrend ist, deutete auf erhöhte Kosten fĂŒr das semantische Retrieval hin. DarĂŒber hinaus wurde, wie unter dem situativen Integrationsansatz angenommen, eine erhöhte P600-Reaktion nur fĂŒr die inkongruente Kondition gefunden, was mit der zuvor genannten Interpretation ĂŒbereinstimmt. Das zweite Experiment liefert zusĂ€tzliche UnterstĂŒtzung fĂŒr die Unterscheidung der PMN und N400 als unterschiedliche Komponenten. WĂ€hrend der gegenseitige Blick, der in Experiment 2 als die uninformative Kondition diente, einen PMN-Effekt hervorrief, wurde kein signifikanter Unterschied im N400-Zeitfenster zwischen der uminformativen und kongruenten Kondition festgestellt. Diese Ergebnisse weisen auch auf ein starkes Zusammenspiel dieser beiden Komponenten hin. Die relativ kurzlebige N400 (300 – 450ms) nach der PMN zeigt an, dass das Retrieval der Wortbedeutung von dem phonologischen Abgleich profitiert, der durch die PMN indiziert wird. Diese Annahme ist in Übereinstimmung mit Funden von Hagoort and Brown (2000), wo der PMN der Ausdruck eines lexikalischen Auswahlprozesses zugeschrieben wurde. Es könnte argumentiert werden, dass einige Eigenschaften des Referenten in diesem frĂŒheren phonologischen Stadium abgerufen werden können, was den Mechanismus des semantischen Retrievals erleichtert. Daher kann man spekulieren, dass die Anwesenheit und Abwesenheit eines PMN-Effekts einen Einfluss auf die StĂ€rke der N400 haben könnte. Dies erfordert jedoch weitere Untersuchungen. Im Zeitfenster der P600 deuten die Ergebnisse darauf hin, dass die visuelle Szene und das Sprachsignal sowie der Blick des Sprechers verwendet werden, um eine mentale ReprĂ€sentation der Situation zu konstruieren. Dies ist im Einklang mit der Ansicht, dass Zuhörer den Sprecherblick so interpretieren, dass er Teil des kommunikativen Signals ist und Referenzabsichten ausdrĂŒckt (Staudte and Crocker, 2011). In den hier vorgestellten Experimenten lieferte die erste Blickbewegung in jeder experimentellen Kondition einen korrekten Hinweis auf den bevorstehenden Referenten. Im Falle eines nachfolgenden inkongruenten Blicks wurden die Teilnehmer zu dem Glauben veranlasst, dass das betrachtete Objekt tatsĂ€chlich nachfolgend genannt wĂŒrde, wodurch die verbleibenden Objekte in der Szene als wahrscheinliche Referenten eliminiert wurden. Die folgende Nennung wiederum zwang den Teilnehmer, die ReprĂ€sentation so zu revidieren, dass der gemeinte Referent nicht derjenige war, der angeschaut wurde, sondern der tatsĂ€chlich genannte. Diese grundlegende Aktualisierung der situativen ReprĂ€sentation spiegelt sich dann in einer P600-Modulation wider, welche die (Re-)Integrationsschwierigkeit darstellt. Ein solcher Unterschied wird in den uninformativen (nicht objektorientierten) Bedingungen nicht induziert, da beide möglichen Referenten — die beiden noch nicht genannten Objekte — gleichermaßen wahrscheinlich sind und daher keine Überarbeitung der ReprĂ€sentation erforderlich ist. WĂ€hrend die erhöhte Reaktion im N400-Zeitfenster sowohl fĂŒr die inkongruenten als auch fĂŒr die uninformativen Bedingungen unter dem Prominenzansatz wie auch dem situativen Integrationsansatz vorausgesagt wird, wurde die nur in der inkongruenten Bedingung beobachtete erhöhte P600-Reaktion allein durch den situativen Integrationsansatz vorhergesagt. WĂ€hrend die ersten beiden Experimente untersuchten wie Sprecherblick verwendet wird, um linguistische Elemente des kommunikativen Signals zu antizipieren, wurde sich in Experiment 3 der Frage gewidmet, ob linguistische Elemente des kommunikativen Signals auch zur Antizipation von subsequenten Blickbewegungen genutzt werden und wie diese sich auf eine folgende Nennung des betrachteten Objekts auswirkt. Zu diesem Zweck wurden die den Teilnehmern prĂ€sentierten SĂ€tze angepasst, wĂ€hrend die visuellen Stimuli gleich blieben. Wie in dem Beispielsatz "Das Auto ist kleiner als das abgebildete Haus, denke ich" zu erkennen ist, können bereits nach dem Hören des Komparativs Erwartungen ĂŒber den folgenden Referenten des Satzes geformt werden, respektive der drei unterschiedlich großen, dargestellten Objekte. Der Sprecherblick wurde so manipuliert, dass er entweder auf das nachfolgend genannte Objekt, oder das im Satz nicht erwĂ€hnte Objekt gerichtet wurde oder uninformativ in die Mitte des Bildschirms, zum Zuhörer. Die Ergebnisse dieses Experiments zeigten, dass der Blick des Sprechers genutzt wurde, um Erwartungen basierend auf dem linguistischen Kontext zu validieren. Dies drĂŒckte sich durch einen N400 und P3b-Effekt in Reaktion auf den Sprecherblick aus, welcher der Nennung eines Referenten voraus ging. Eine PMN-Komponente wurde in Reaktion auf den Sprecherblick nicht gefunden oder erwartet, da kein phonologischer Abgleich stattfinden kann. Der N400-Effekt wurde erneut in Zusammenhang mit semantischem Retrieval interpretiert, wohingegen die P3b-Komponente in Relation mit der Integration in eine mentale ReprĂ€sentation der Situation interpretiert wurde (Donchin, 1981) und damit stark der vorherigen Interpretation der P600 Ă€hnelt. Dies ist auch in Übereinstimmung mit der P600-as-P3 Hypothese (z.B. Sassenhagen et al. (2014)). ZusĂ€tzliche UnterstĂŒtzung fĂŒr diese Interpretation der P3b in der Region des Sprecherblicks fand sich auch in der nachfolgenden Region der Objektnennung. Nur wenn der Blick des Sprechers uninformativ war, waren Ă€hnliche Effekte wie in den vorangegangenen Experimenten in Reaktion zur Nennung der Objekte (PMN, N400 und P600) vorhanden. Die Anwesenheit von Effekten in Reaktion auf die Objektnennung ausschlieSSlich wenn der Sprecherblick zuvor uninformativ war, lĂ€sst darauf schließen, dass der Blick des Sprechers tatsĂ€chlich als vollwertiges Element des kommunikativen Signals verstanden wird, so dass Erwartungen ĂŒber Nennungen von visuellen sowie linguistischen Elementen gleichermaßen sowohl aufgebaut wie auch validiert werden. WĂ€re dies nicht der Fall, sollten unabhĂ€ngig von den Effekten auf dem Sprecherblick auch Effekte auf der Nennung der Objekte gefunden werden. Über diese Funde hinaus, wiesen die Ergebnisse von Experiment 3 auch auf eine weitere Funktion der P600-Komponente hin: In den ersten beiden Experimenten tauchte eine erhöhte P600-Reaktion nur in Verbindung mit widersprĂŒchlichen Informationen auf, welche die Revision der mentalen ReprĂ€sentation der Situation erforderten. In Experiment 3 tauchte eine Positivierung immer dann auf, wenn das aktuelle Element des kommunikativen Signals die ReprĂ€sentation vervollstĂ€ndigte. Basierend auf der Satzstruktur, wie sie in Experiment 3 prĂ€sentiert wurde, fĂŒhrte die Identifizierung des zweiten Objektes auch zu einem evaluierbaren Zustand der mentalen ReprĂ€sentation der Situation; beide zu vergleichenden Objekte wie auch der Komparativ sind an diesem Punkt bekannt, wodurch Teilnehmer eine Interpretation des Satzes, wie auch eine Reaktion auf diese Information formulieren können (in diesem Fall die Entscheidung ob der Satz wahr oder falsch war). Dies lĂ€sst darauf schließen, dass die P600, sowie auch die P3b, nicht nur die Überarbeitung der mentalen ReprĂ€sentation indizieren, sondern auch deren Evaluierung. Dies legt die Interpretation eines Monitoring-Mechanismus nahe, was auch mit der LC/NE-P3 Interpretation (z.B. Sassenhagen et al. (2014)) ĂŒbereinstimmt. Dieser Monitoring-Mechanismus ĂŒberwacht dauerhaft den aktuellen Zustand der mentalen ReprĂ€sentation und fĂŒhrt zu dessen Auswertung sobald dies möglich ist. Dieser Auswertungsprozess drĂŒckt sich im Signal dann durch eine Positivierung aus. Basierend auf dieser Interpretation ist auch anzunehmen, dass die Evaluation der ReprĂ€sentation deren Überarbeitung subsumiert, so dass eine Positivierung in beiden FĂ€llen zu erwarten ist. Die experimentellen Ergebnisse dieser Dissertation prĂ€sentierte Evidenzen fĂŒr eine gleichwertige Verwendung von Sprecherblick und linguistischem Inhalt in ihrer Rolle, die mentale ReprĂ€sentation einer Situation zu informieren. Dies ist Evidenz fĂŒr den vorgeschlagenen situativen Integrationsansatz und zeigt auf, dass Sprecherblick, wie vorgeschlagen, als Teil des kommunikativen Signals verstanden wird. DarĂŒber hinaus wurden Evidenzen fĂŒr eine inkrementell aufgebaute, mentale ReprĂ€sentation der Situation, die dynamisch von unterschiedlichen Informationsquellen beeinflusst wird (wie zum Beispiel Sprecherblick und linguistischem Satzinhalt), herausgearbeitet. Basierend auf den Ergebissen kann fĂŒr einen Modellansatz argumentiert werden, in dem der bisherige Kontext in einer mentalen ReprĂ€sentation der Situation zu jedem Zeitpunkt abgebildet ist. Der aktuelle Zustand dieser ReprĂ€sentation wird verwendet um Erwartungen ĂŒber kommende Elemente des kommunikativen Signals zu formen. Diese Erwartungen werden zum einen verwendet, um eine erweiterte ReprĂ€sentation zu formen, und gleichzeitig mit dem nĂ€chsten Element des kommunikativen Signals verglichen. Basierend auf der Art des Signals sind verschiedene kognitive Mechanismen in diesem Abgleich involviert: Im Falle eines auditiven Signals wird das erste Phonem des gehörten Wortes mit dem (basierend auf den Erwartungen) antizipierten Phonem abgeglichen. Im Falle einer Übereinstimmung fĂŒhrt dies zu einer reduzierten PMN-Amplitude, wohingegen anderenfalls eine erhöhte PMN-Amplitude in Relation zum Informationsgehalt des Phonems auftritt. Dabei gelten erwartete Phoneme als wenig informativ, da sie keine neue/nicht erwartete Information beinhalten, wohingegen unerwartete (inkongruent) oder nicht erwartbare (uninformativ) Phoneme einen höherene Informationsgehalt haben, da sie fĂŒr die Selektion des korrekten Referenten notwending sind. Der Output dieses Mechanismus wird dann an den semantischen Retrieval-Mechanismus weitergereicht. Dieser Mechanismus ist involviert, unabhĂ€ngig von der Art des Elements (visuell oder linguistisch). Der Retrieval-Mechanismus gleicht den semantischen Inhalt des aktuellen Elements mit dem bereits basierend auf den Erwartungen antizipierten semantischen Inhalt ab, wobei eine Übereinstimmung wieder zu einer reduzierten Reaktion der N400 fĂŒhrt, wohingegen bei NichtĂŒbereinstimmung der semantische Inhalt des neuen Elements abgerufen werden muss, was sich durch eine erhöhte N400-Reaktion darstellt. Schlussendlich ĂŒberprĂŒft der Monitoring-Mechanismus ob das neue Element des kommunikativen Signals die mentale ReprĂ€sentation vervollstĂ€ndigt, sodass die kommunizierte Botschaft verstanden werden kann. Sollte dies der Fall sein, drĂŒckt eine erhöhte Postivierung die Evaluation der ReprĂ€sentation aus. Sollte hingegen noch keine vollstĂ€ndige ReprĂ€sentation erreicht sein, wird das Element in die ReprĂ€sentation eingebettet. Dies fĂŒhrt dann zu einer erhöhten Positivierung, wenn die erweiterte ReprĂ€sentation ĂŒberarbeitet werden muss, da das Element nicht den Erwartungen entsprach, was dann zu einer ĂŒberarbeiteten ReprĂ€sentation fĂŒhrt. In beiden FĂ€llen wird die erweiterte/ĂŒberarbeitete ReprĂ€sentation der Situation verwendet, um neue Erwartungen fĂŒr folgende Elemente zu generieren, die wiederum mit dem nĂ€chsten Element des kommunikativen Signals verglichen werden, bis eine vollstĂ€ndige ReprĂ€sentation erreicht ist.This work was supported by the Cluster of Excellence Multimodal Computing and Interaction and SFB/CRC 1102 Information Density and Linguistic Encoding, funded by the Deutsche Forschungsgemeinschaft (DFG)
    • 

    corecore