352 research outputs found

    Eine agentenbasierte Architektur fĂŒr Programmierung mit gesprochener Sprache

    Get PDF
    Sprachgesteuerte Computersysteme werden heutzutage von Millionen von Nutzern verwendet; Chatbots, virtuelle Assistenten, wie Siri oder Google Assistant, und Smarthomes sind lĂ€ngst fester Bestandteil des Alltags vieler Menschen. Zwar erscheinen derartige Systeme inzwischen intelligent; tatsĂ€chlich reagieren sie aber nur auf einzelne Befehle, die zudem bestimmte Formulierungen erfordern. Die Nutzer sind außerdem auf vorgefertigte FunktionalitĂ€ten beschrĂ€nkt; neue Befehle können nur von Entwicklern einprogrammiert und vom Hersteller zur VerfĂŒgung gestellt werden. In Zukunft werden Nutzer erwarten, intelligente Systeme nach ihren BedĂŒrfnissen anzupassen, das heißt programmieren zu können. Das in dieser Arbeit beschriebene System ProNat ermöglicht Endnutzer-Programmierung mit gesprochener Sprache. Es befĂ€higt Laien dazu, einfache Programme fĂŒr unterschiedliche Zielsysteme zu beschreiben und deren FunktionalitĂ€t zu erweitern. ProNat basiert auf PARSE, einer eigens entworfenen agentenbasierten Architektur fĂŒr tiefes SprachverstĂ€ndnis. Das System ermöglicht die Verwendung alltĂ€glicher Sprache zur Beschreibung von Handlungsanweisungen. Diese werden von ProNat als Programm fĂŒr ein Zielsystem interpretiert, das eine Anwendungsschnittstelle zur Endnutzer-Programmierung anbietet. Bisherige AnsĂ€tze zur Programmierung mit natĂŒrlicher Sprache ermöglichen nur die Erzeugung kurzer Programme anhand textueller Beschreibungen. Da die meisten Systeme monolithisch entworfen wurden, können sie zudem nur mit großem Aufwand adaptiert werden und sind ĂŒberwiegend auf die Anwendung einer Technik (z. B. maschinelles Lernen) sowie auf eine AnwendungsdomĂ€ne festgelegt (z. B. Tabellenkalkulation). AnsĂ€tze, die gesprochene Sprache verarbeiten, können hingegen bisher nur einzelne Befehle erfassen. Um die Restriktionen bisheriger AnsĂ€tze aufzuheben, wird eine neuartige Architektur entworfen. Die Kernkomponenten der Architektur PARSE bilden unabhĂ€ngige Agenten, die je einen bestimmten Aspekt der natĂŒrlichen Sprache analysieren. Die Kapselung in unabhĂ€ngige Agenten ermöglicht es, je Teilaspekt zum VerstĂ€ndnis der Sprache eine andere Technik zu verwenden. Die Agenten werden nebenlĂ€ufig ausgefĂŒhrt. Dadurch können sie von Analyseergebnissen anderer Agenten profitieren; unterschiedliche Sprachanalysen können sich so gegenseitig unterstĂŒtzen. Beispielsweise hilft es, sprachliche Referenzen wie Anaphern aufzulösen, um den Kontext des Gesagten zu verstehen; manche Referenzen können wiederum nur mithilfe des Kontextes aufgelöst werden. Ihr Analyseergebnisse hinterlegen die Agenten in einer geteilten Datenstruktur, einem Graphen. Die Architektur stellt sicher, dass keine Wettlaufsituationen eintreten und nur gĂŒltige Änderungen am Graphen durchgefĂŒhrt werden. Die Agenten werden so lange wiederholt ausgefĂŒhrt, bis keine oder nur noch zyklische Änderungen eintreten. Neben den Agenten gibt PARSE die Verwendung von FließbĂ€ndern zur Vor- und Nachverarbeitung vor. Zudem können externe Ressourcen, wie Wissensdatenbanken oder Kontextmodellierungen, angeschlossen werden. Das System ProNat entsteht, indem konkrete Agenten und Fließbandstufen fĂŒr die Rahmenarchitektur PARSE bereitgestellt werden. ZusĂ€tzlich werden Informationen ĂŒber die AnwendungsdomĂ€ne (das heißt die Anwendungsschnittstelle des Zielsystems und gegebenenfalls eine Modellierung der Systemumgebung) in Form von Ontologien als externe Ressource angebunden. Eine gesprochene Äußerung wird von ProNat vorverarbeitet, indem zunĂ€chst das Audiosignal in eine textuelle Wortsequenz ĂŒberfĂŒhrt wird. Anschließend erfolgt eine grundlegende syntaktische Analyse, bevor ein initialer Graph als Analysegrundlage fĂŒr die Agenten erzeugt wird. Die Interpretation des Gesagten als Programm obliegt den Agenten. Es wurden sechzehn Agenten entwickelt, die sich in drei Kategorien unterteilen lassen: Erstens, Agenten, die allgemeine SprachverstĂ€ndnis-Analysen durchfĂŒhren, wie die Disambiguierung von Wortbedeutungen, die Auflösung von sprachlichen Referenzen oder die Erkennung von GesprĂ€chsthemen. Zweitens, Agenten, die das Gesagte auf programmatische Strukturen, wie Anwendungsschnittstellenaufrufe oder Kontrollstrukturen, untersuchen; hierzu zĂ€hlt auch ein Agent, der aus verbalisierten Lehrsequenzen Methodendefinitionen synthetisiert. Da die Agenten unabhĂ€ngig voneinander agieren, kann zur Lösung der jeweiligen Problemstellung eine beliebige Technik eingesetzt werden. Die Agenten zur Erkennung von Kontrollstrukturen verwenden beispielsweise Heuristiken, die auf syntaktischen Strukturen basieren, um ihre Analysen durchzufĂŒhren. Andere Agenten, wie die Agenten zur Disambiguierung von Wortbedeutungen oder zur Bestimmung der GesprĂ€chsthemen, verwenden Wikipedia, Wordnet oder Ă€hnliche Quellen und inferieren anhand dieser Informationen. Zuletzt verwenden einige Agenten, wie beispielsweise der Agent zur Erkennung von Lehrsequenzen, maschinelles Lernen. Die Interpretation einer gesprochenen Äußerung erfolgt dementsprechend mittels einer Kombination von sowohl regel- als auch statistik- und wissensbasierten Techniken. Dank der strikten Trennung der Agenten können diese einzeln (und zumeist unabhĂ€ngig voneinander) evaluiert werden. Hierzu wurden parallel zur Entwicklung der Agenten fortwĂ€hrend mithilfe von Nutzerstudien realistische Eingabebeispiele gesammelt. FĂŒr jeden Agenten kann somit ĂŒberprĂŒft werden, ob er einen zufriedenstellenden Beitrag zur Interpretation des Gesagten beitrĂ€gt. Das gemeinschaftliche Analyseergebnis der Agenten wird in der Nachverarbeitung sukzessive in ein konkretes Programm ĂŒbersetzt: ZunĂ€chst wird ein abstrakter Syntaxbaum generiert, der anschließend in Quelltext zur Steuerung eines Zielsystems ĂŒberfĂŒhrt wird. Die FĂ€higkeit des Systems ProNat, aus gesprochenen Äußerungen Quelltext zu generieren, wurde anhand von drei unabhĂ€ngigen Untersuchungen evaluiert. Als Datengrundlage dienen alle in den Nutzerstudien gesammelten natĂŒrlichsprachlichen Beschreibungen. ZunĂ€chst wurden fĂŒr eine Online-Studie UML-AktivitĂ€tsdiagramme aus gesprochenen Äußerungen generiert und 120 Probanden zur Bewertung vorgelegt: Der ĂŒberwiegende Teil der AktivitĂ€tsdiagramme (69%) wurde von der Mehrheit der Probanden als vollstĂ€ndig korrekt eingestuft, ein vielversprechendes Ergebnis, da die gesprochenen Äußerungen die Synthese von bis zu 24 Anweisungen (bzw. AktivitĂ€ten) sowie Kontrollstrukturen erfordern. In einer zweiten Untersuchung wurde Java-Quelltext, bestehend aus Aufrufen einer Anwendungsschnittstelle zur Steuerung eines humanoiden Roboters, synthetisiert und mit einer Musterlösung verglichen: ProNat konnte Aufrufe meist korrekt erzeugen (F1: 0,746); auch die Synthese von Kontrollstrukturen gelingt in 71% der FĂ€lle korrekt. Zuletzt wurde untersucht, wie gut ProNat anhand von natĂŒrlichsprachlichen Beschreibungen neue Funktionen erlernen kann: Verbalisierte Lehrsequenzen werden mit einer Genauigkeit von 85% in Äußerungen erkannt. Aus diesen leitet ProNat Methodendefinitionen ab; dabei gelingt es in ĂŒber 90% der FĂ€lle, einen sprechenden Methodennamen zu erzeugen. Auch der Aufruf der neu erlernten Funktion (durch natĂŒrlichsprachliche Anweisungen) gelingt mit einer Genauigkeit von 85%. Zusammengenommen zeigen die Untersuchungen, dass ProNat grundsĂ€tzlich in der Lage ist, Programme aus gesprochenen Äußerungen zu synthetisieren; außerdem können neue Funktionen anhand natĂŒrlichsprachlicher Beschreibungen erlernt werden

    Der Klang der Lyrik: Zur Konzeptualisierung von Sprecher und Stimme, auch fĂŒr die computationelle Analyse

    Get PDF
    Das Forschungsprojekt »textklang«: Mixed-Methods-Analyse von Lyrik in Text und Ton (gefördert durch das Bundesministerium fĂŒr Bildung und Forschung) zielt auf die systematische und diachrone Untersuchung der Beziehung zwischen literarischen Texten, insbesondere Lyrik der Romantik, und ihrer lautsprachlichen Realisierung bei der Rezitation oder der musikalischen AuffĂŒhrung. Die Vorstellungen von MĂŒndlichkeit, Klang und Stimme, die im Besonderen mit der Lyrik verbunden sind, werden empirisch untersucht und auch im Sinne moderner AnsĂ€tze der Lyrikanalyse theoretisiert. Besondere Bedeutung kommt dabei dem experimentellen Ansatz der Sprachsynthese zu, also der computationellen Möglichkeit, eine menschliche Sprechstimme kĂŒnstlich herzustellen; er ermöglicht es, eine idealtypische Realisierung des Textes zu ermitteln und menschliche Realisierungen auf ihre Ă€sthetische Besonderheit hin zu testen.The research project »text sound«: mixed-methods-analysis of lyric poetry in text and tonal sound (funded by the Federal Ministry for Education and Research, BMBF) aims to undertake a systematic and diachronic investigation of the relationship between literary texts, especially lyric poetry from the Romantic period, and their phonetic realisation in recitations or musical performances. Ideas of orality, sound and voice, which are particularly associated with poetry, are investigated empirically and also theorised in the line with modern approaches to the analysis of lyric poetry. Of particular importance is the experimental approach of speech synthesis, i.e. using computers to artificially produce a human sounding voice; this approach makes it possible to explore an ideal-typical realisation of the text and to test the aesthetic peculiarity of human realisations

    Die Rolle des linken Gyrus angularis beim auditiven SprachverstÀndnis: Eine rTMS-Studie: Die Rolle des linken Gyrus angularis beim auditiven SprachverstÀndnis:Eine rTMS-Studie

    Get PDF
    Basierend auf der aktuellen Studienlage wurde versucht, Modellannahmen zum auditi- ven SprachverstĂ€ndnisses weiter zu ergrĂŒnden. Im Mittelpunkt stand dabei die Rolle des Gyrus angularis der sprachdominanten HemisphĂ€re bei der semantischen Integration von Worten in einen gegebenen Satzkontext. Zu diesem Zweck wurden 15 gesunde Proban- den mithilfe von repetitiver transkranieller Magnetstimulation (rTMS) in einem Sprach- verstĂ€ndnisexperiment untersucht. So konnte die funktionelle Relevanz der genannten Hirnregion in AbhĂ€ngigkeit der SignalqualitĂ€t des gehörten Satzes und des semanti- schen Kontextes untersucht werden. Zielparameter waren dabei der Anteil der korrekt wiederholten Wörter und SchlĂŒsselwörter des Satzes sowie die Reaktionsgeschwindigkeit

    ArchiMob : A multidialectal corpus of Swiss German spontaneous speech

    Get PDF
    Alemannische Dialektologie – Forschungsstand und Perspektiven. SonderheftPeer reviewe

    Eine agentenbasierte Architektur fĂŒr Programmierung mit gesprochener Sprache

    Get PDF
    The system described in this work, called ProNat, makes end-user programming with spoken language possible. It enables non-experts to describe programs for different target systems and to extend their functionality using everyday language. ProNat is based on PARSE, a specially designed agent-based framework architecture. In three independent studies, ProNat has proven to be principally capable of synthesizing programs from spoken utterances

    Die Rolle phonetischer Information in der Sprechererkennung

    Get PDF
    Die gesprochene Sprache enthĂ€lt neben den phonetischen bzw. lexikalischen Informationen, die den Inhalt einer Äußerung ausmachen, auch Informationen ĂŒber den Sprecher. Beide Informationstypen interagieren miteinander, was dazu fĂŒhrt, dass manche Segmente mehr Informationen ĂŒber einen Sprecher enthalten als andere und dass Wissen ĂŒber den Sprecher dabei helfen kann, die phonetischen Informationen besser zu verarbeiten und somit eine Äußerung besser zu verstehen. Außerdem stellt sich die Frage, wie diese Informationen im Hinblick auf ein Sprachwahrnehmungsmodell (abstraktionistisch vs. exemplarbasiert) integriert werden. Von diesem Stand ausgehend wird in dieser Arbeit der Einfluss der Segmente, insbesondere der Konsonanten, auf die Sprecherdiskrimination bzw. -identifikation untersucht. DafĂŒr werden zunĂ€chst einige akustische Merkmale ausgewĂ€hlter Konsonanten des Deutschen in einem Sprachkorpus analysiert. Es werden die ersten vier spektralen Momente der Laute gemessen und deren SprecherspezifitĂ€t bestimmt. Vor allem die Nasale /m/ und /n/ sowie die Frikative /f/ und /s/ offenbarten viele sprecherspezifische Merkmale. Aufgrund der Annahme, dass sich diese akustisch gemessenen Merkmale auch perzeptiv in irgendeiner Form manifestieren mĂŒssen, wurde ein Sprecherdiskriminationsexperiment mit Hörern durchgefĂŒhrt. In beiden Experimenten war das Sprachmaterial eine /aKa/- Sequenz. Im ersten Experiment enthielt der gesamte Stimulus Sprecherinformationen, wĂ€hrend im zweiten Experiment nur der (statische Teil vom) Konsonant, aber nicht die Vokaletransitionen Sprecherinformationen enthielt. In beiden Untersuchungen zeigen sich Unterschiede in der SprecherspezifitĂ€t zwischen den verschiedenen Artikulationsmodi und -stellen, wobei die durchschnittliche Sprecherdiskriminationsrate im zweiten Experiment deutlich geringer ist als im ersten. Die Ergebnisse lassen darauf schließen, dass Nasale und Plosive viele ihrer Informationen in den Vokaltransitionen enthalten, wĂ€hrend die Frikative mehr Informationen im (statischen Bereich des) Konsonanten besitzen. Da die phonetischen und Sprecherinformationen miteinander interagieren, wurde im letzten Teil der Arbeit die zeitliche Koordination der Verarbeitung beider Informationstypen mittels eines Visual-World Eye-Tracking Experiments untersucht. Die Ergebnisse zeigen, dass die Hörer das Target mit großer Sicherheit identifizierten, aber dass mit steigender Anzahl an Sprechern (2 vs. 4 Sprecher) die Schwierigkeit der Targetidentifikation steigt. Im Fall von verschieden geschlechtlichen Sprechern wird zuerst das Geschlecht und dann der einzelne Sprecher erkannt. Außerdem wird nachgewiesen, dass die Sprecherinformationen tendenziell sogar frĂŒher verarbeitet werden als die phonetischen Informationen und selbst dann Verwendung finden, wenn phonetische Informationen allein zur Targetidentifikation ausreichend sind. In phonetisch ambigen FĂ€llen werden die Sprecherinformationen verwendet, um diese AmbiguitĂ€t zu verringern. Die Ergebnisse unterstreichen die Bedeutung von Sprecherinformationen in der Verarbeitung gesprochener Sprache und sprechen somit eher fĂŒr ein episodisches, exemplarbasiertes Modell der Sprachwahrnehmung, welches Sprecherinformationen bereits zu einem frĂŒhen Zeitpunkt im Sprachverarbeitungsprozess integriert

    Fast Speech in Unit Selection Speech Synthesis

    Get PDF
    Moers-Prinz D. Fast Speech in Unit Selection Speech Synthesis. Bielefeld: UniversitÀt Bielefeld; 2020.Speech synthesis is part of the everyday life of many people with severe visual disabilities. For those who are reliant on assistive speech technology the possibility to choose a fast speaking rate is reported to be essential. But also expressive speech synthesis and other spoken language interfaces may require an integration of fast speech. Architectures like formant or diphone synthesis are able to produce synthetic speech at fast speech rates, but the generated speech does not sound very natural. Unit selection synthesis systems, however, are capable of delivering more natural output. Nevertheless, fast speech has not been adequately implemented into such systems to date. Thus, the goal of the work presented here was to determine an optimal strategy for modeling fast speech in unit selection speech synthesis to provide potential users with a more natural sounding alternative for fast speech output

    Quantitative Methoden in der Sprachtypologie: Nutzung korpusbasierter Statistiken

    Get PDF
    Die Arbeit setzt sich mit verschiedenen Aspekten der Nutzung korpusbasierter Statistiken in quantitativen typologischen Untersuchungen auseinander. Die einzelnen Abschnitte der Arbeit können als Teile einer sprachunabhĂ€ngigen Prozesskette angesehen werden, die somit umfassende Untersuchungen zu den verschiedenen Sprachen der Welt erlaubt. Es werden dabei die Schritte von der automatisierten Erstellung der grundlegenden Ressourcen ĂŒber die mathematisch fundierten Methoden bis hin zum fertigen Resultat der verschiedenen typologischen Analysen betrachtet. Hauptaugenmerk der Untersuchungen liegt zunĂ€chst auf den Textkorpora, die der Analyse zugrundeliegen, insbesondere auf ihrer Beschaffung und Verarbeitung unter technischen Gesichtspunkten. Es schließen sich Abhandlungen zur Nutzung der Korpora im Gebiet des lexikalischen Sprachvergleich an, wobei eine Quantifizierung sprachlicher Beziehungen mit empirischen Mitteln erreicht wird. DarĂŒber hinaus werden die Korpora als Basis fĂŒr automatisierte Messungen sprachlicher Parameter verwendet. Zum einen werden derartige messbare Eigenschaften vorgestellt, zum anderen werden sie hinsichtlich ihrer Nutzbarkeit fĂŒr sprachtypologische Untersuchungen systematisch betrachtet. Abschließend werden Beziehungen dieser Messungen untereinander und zu sprachtypologischen Parametern untersucht. Dabei werden quantitative Verfahren eingesetzt

    Schwierigkeitsbeeinflussende Merkmale bei Aufgaben zum Hörverstehen im Fach Deutsch in der Sekundarstufe I

    Get PDF
    In dieser Arbeit wird der Einfluss ausgewĂ€hlter Merkmale auf die Schwierigkeit von Items und Stimuli des IQB-Aufgabenpools fĂŒr das Fach Deutsch in der Sekundarstufe I im Kompetenzbereich „Zuhören“ untersucht. Aufgrund linguistischer Überlegungen zur Eigenart mĂŒndlicher Kommunikation und den besonderen UmstĂ€nden in Art und Produktion gesprochener Sprache sowie den psychologischen, psycholinguistischen und didaktischen Grundlagen des Hörverstehens ergeben sich Merkmale der Stimuli, der Items sowie Merkmale, die aus der Interaktion der Items mit dem entsprechenden Stimulus resultieren. Diese Merkmale werden im Rahmen korpusanalytischer Methoden untersucht und sind ĂŒberwiegend auf lexikalischer und syntaktischer Ebene zu finden. Außerdem wird die Übereinstimmung der EinschĂ€tzung der Aufgabenentwickler bezĂŒglich der Schwierigkeit von Items und Stimuli mit den empirischen Schwierigkeiten ĂŒberprĂŒft. Zu den Stimuli liegen ferner EinschĂ€tzungen von LehrkrĂ€ften auf der Grundlage einer Ratingskala vor. ZusĂ€tzlich werden Merkmale der Testpersonen in die Analysen miteinbezogen. ZusĂ€tzlich wird untersucht, in welcher Weise personenbezogene Merkmale die Testleistung und damit die Schwierigkeit von Items und Stimuli beeinflussen. Beurteilt werden von den SchĂŒlern der Interessantheits- bzw. Bekanntheitsgrad der Stimuli sowie die PrĂ€sentationsqualitĂ€t. FĂŒr keine dieser EinschĂ€tzungen kann ein systematischer signifikanter Zusammenhang mit den Leistungsdaten der SchĂŒler nachgewiesen werden. Die Ergebnisse des Tests zur ArbeitsgedĂ€chtniskapazitĂ€t sowie das Merkmal „Sprachkenntnisse“ korrelieren dagegen in allen FĂ€llen signifikant (p < 0.05) mi

    Die Rolle phonetischer Information in der Sprechererkennung

    Get PDF
    Die gesprochene Sprache enthĂ€lt neben den phonetischen bzw. lexikalischen Informationen, die den Inhalt einer Äußerung ausmachen, auch Informationen ĂŒber den Sprecher. Beide Informationstypen interagieren miteinander, was dazu fĂŒhrt, dass manche Segmente mehr Informationen ĂŒber einen Sprecher enthalten als andere und dass Wissen ĂŒber den Sprecher dabei helfen kann, die phonetischen Informationen besser zu verarbeiten und somit eine Äußerung besser zu verstehen. Außerdem stellt sich die Frage, wie diese Informationen im Hinblick auf ein Sprachwahrnehmungsmodell (abstraktionistisch vs. exemplarbasiert) integriert werden. Von diesem Stand ausgehend wird in dieser Arbeit der Einfluss der Segmente, insbesondere der Konsonanten, auf die Sprecherdiskrimination bzw. -identifikation untersucht. DafĂŒr werden zunĂ€chst einige akustische Merkmale ausgewĂ€hlter Konsonanten des Deutschen in einem Sprachkorpus analysiert. Es werden die ersten vier spektralen Momente der Laute gemessen und deren SprecherspezifitĂ€t bestimmt. Vor allem die Nasale /m/ und /n/ sowie die Frikative /f/ und /s/ offenbarten viele sprecherspezifische Merkmale. Aufgrund der Annahme, dass sich diese akustisch gemessenen Merkmale auch perzeptiv in irgendeiner Form manifestieren mĂŒssen, wurde ein Sprecherdiskriminationsexperiment mit Hörern durchgefĂŒhrt. In beiden Experimenten war das Sprachmaterial eine /aKa/- Sequenz. Im ersten Experiment enthielt der gesamte Stimulus Sprecherinformationen, wĂ€hrend im zweiten Experiment nur der (statische Teil vom) Konsonant, aber nicht die Vokaletransitionen Sprecherinformationen enthielt. In beiden Untersuchungen zeigen sich Unterschiede in der SprecherspezifitĂ€t zwischen den verschiedenen Artikulationsmodi und -stellen, wobei die durchschnittliche Sprecherdiskriminationsrate im zweiten Experiment deutlich geringer ist als im ersten. Die Ergebnisse lassen darauf schließen, dass Nasale und Plosive viele ihrer Informationen in den Vokaltransitionen enthalten, wĂ€hrend die Frikative mehr Informationen im (statischen Bereich des) Konsonanten besitzen. Da die phonetischen und Sprecherinformationen miteinander interagieren, wurde im letzten Teil der Arbeit die zeitliche Koordination der Verarbeitung beider Informationstypen mittels eines Visual-World Eye-Tracking Experiments untersucht. Die Ergebnisse zeigen, dass die Hörer das Target mit großer Sicherheit identifizierten, aber dass mit steigender Anzahl an Sprechern (2 vs. 4 Sprecher) die Schwierigkeit der Targetidentifikation steigt. Im Fall von verschieden geschlechtlichen Sprechern wird zuerst das Geschlecht und dann der einzelne Sprecher erkannt. Außerdem wird nachgewiesen, dass die Sprecherinformationen tendenziell sogar frĂŒher verarbeitet werden als die phonetischen Informationen und selbst dann Verwendung finden, wenn phonetische Informationen allein zur Targetidentifikation ausreichend sind. In phonetisch ambigen FĂ€llen werden die Sprecherinformationen verwendet, um diese AmbiguitĂ€t zu verringern. Die Ergebnisse unterstreichen die Bedeutung von Sprecherinformationen in der Verarbeitung gesprochener Sprache und sprechen somit eher fĂŒr ein episodisches, exemplarbasiertes Modell der Sprachwahrnehmung, welches Sprecherinformationen bereits zu einem frĂŒhen Zeitpunkt im Sprachverarbeitungsprozess integriert
    • 

    corecore