352 research outputs found
Eine agentenbasierte Architektur fĂŒr Programmierung mit gesprochener Sprache
Sprachgesteuerte Computersysteme werden heutzutage von Millionen von Nutzern verwendet; Chatbots, virtuelle Assistenten, wie Siri oder Google Assistant, und Smarthomes sind lĂ€ngst fester Bestandteil des Alltags vieler Menschen. Zwar erscheinen derartige Systeme inzwischen intelligent; tatsĂ€chlich reagieren sie aber nur auf einzelne Befehle, die zudem bestimmte Formulierungen erfordern. Die Nutzer sind auĂerdem auf vorgefertigte FunktionalitĂ€ten beschrĂ€nkt; neue Befehle können nur von Entwicklern einprogrammiert und vom Hersteller zur VerfĂŒgung gestellt werden. In Zukunft werden Nutzer erwarten, intelligente Systeme nach ihren BedĂŒrfnissen anzupassen, das heiĂt programmieren zu können.
Das in dieser Arbeit beschriebene System ProNat ermöglicht Endnutzer-Programmierung mit gesprochener Sprache. Es befĂ€higt Laien dazu, einfache Programme fĂŒr unterschiedliche Zielsysteme zu beschreiben und deren FunktionalitĂ€t zu erweitern. ProNat basiert auf PARSE, einer eigens entworfenen agentenbasierten Architektur fĂŒr tiefes SprachverstĂ€ndnis. Das System ermöglicht die Verwendung alltĂ€glicher Sprache zur Beschreibung von Handlungsanweisungen. Diese werden von ProNat als Programm fĂŒr ein Zielsystem interpretiert, das eine Anwendungsschnittstelle zur Endnutzer-Programmierung anbietet. Bisherige AnsĂ€tze zur Programmierung mit natĂŒrlicher Sprache ermöglichen nur die Erzeugung kurzer Programme anhand textueller Beschreibungen. Da die meisten Systeme monolithisch entworfen wurden, können sie zudem nur mit groĂem Aufwand adaptiert werden und sind ĂŒberwiegend auf die Anwendung einer Technik (z. B. maschinelles Lernen) sowie auf eine AnwendungsdomĂ€ne festgelegt (z. B. Tabellenkalkulation). AnsĂ€tze, die gesprochene Sprache verarbeiten, können hingegen bisher nur einzelne Befehle erfassen.
Um die Restriktionen bisheriger AnsĂ€tze aufzuheben, wird eine neuartige Architektur entworfen. Die Kernkomponenten der Architektur PARSE bilden unabhĂ€ngige Agenten, die je einen bestimmten Aspekt der natĂŒrlichen Sprache analysieren. Die Kapselung in unabhĂ€ngige Agenten ermöglicht es, je Teilaspekt zum VerstĂ€ndnis der Sprache eine andere Technik zu verwenden. Die Agenten werden nebenlĂ€ufig ausgefĂŒhrt. Dadurch können sie von Analyseergebnissen anderer Agenten profitieren; unterschiedliche Sprachanalysen können sich so gegenseitig unterstĂŒtzen. Beispielsweise hilft es, sprachliche Referenzen wie Anaphern aufzulösen, um den Kontext des Gesagten zu verstehen; manche Referenzen können wiederum nur mithilfe des Kontextes aufgelöst werden. Ihr Analyseergebnisse hinterlegen die Agenten in einer geteilten Datenstruktur, einem Graphen. Die Architektur stellt sicher, dass keine Wettlaufsituationen eintreten und nur gĂŒltige Ănderungen am Graphen durchgefĂŒhrt werden. Die Agenten werden so lange wiederholt ausgefĂŒhrt, bis keine oder nur noch zyklische Ănderungen eintreten. Neben den Agenten gibt PARSE die Verwendung von FlieĂbĂ€ndern zur Vor- und Nachverarbeitung vor. Zudem können externe Ressourcen, wie Wissensdatenbanken oder Kontextmodellierungen, angeschlossen werden.
Das System ProNat entsteht, indem konkrete Agenten und FlieĂbandstufen fĂŒr die Rahmenarchitektur PARSE bereitgestellt werden. ZusĂ€tzlich werden Informationen ĂŒber die AnwendungsdomĂ€ne (das heiĂt die Anwendungsschnittstelle des Zielsystems und gegebenenfalls eine Modellierung der Systemumgebung) in Form von Ontologien als externe Ressource angebunden. Eine gesprochene ĂuĂerung wird von ProNat vorverarbeitet, indem zunĂ€chst das Audiosignal in eine textuelle Wortsequenz ĂŒberfĂŒhrt wird. AnschlieĂend erfolgt eine grundlegende syntaktische Analyse, bevor ein initialer Graph als Analysegrundlage fĂŒr die Agenten erzeugt wird. Die Interpretation des Gesagten als Programm obliegt den Agenten. Es wurden sechzehn Agenten entwickelt, die sich in drei Kategorien unterteilen lassen: Erstens, Agenten, die allgemeine SprachverstĂ€ndnis-Analysen durchfĂŒhren, wie die Disambiguierung von Wortbedeutungen, die Auflösung von sprachlichen Referenzen oder die Erkennung von GesprĂ€chsthemen. Zweitens, Agenten, die das Gesagte auf programmatische Strukturen, wie Anwendungsschnittstellenaufrufe oder Kontrollstrukturen, untersuchen; hierzu zĂ€hlt auch ein Agent, der aus verbalisierten Lehrsequenzen Methodendefinitionen synthetisiert. Da die Agenten unabhĂ€ngig voneinander agieren, kann zur Lösung der jeweiligen Problemstellung eine beliebige Technik eingesetzt werden. Die Agenten zur Erkennung von Kontrollstrukturen verwenden beispielsweise Heuristiken, die auf syntaktischen Strukturen basieren, um ihre Analysen durchzufĂŒhren. Andere Agenten, wie die Agenten zur Disambiguierung von Wortbedeutungen oder zur Bestimmung der GesprĂ€chsthemen, verwenden Wikipedia, Wordnet oder Ă€hnliche Quellen und inferieren anhand dieser Informationen. Zuletzt verwenden einige Agenten, wie beispielsweise der Agent zur Erkennung von Lehrsequenzen, maschinelles Lernen. Die Interpretation einer gesprochenen ĂuĂerung erfolgt dementsprechend mittels einer Kombination von sowohl regel- als auch statistik- und wissensbasierten Techniken. Dank der strikten Trennung der Agenten können diese einzeln (und zumeist unabhĂ€ngig voneinander) evaluiert werden. Hierzu wurden parallel zur Entwicklung der Agenten fortwĂ€hrend mithilfe von Nutzerstudien realistische Eingabebeispiele gesammelt. FĂŒr jeden Agenten kann somit ĂŒberprĂŒft werden, ob er einen zufriedenstellenden Beitrag zur Interpretation des Gesagten beitrĂ€gt. Das gemeinschaftliche Analyseergebnis der Agenten wird in der Nachverarbeitung sukzessive in ein konkretes Programm ĂŒbersetzt: ZunĂ€chst wird ein abstrakter Syntaxbaum generiert, der anschlieĂend in Quelltext zur Steuerung eines Zielsystems ĂŒberfĂŒhrt wird.
Die FĂ€higkeit des Systems ProNat, aus gesprochenen ĂuĂerungen Quelltext zu generieren, wurde anhand von drei unabhĂ€ngigen Untersuchungen evaluiert. Als Datengrundlage dienen alle in den Nutzerstudien gesammelten natĂŒrlichsprachlichen Beschreibungen. ZunĂ€chst wurden fĂŒr eine Online-Studie UML-AktivitĂ€tsdiagramme aus gesprochenen ĂuĂerungen generiert und 120 Probanden zur Bewertung vorgelegt: Der ĂŒberwiegende Teil der AktivitĂ€tsdiagramme (69%) wurde von der Mehrheit der Probanden als vollstĂ€ndig korrekt eingestuft, ein vielversprechendes Ergebnis, da die gesprochenen ĂuĂerungen die Synthese von bis zu 24 Anweisungen (bzw. AktivitĂ€ten) sowie Kontrollstrukturen erfordern. In einer zweiten Untersuchung wurde Java-Quelltext, bestehend aus Aufrufen einer Anwendungsschnittstelle zur Steuerung eines humanoiden Roboters, synthetisiert und mit einer Musterlösung verglichen: ProNat konnte Aufrufe meist korrekt erzeugen (F1: 0,746); auch die Synthese von Kontrollstrukturen gelingt in 71% der FĂ€lle korrekt. Zuletzt wurde untersucht, wie gut ProNat anhand von natĂŒrlichsprachlichen Beschreibungen neue Funktionen erlernen kann: Verbalisierte Lehrsequenzen werden mit einer Genauigkeit von 85% in ĂuĂerungen erkannt. Aus diesen leitet ProNat Methodendefinitionen ab; dabei gelingt es in ĂŒber 90% der FĂ€lle, einen sprechenden Methodennamen zu erzeugen. Auch der Aufruf der neu erlernten Funktion (durch natĂŒrlichsprachliche Anweisungen) gelingt mit einer Genauigkeit von 85%. Zusammengenommen zeigen die Untersuchungen, dass ProNat grundsĂ€tzlich in der Lage ist, Programme aus gesprochenen ĂuĂerungen zu synthetisieren; auĂerdem können neue Funktionen anhand natĂŒrlichsprachlicher Beschreibungen erlernt werden
Der Klang der Lyrik: Zur Konzeptualisierung von Sprecher und Stimme, auch fĂŒr die computationelle Analyse
Das Forschungsprojekt »textklang«: Mixed-Methods-Analyse von Lyrik in Text und Ton (gefördert durch das Bundesministerium fĂŒr Bildung und Forschung) zielt auf die systematische und diachrone Untersuchung der Beziehung zwischen literarischen Texten, insbesondere Lyrik der Romantik, und ihrer lautsprachlichen Realisierung bei der Rezitation oder der musikalischen AuffĂŒhrung. Die Vorstellungen von MĂŒndlichkeit, Klang und Stimme, die im Besonderen mit der Lyrik verbunden sind, werden empirisch untersucht und auch im Sinne moderner AnsĂ€tze der Lyrikanalyse theoretisiert. Besondere Bedeutung kommt dabei dem experimentellen Ansatz der Sprachsynthese zu, also der computationellen Möglichkeit, eine menschliche Sprechstimme kĂŒnstlich herzustellen; er ermöglicht es, eine idealtypische Realisierung des Textes zu ermitteln und menschliche Realisierungen auf ihre Ă€sthetische Besonderheit hin zu testen.The research project »text sound«: mixed-methods-analysis of lyric poetry in text and tonal sound (funded by the Federal Ministry for Education and Research, BMBF) aims to undertake a systematic and diachronic investigation of the relationship between literary texts, especially lyric poetry from the Romantic period, and their phonetic realisation in recitations or musical performances. Ideas of orality, sound and voice, which are particularly associated with poetry, are investigated empirically and also theorised in the line with modern approaches to the analysis of lyric poetry. Of particular importance is the experimental approach of speech synthesis, i.e. using computers to artificially produce a human sounding voice; this approach makes it possible to explore an ideal-typical realisation of the text and to test the aesthetic peculiarity of human realisations
Die Rolle des linken Gyrus angularis beim auditiven SprachverstÀndnis: Eine rTMS-Studie: Die Rolle des linken Gyrus angularis beim auditiven SprachverstÀndnis:Eine rTMS-Studie
Basierend auf der aktuellen Studienlage wurde versucht, Modellannahmen zum auditi- ven SprachverstĂ€ndnisses weiter zu ergrĂŒnden. Im Mittelpunkt stand dabei die Rolle des Gyrus angularis der sprachdominanten HemisphĂ€re bei der semantischen Integration von Worten in einen gegebenen Satzkontext. Zu diesem Zweck wurden 15 gesunde Proban- den mithilfe von repetitiver transkranieller Magnetstimulation (rTMS) in einem Sprach- verstĂ€ndnisexperiment untersucht. So konnte die funktionelle Relevanz der genannten Hirnregion in AbhĂ€ngigkeit der SignalqualitĂ€t des gehörten Satzes und des semanti- schen Kontextes untersucht werden. Zielparameter waren dabei der Anteil der korrekt wiederholten Wörter und SchlĂŒsselwörter des Satzes sowie die Reaktionsgeschwindigkeit
ArchiMob : A multidialectal corpus of Swiss German spontaneous speech
Alemannische Dialektologie â Forschungsstand und Perspektiven. SonderheftPeer reviewe
Eine agentenbasierte Architektur fĂŒr Programmierung mit gesprochener Sprache
The system described in this work, called ProNat, makes end-user programming with spoken language possible. It enables non-experts to describe programs for different target systems and to extend their functionality using everyday language. ProNat is based on PARSE, a specially designed agent-based framework architecture. In three independent studies, ProNat has proven to be principally capable of synthesizing programs from spoken utterances
Die Rolle phonetischer Information in der Sprechererkennung
Die gesprochene Sprache enthÀlt neben den phonetischen bzw. lexikalischen Informationen,
die den Inhalt einer ĂuĂerung ausmachen, auch Informationen ĂŒber den Sprecher. Beide
Informationstypen interagieren miteinander, was dazu fĂŒhrt, dass manche Segmente mehr
Informationen ĂŒber einen Sprecher enthalten als andere und dass Wissen ĂŒber den Sprecher
dabei helfen kann, die phonetischen Informationen besser zu verarbeiten und somit eine
ĂuĂerung besser zu verstehen. AuĂerdem stellt sich die Frage, wie diese Informationen
im Hinblick auf ein Sprachwahrnehmungsmodell (abstraktionistisch vs. exemplarbasiert)
integriert werden.
Von diesem Stand ausgehend wird in dieser Arbeit der Einfluss der Segmente, insbesondere
der Konsonanten, auf die Sprecherdiskrimination bzw. -identifikation untersucht. DafĂŒr
werden zunÀchst einige akustische Merkmale ausgewÀhlter Konsonanten des Deutschen in
einem Sprachkorpus analysiert. Es werden die ersten vier spektralen Momente der Laute
gemessen und deren SprecherspezifitÀt bestimmt. Vor allem die Nasale /m/ und /n/ sowie
die Frikative /f/ und /s/ offenbarten viele sprecherspezifische Merkmale.
Aufgrund der Annahme, dass sich diese akustisch gemessenen Merkmale auch perzeptiv
in irgendeiner Form manifestieren mĂŒssen, wurde ein Sprecherdiskriminationsexperiment
mit Hörern durchgefĂŒhrt. In beiden Experimenten war das Sprachmaterial eine /aKa/-
Sequenz. Im ersten Experiment enthielt der gesamte Stimulus Sprecherinformationen,
wÀhrend im zweiten Experiment nur der (statische Teil vom) Konsonant, aber nicht die
Vokaletransitionen Sprecherinformationen enthielt. In beiden Untersuchungen zeigen sich
Unterschiede in der SprecherspezifitÀt zwischen den verschiedenen Artikulationsmodi und
-stellen, wobei die durchschnittliche Sprecherdiskriminationsrate im zweiten Experiment
deutlich geringer ist als im ersten. Die Ergebnisse lassen darauf schlieĂen, dass Nasale und
Plosive viele ihrer Informationen in den Vokaltransitionen enthalten, wÀhrend die Frikative
mehr Informationen im (statischen Bereich des) Konsonanten besitzen.
Da die phonetischen und Sprecherinformationen miteinander interagieren, wurde im letzten
Teil der Arbeit die zeitliche Koordination der Verarbeitung beider Informationstypen
mittels eines Visual-World Eye-Tracking Experiments untersucht. Die Ergebnisse zeigen,
dass die Hörer das Target mit groĂer Sicherheit identifizierten, aber dass mit steigender
Anzahl an Sprechern (2 vs. 4 Sprecher) die Schwierigkeit der Targetidentifikation steigt. Im
Fall von verschieden geschlechtlichen Sprechern wird zuerst das Geschlecht und dann der
einzelne Sprecher erkannt. AuĂerdem wird nachgewiesen, dass die Sprecherinformationen
tendenziell sogar frĂŒher verarbeitet werden als die phonetischen Informationen und selbst
dann Verwendung finden, wenn phonetische Informationen allein zur Targetidentifikation
ausreichend sind. In phonetisch ambigen FĂ€llen werden die Sprecherinformationen verwendet,
um diese AmbiguitÀt zu verringern. Die Ergebnisse unterstreichen die Bedeutung von
Sprecherinformationen in der Verarbeitung gesprochener Sprache und sprechen somit
eher fĂŒr ein episodisches, exemplarbasiertes Modell der Sprachwahrnehmung, welches
Sprecherinformationen bereits zu einem frĂŒhen Zeitpunkt im Sprachverarbeitungsprozess
integriert
Fast Speech in Unit Selection Speech Synthesis
Moers-Prinz D. Fast Speech in Unit Selection Speech Synthesis. Bielefeld: UniversitÀt Bielefeld; 2020.Speech synthesis is part of the everyday life of many people with severe visual disabilities. For those who are reliant on assistive speech technology the possibility to choose a fast speaking rate is reported to be essential. But also expressive speech synthesis and other spoken language interfaces may require an integration of fast speech. Architectures like formant or diphone synthesis are able to produce synthetic speech at fast speech rates, but the generated speech does not sound very natural. Unit selection synthesis systems, however, are capable of delivering more natural output. Nevertheless, fast speech has not been adequately implemented into such systems to date. Thus, the goal of the work presented here was to determine an optimal strategy for modeling fast speech in unit selection speech synthesis to provide potential users with a more natural sounding alternative for fast speech output
Quantitative Methoden in der Sprachtypologie: Nutzung korpusbasierter Statistiken
Die Arbeit setzt sich mit verschiedenen Aspekten der Nutzung korpusbasierter Statistiken in quantitativen typologischen Untersuchungen auseinander. Die einzelnen Abschnitte der Arbeit können als Teile einer sprachunabhĂ€ngigen Prozesskette angesehen werden, die somit umfassende Untersuchungen zu den verschiedenen Sprachen der Welt erlaubt. Es werden dabei die Schritte von der automatisierten Erstellung der grundlegenden Ressourcen ĂŒber die mathematisch fundierten Methoden bis hin zum fertigen Resultat der verschiedenen typologischen Analysen betrachtet.
Hauptaugenmerk der Untersuchungen liegt zunĂ€chst auf den Textkorpora, die der Analyse zugrundeliegen, insbesondere auf ihrer Beschaffung und Verarbeitung unter technischen Gesichtspunkten. Es schlieĂen sich Abhandlungen zur Nutzung der Korpora im Gebiet des lexikalischen Sprachvergleich an, wobei eine Quantifizierung sprachlicher Beziehungen mit empirischen Mitteln erreicht wird.
DarĂŒber hinaus werden die Korpora als Basis fĂŒr automatisierte Messungen sprachlicher Parameter verwendet. Zum einen werden derartige messbare Eigenschaften vorgestellt, zum anderen werden sie hinsichtlich ihrer Nutzbarkeit fĂŒr sprachtypologische Untersuchungen systematisch betrachtet. AbschlieĂend werden Beziehungen dieser Messungen untereinander und zu sprachtypologischen Parametern untersucht. Dabei werden quantitative Verfahren eingesetzt
Schwierigkeitsbeeinflussende Merkmale bei Aufgaben zum Hörverstehen im Fach Deutsch in der Sekundarstufe I
In dieser Arbeit wird der Einfluss ausgewĂ€hlter Merkmale auf die Schwierigkeit von Items und Stimuli des IQB-Aufgabenpools fĂŒr das Fach Deutsch in der Sekundarstufe I im Kompetenzbereich âZuhörenâ untersucht. Aufgrund linguistischer Ăberlegungen zur Eigenart mĂŒndlicher
Kommunikation und den besonderen UmstÀnden in Art und Produktion gesprochener Sprache sowie den psychologischen, psycholinguistischen und didaktischen Grundlagen des
Hörverstehens ergeben sich Merkmale der Stimuli, der Items sowie Merkmale, die aus der Interaktion der Items mit dem entsprechenden Stimulus resultieren. Diese Merkmale werden
im Rahmen korpusanalytischer Methoden untersucht und sind ĂŒberwiegend auf lexikalischer und syntaktischer Ebene zu finden. AuĂerdem wird die Ăbereinstimmung der EinschĂ€tzung
der Aufgabenentwickler bezĂŒglich der Schwierigkeit von Items und Stimuli mit den empirischen Schwierigkeiten ĂŒberprĂŒft. Zu den Stimuli liegen ferner EinschĂ€tzungen von LehrkrĂ€ften
auf der Grundlage einer Ratingskala vor. ZusÀtzlich werden Merkmale der Testpersonen in die Analysen miteinbezogen.
ZusĂ€tzlich wird untersucht, in welcher Weise personenbezogene Merkmale die Testleistung und damit die Schwierigkeit von Items und Stimuli beeinflussen. Beurteilt werden von den SchĂŒlern der Interessantheits- bzw. Bekanntheitsgrad der Stimuli sowie die PrĂ€sentationsqualitĂ€t. FĂŒr keine dieser EinschĂ€tzungen kann ein systematischer signifikanter Zusammenhang mit den Leistungsdaten der SchĂŒler nachgewiesen werden. Die Ergebnisse des Tests zur ArbeitsgedĂ€chtniskapazitĂ€t sowie das Merkmal âSprachkenntnisseâ korrelieren dagegen in allen
FĂ€llen signifikant (p < 0.05) mi
Die Rolle phonetischer Information in der Sprechererkennung
Die gesprochene Sprache enthÀlt neben den phonetischen bzw. lexikalischen Informationen,
die den Inhalt einer ĂuĂerung ausmachen, auch Informationen ĂŒber den Sprecher. Beide
Informationstypen interagieren miteinander, was dazu fĂŒhrt, dass manche Segmente mehr
Informationen ĂŒber einen Sprecher enthalten als andere und dass Wissen ĂŒber den Sprecher
dabei helfen kann, die phonetischen Informationen besser zu verarbeiten und somit eine
ĂuĂerung besser zu verstehen. AuĂerdem stellt sich die Frage, wie diese Informationen
im Hinblick auf ein Sprachwahrnehmungsmodell (abstraktionistisch vs. exemplarbasiert)
integriert werden.
Von diesem Stand ausgehend wird in dieser Arbeit der Einfluss der Segmente, insbesondere
der Konsonanten, auf die Sprecherdiskrimination bzw. -identifikation untersucht. DafĂŒr
werden zunÀchst einige akustische Merkmale ausgewÀhlter Konsonanten des Deutschen in
einem Sprachkorpus analysiert. Es werden die ersten vier spektralen Momente der Laute
gemessen und deren SprecherspezifitÀt bestimmt. Vor allem die Nasale /m/ und /n/ sowie
die Frikative /f/ und /s/ offenbarten viele sprecherspezifische Merkmale.
Aufgrund der Annahme, dass sich diese akustisch gemessenen Merkmale auch perzeptiv
in irgendeiner Form manifestieren mĂŒssen, wurde ein Sprecherdiskriminationsexperiment
mit Hörern durchgefĂŒhrt. In beiden Experimenten war das Sprachmaterial eine /aKa/-
Sequenz. Im ersten Experiment enthielt der gesamte Stimulus Sprecherinformationen,
wÀhrend im zweiten Experiment nur der (statische Teil vom) Konsonant, aber nicht die
Vokaletransitionen Sprecherinformationen enthielt. In beiden Untersuchungen zeigen sich
Unterschiede in der SprecherspezifitÀt zwischen den verschiedenen Artikulationsmodi und
-stellen, wobei die durchschnittliche Sprecherdiskriminationsrate im zweiten Experiment
deutlich geringer ist als im ersten. Die Ergebnisse lassen darauf schlieĂen, dass Nasale und
Plosive viele ihrer Informationen in den Vokaltransitionen enthalten, wÀhrend die Frikative
mehr Informationen im (statischen Bereich des) Konsonanten besitzen.
Da die phonetischen und Sprecherinformationen miteinander interagieren, wurde im letzten
Teil der Arbeit die zeitliche Koordination der Verarbeitung beider Informationstypen
mittels eines Visual-World Eye-Tracking Experiments untersucht. Die Ergebnisse zeigen,
dass die Hörer das Target mit groĂer Sicherheit identifizierten, aber dass mit steigender
Anzahl an Sprechern (2 vs. 4 Sprecher) die Schwierigkeit der Targetidentifikation steigt. Im
Fall von verschieden geschlechtlichen Sprechern wird zuerst das Geschlecht und dann der
einzelne Sprecher erkannt. AuĂerdem wird nachgewiesen, dass die Sprecherinformationen
tendenziell sogar frĂŒher verarbeitet werden als die phonetischen Informationen und selbst
dann Verwendung finden, wenn phonetische Informationen allein zur Targetidentifikation
ausreichend sind. In phonetisch ambigen FĂ€llen werden die Sprecherinformationen verwendet,
um diese AmbiguitÀt zu verringern. Die Ergebnisse unterstreichen die Bedeutung von
Sprecherinformationen in der Verarbeitung gesprochener Sprache und sprechen somit
eher fĂŒr ein episodisches, exemplarbasiertes Modell der Sprachwahrnehmung, welches
Sprecherinformationen bereits zu einem frĂŒhen Zeitpunkt im Sprachverarbeitungsprozess
integriert
- âŠ