4 research outputs found

    The effect of listening tasks and motor responding on activation in The auditory cortex

    Get PDF
    Previous human functional magnetic resonance imaging (fMRI) research has shown that activation in the auditory cortex (AC) is strongly modulated by motor influences. Other fMRI studies have indicated that the AC is also modulated by attention-engaging listening tasks. How these motor- and task-related activation modulations relate to each other has, however, not been previously studied. The current understanding of the functional organization of the human AC is strongly based on primate models. However, some authors have recently questioned the correspondence between the monkey and human cognitive systems, and whether the monkey AC can be used as a model for the human AC. Further, it is unknown whether active listening modulates activations similarly in the human and nonhuman primate AC. Thus, non-human primate fMRI studies are important. Yet, such fMRI studies have been previously impeded by the difficulty in teaching tasks to non-human primates. The present thesis consists of three studies in which fMRI was used both to investigate the relationship between the effects related to active listening and motor responding in the human AC and to investigate task-related activation modulations in the monkey AC. Study I investigated the effect of manual responding on activation in the human AC during auditory and visual tasks, whereas Study II focused on the question whether auditory-motor effects interact with those related to active listening tasks in the AC and adjacent regions. In Study III, a novel paradigm was developed and used during fMRI to investigate auditory task-dependent modulations in the monkey AC. The results of Study I showed that activation in the AC in humans is strongly suppressed when subjects respond to targets using precision or power grips during both visual and auditory tasks. AC activation was also modulated by grip type during the auditory task but not during the visual task (with identical stimuli and motor responses). These manual-motor effects were distinct from general attention-related modulations revealed by comparing activation during auditory and visual tasks. Study II showed that activation in widespread regions in the AC and inferior parietal lobule (IPL) depends on whether subjects respond to target vowel pairs using vocal or manual responses. Furthermore, activation in the posterior AC and the IPL depends on whether subjects respond by overtly repeating the last vowel of a target pair or by producing a given response vowel. Discrimination tasks activated superior temporal gyrus (STG) regions more strongly than 2-back tasks, while the IPL was activated more strongly by 2-back tasks. These task-related (discrimination vs. 2-back) modulations were distinct from the response type effects in the AC. However, task and motor-response-type effects interacted in the IPL. Together the results of Studies I and II support the view that operations in the AC are shaped by its connections with motor cortical regions and that regions in the posterior AC are important in auditory-motor integration. Furthermore, these studies also suggest that the task, motor-response-type and vocal-response-type effects are caused by independent mechanisms in the AC. In Study III, a novel reward-cue paradigm was developed to teach macaque monkeys to perform an auditory task. Using this paradigm monkeys learned to perform an auditory task in a few weeks, whereas in previous studies auditory task training has required months or years of training. This new paradigm was then used during fMRI to measure activation in the monkey AC during active auditory task performance. The results showed that activation in the monkey AC is modulated during this task in a similar way as previously seen in human auditory attention studies. The findings of Study III provide an important step in bridging the gap between human and animal studies of the AC.Tidigare forskning med funktionell magnetresonanstomografi (fMRI) har visat att aktiveringen i hörselhjärnbarken hos människor är starkt påverkad av motoriken. Andra fMRI-studier visar att aktiveringen i hörselhjärnbarken också påverkas av uppgifter som kräver aktivt lyssnande. Man vet ändå inte hur dessa motoriska och uppgiftsrelaterade effekter hänger ihop. Den nuvarande uppfattningen om hörselhjärnbarkens funktionella struktur hos människan är starkt påverkad av primatmodeller. Däremot har en del forskare nyligen ifrågasatt om apors kognitiva system motsvarar människans, och specifikt huruvida apans hörselhjärnbark kan användas som modell för människans. Dessutom vet man inte om aktivt lyssnande påverkar aktivering i hörselhjärnbarken hos apor på samma sätt som hos människor. Därför är fMRI-studier på apor viktiga. Sådana fMRI-studier har emellertid tidigare hindrats av svårigheten att lära apor att göra uppgifter. Denna doktorsavhandling utgörs av tre studier där man använde fMRI för att undersöka hur effekter som är relaterade till aktivt lyssnande och motorik förhåller sig till varandra i hörselhjärnbarken hos människan och hur aktiva uppgifter påverkar aktiveringar i hörselhjärnbarken hos apor. I Studie I undersöktes hur aktiveringen i hörselhjärnbarken hos människan påverkades medan försökspersonerna utförde auditiva och visuella uppgifter och gav sina svar manuellt. Studie II fokuserade på huruvida audiomotoriska effekter och effekter relaterade till aktiva hörseluppgifter samspelade i hörselhjärnbarken och dess omnejd. I Studie III utvecklades ett nytt försöksparadigm som sedermera användes för att undersöka auditiva uppgiftsrelaterade aktiveringar i hörselhjärnbarken hos apor. Resultaten av Studie I visade att aktiveringen i hörselhjärnbarken dämpas starkt när försökspersonerna reagerar på målstimulus med precisions- och styrkegrepp både vid auditiva och visuella uppgifter. Aktivering i hörselhjärnbarken påverkas också av typen av grepp då försökspersonerna utför auditiva uppgifter men inte då de utför visuella uppgifter (med identiska stimuli och motoriska reaktioner). Dessa manuellt-motoriska effekter kunde särskiljas från allmänna uppmärksamhetsrelaterade effekter, vilka kom fram då man jämförde aktiveringen under auditiva och visuella uppgifter. Typen av motoriska reaktioner, dvs. hur försökspersonerna reagerade på målstimuli (genom att reagera med händerna eller att uttala ljud) påverkade aktiveringen i stora områden i hörselhjärnbarken och lobulus parietale inferior (IPL) i Studie II. Aktiveringen i den bakre delen av hörselhjärnbarken och IPL påverkades också av om försökspersonen upprepade målstimulusens sista vokal eller svarade genom att uttala en given responsvokal. Diskriminationsuppgifter aktiverade gyrus temporale superior mera än 2-back (minnes) -uppgifter, medan IPL aktiverades mera av 2-back -uppgifterna. Dessa uppgiftsrelaterade (diskrimination vs. 2-back) påverkningar var oberoende av effekter som hade att göra med reaktionstypen i hörselhjärnbarken. Däremot fanns det ett samspel mellan uppgift och motoriska effekter i IPL. Tillsammans stärker resultaten från Studie I och II uppfattningen att funktioner inom hörselhjärnbarken är starkt beroende av dess sammankoppling med den motoriska hjärnbarken, och att bakre delarna av hörselhjärnbarken är viktiga för audiomotorisk integration. Dessa studier visar därtill att uppgiftsrelaterade, motoriska och uttalsrelaterade effekter produceras av oberoende mekanismer i hörselhjärnbarken. I Studie III utvecklades ett nytt försöksparadigm som var baserat på belöningssignaler. Med detta försöksparadigm lärdes makakapor att utföra en auditiv uppgift. I Studie III lärde sig makakaporna uppgiften inom ett par veckor, medan inlärningen av auditiva uppgifter i tidigare studier har tagit upp till flera år. Detta paradigm användes sedan med hjälp av fMRI för att mäta aktivering inom hörselhjärnbarken hos apor, medan aporna utförde aktiva auditiva uppgifter. Resultaten visar att aktiveringen i hörselhjärnbarken hos apor påverkas av uppgifter på liknande sätt som man tidigare har visat i människoforskning. Fynden i Studie II är ett viktigt framsteg för att kunna överbygga gapet mellan människostudier och djurstudier gällande hörselhjärnbarken

    Training des Raumrichtungshörens bei Patienten mit Cochlea-Implantat – eine hochauflösende EEG Studie

    Get PDF
    Diese Arbeit beschäftigt sich mit der Fragestellung, ob sich das Raumrichtungshören von CI-Trägern durch Training verbessern kann und wie sich Training des Raumrichtungshörens auf die Hirnaktivität von CI-Trägern auswirkt. Außerdem war es Ziel, das von Schäfer entwickelte MMRS auf Anwendbarkeit im Training des Raumrichtungshörens und das MMRS-Signal als Biomarker in diesem Zusammenhang zu prüfen. Zu diesem Zweck wurde eine Pilotstudie mit 3 Probanden durchgeführt, 2 davon CI-Träger, einer normal hörend. Einer der beiden CI-Träger trug ein Implantat der Firma Cochlear (Cochlear Corporation, Lane Cove, Australia) auf der rechten Seite, das Implantat des anderen CI-Trägers befand sich links und war von der Firma MED-EL (MED-El GmbH, Innsbruck, Austria). Der Proband mit CI links nutzte zusätzlich ein Hörgerät auf der kontralateralen Seite. Alle Probanden absolvierten 10 Trainingssitzungen für das Raumrichtungshören innerhalb von etwa 4 Wochen. Für das Training befand sich der Proband jeweils allein in einem schallgeschützten Raum. 7 Lautsprecher waren so an einem halbkreisförmig aufgebauten Gerüst mit 1,25m Radius befestigt, dass die Bogenlänge zwischen zwei benachbarten Lautsprechern 0,49m betrug. Der Proband war sitzend im Raum positioniert, sodass sein Blick geradeaus auf den mittleren Lautsprecher gerichtet war und sich die Lautsprecher etwa auf Höhe seiner Ohren befanden. In jedem von insgesamt 600 Durchgängen einer Trainingssitzung wurden zunächst 4 akustische Reize begleitet von je einem visuellen Feedbackreiz zufällig über einen der mittleren 5 Lautsprecher präsentiert. Diese Reize kamen alle aus der gleichen Richtung. Anschließend folgte ein fünfter als Testreiz dienender akustischer Reiz ohne begleitenden Lichtreiz. Er wurde entweder über den gleichen oder einen direkt benachbarten Lautsprecher abgespielt. Der Proband sollte mit dem an seinem Stuhl befestigten Zeiger angeben, aus welcher Richtung ihm der Testreiz präsentiert wurde. Für den normal hörenden Kontrollprobanden wurden durch ein zusätzliches Maskierungssignal in Form von weißem Rauschen erschwerte Bedingungen geschaffen. Die Koordination aller Experimente und die Aufzeichnung, sowie die Auswertung der Ergebnisse erfolgten über MATLAB (Mathworks Inc., Sherborn, Massachusetts). Um die Hirnaktivität beurteilen zu können wurde für jeden Probanden einmalig über Polhemus (Isotrack, Polhemus, Colchester, Vermont, USA) die Kopfform erfasst, zusätzlich wurde während jeder Trainingssitzung ein EEG mittels eines 256-Kanal High-Density Systems der Firma EGI (Electrical Geodesics Inc., Eugene, Oregon, USA) aufgezeichnet. Für die Auswertung der EEG-Daten wurde die MATLAB Software-Toolbox FieldTrip (Radboud University Nijmegen, Nijmegen, Netherlands) genutzt. Die beiden CI-Träger konnten sich im Laufe des Trainings signifikant verbessern. Diese Verbesserung schlug sich auch auf Sensorebene in den EEG-Daten nieder. Bezogen auf die Bedingungen „Same“ und „Diff“ entwickeln sich die beiden Probanden unterschiedlich. Der Proband mit Hörgerät verbessert sich lediglich unter der Bedingung „Same“, während sich der Proband mit CI rechts unter beiden Bedingungen verbessert, jedoch stärker unter der Bedingung „Diff“. Das Niveau, das der normalhörende Proband unter erschwerten Bedingungen bereits in der ersten Sitzung zeigt, erreichen beide CI-Träger nicht, der Proband mit CI bleibt allerdings mit seinem Maximalwert lediglich 1,84% unter dem Ausgangswert des Kontrollprobanden. Der Kontrollproband erreicht bereits zu Beginn eine hohe Trefferquote, konnte sich allerdings nicht signifikant verbessern. Seine Hirnaktivität weist auf Sensorebene keine signifikanten Veränderungen im Laufe des Trainings auf. Da die Ergebnisse von Schäfers Studie darauf hinweisen, dass insbesondere das im temporo-parietal-okzipitalen Junktionskortex lokalisierte COI2 für das Raumrichtungshören bei CI-Trägern relevant ist (Schäfer, Vedoveli et al. 2021), wird auf Quellenebene das MMRS-Signal in diesem Cluster betrachtet. Die Hirnaktivität in diesem Cluster zeigte bei keinem der Probanden eine signifikante Änderung im Rahmen des Trainings. Einige Autoren befassten sich bereits mit dem Raumrichtungshören normalhörender Probanden oder nach asymmetrischem Hörverlust. Nisha und Kumar zum Beispiel untersuchten das Training des Raumrichtungshörens an normalhörenden Probanden im virtuellen Raum (Nisha and Kumar 2017). Firszt und Reeder führten ein Training des Raumrichtungshörens mit Menschen mit asymmetrischem Hörverlust durch (Firszt, Reeder et al. 2015). Die Teilnehmer beider Studien zeigten eine bemerkenswerte Verbesserung im Laufe des jeweiligen Trainings. Die Ergebnisse unserer Pilotstudie weisen darauf hin, dass ein Training des Raumrichtungshörens auch für CI-Träger sinnvoll ist. Schäfer führte eine Studie mit normalhörenden Probanden und CI-Trägern durch. Sie testete das Raumrichtungshören der Probanden mittels eines multimodalen Repetitions-Suppressions-Paradigmas. Auf vier von Lichtreizen begleitete akustische Reize folgte ein fünfter alleinstehender akustischer Testreiz. Bei der Auswertung der EEG-Daten wurde ein Mismatch-Signal in der temporo-parieto-okzipitalen Junktionszone in Verbindung mit diesem Testreiz beobachtet. Schäfer nennt dieses Mismatch-Signal MMRS-Signal und vermutet eine Anwendbarkeit dieses Signals zur Messung von Trainingserfolg (Schäfer, Vedoveli et al. 2021). Die Daten unserer Studie sprechen eher gegen diese Vermutung. Auf Sensorebene war zwar eine signifikante Veränderung der Hirnaktivität zu beobachten, nicht jedoch auf Quellenebene. Zu beachten ist hierbei, dass das CI-Signal in der Quellenbestimmung einen Störfaktor darstellen kann. Für das Verständnis des Trainingsprozesses ist das Wissen um die neuronalen Vorgänge von Bedeutung. Es werden genauere Untersuchungen der aufgezeichneten EEG-Daten erfolgen, um herauszufinden, wo Veränderungen der Hirnaktivität im Laufe des Trainings lokalisiert sind. Ich schlage vor, weitere Studien in größerem Umfang durchzuführen und die Eliminierung der Störung der evozierten Signale durch das Cochlea-Implantat zu verbessern, um Daten mit größerer Aussagekraft zu erhalten. In weiterführenden Studien sollte auch weiterhin ein Augenmerk auf die Entwicklung der Hirnaktivität gelegt werden. Fundiertes Wissen über die neuronalen Verarbeitungsprozesse könnte zur Entwicklung optimaler Trainingsprogramme zur Rehabilitation von CI tragenden Menschen beitragen. Kenntnis darüber zu haben, wo neuronale Vorgänge im Training des Raumrichtungshörens zu verorten sind, würde außerdem gegebenenfalls eine Messung des Trainingserfolges auf neuronaler Ebene ermöglichen

    Frequency-specific attentional modulation in human primary auditory cortex and midbrain

    No full text
    Paying selective attention to an audio frequency selectively enhances activity within primary auditory cortex (PAC) at the tonotopic site (frequency channel) representing that frequency. Animal PAC neurons achieve this 'frequency-specific attentional spotlight' by adapting their frequency tuning, yet comparable evidence in humans is scarce. Moreover, whether the spotlight operates in human midbrain is unknown. To address these issues, we studied the spectral tuning of frequency channels in human PAC and inferior colliculus (IC), using 7-T functional magnetic resonance imaging (FMRI) and frequency mapping, while participants focused on different frequency-specific sounds. We found that shifts in frequency-specific attention alter the response gain, but not tuning profile, of PAC frequency channels. The gain modulation was strongest in low-frequency channels and varied near-monotonically across the tonotopic axis, giving rise to the attentional spotlight. We observed less prominent, non-tonotopic spatial patterns of attentional modulation in IC. These results indicate that the frequency-specific attentional spotlight in human PAC as measured with FMRI arises primarily from tonotopic gain modulation, rather than adapted frequency tuning. Moreover, frequency-specific attentional modulation of afferent sound processing in human IC seems to be considerably weaker, suggesting that the spotlight diminishes toward this lower-order processing stage. Our study sheds light on how the human auditory pathway adapts to the different demands of selective hearing
    corecore