Fonemy – najmniejsze dźwiękowe cząsteczki słów – są odbierane przez narządy słuchu i transformowane w sygnały elektryczne. Te impulsy podróżują następnie VIII nerwem czaszkowym (przedsionkowo-ślimakowym) do mózgowia, a dokładnie do kory słuchowej, zlokalizowanej w płacie skroniowym. Przez dekady naukowcy sądzili, że przetwarzanie fonemów w słowa przez kolejne obszary kory słuchowej jest hierarchiczne – niczym kompletowanie urządzenia na taśmie produkcyjnej. Uważali oni, że pierwszorzędowa kora słuchowa przetwarza proste informacje dźwiękowe, np. częstotliwość dźwięków. Następnie przyległy do niej region – zakręt skroniowy górny – przekształca te cechy dźwięku w informacje kluczowe dla mowy, takie jak samogłoski i spółgłoski. W ten sposób, zgodnie z dominującą teorią, mózg konstruuje słowa.
Z czasem okazało się jednak, że uzyskanie bezpośrednich pomiarów aktywności mózgu, które mogłyby pomóc zweryfikować ten model, jest wyjątkowo trudne. Aby to osiągnąć, niezbędna jest bowiem precyzyjna rejestracja aktywności całej kory słuchowej. A ta jest umieszczona głęboko w szczelinie oddzielającej płat czołowy od skroniowego. Wyniki pierwszego w historii badania, w którym udało się tego dokonać, zostały opublikowane w czasopiśmie “Cell”.
“Podjęliśmy się tego eksperymentu z nadzieją, że znajdziemy dowody na hierarchiczne przetwarzanie informacji dźwiękowej” – mówi neuronaukowiec i neurochirurg Edward Chang z University of California w San Francisco.
Badanie trwało 7 lat. W tym czasie Chang i jego zespół pracowali z 9 pacjentami, którzy oczekiwali na operację mózgu, np. usunięcie guza lub odnalezienie źródła napadów epileptycznych. Ze względu na te procedury niezbędne było umieszczenie w ich mózgach – a dokładniej w korze słuchowej – miniaturowych siatek elektrod, rejestrujących i nie impulsy elektryczne. Ci pacjenci podjęli się uczestnictwa w badaniu Changa oraz zgodzili na analizę sygnału zebranego przez elektrody. Dzięki temu zespół uzyskał bezpośredni wgląd w proces przetwarzania dźwięków mowy przez korę słuchową.
“To pierwsze badanie, w którym udało się zarejestrować aktywność wszystkich obszarów kory słuchowej jednocześnie i bezpośrednio z powierzchni mózgu. Dotychczasowe próby polegały na implantowaniu kilku elektrod do kory słuchowej, co mogło ujawnić jedynie częściowy obraz przetwarzania dźwięków w słowa” – wyjaśnia Chang.
Uczestnicy słuchali nagranych słów i zdań, a naukowcy obserwowali sygnał rejestrowany przez elektrody. Badacze oczekiwali, że zobaczą hierarchiczny przepływ informacji od pierwszorzędowej kory słuchowej do przyległego zakrętu skroniowego górnego – zgodnie z dominującą teorią. Gdyby była ona słuszna, te obszary aktywowały by się jeden po drugim. Jednak analiza zebranych danych ujawniła zaskakujące rezultaty. Otóż niektóre rejony zakrętu skroniowego górnego odpowiadały na bodźce w tym samym czasie, co pierwszorzędowa kora słuchowa. Sugeruje to, że oba obszary rozpoczynają przetwarzanie informacji akustycznej równocześnie.
Aby uzyskać potwierdzenie swoich wyników, naukowcy przeprowadzili dodatkowy eksperyment. Mianowicie stymulowali oni pierwszorzędową korę słuchową uczestników prądem elektrycznym o niewielkim napięciu. Dlaczego? Jeśli przetwarzanie informacji akustycznej faktycznie jest hierarchiczne, to stymulacja ta powinna zaburzyć ten proces, a co za tym idzie – percepcję słów. Rezultaty tego eksperymentu ponownie zaskoczyły naukowców. Okazało się bowiem, że stymulacja pierwszorzędowej kory słuchowej wywołała w uczestników halucynacje słuchowe. Pomimo to byli oni w stanie wyraźnie usłyszeć wypowiadane do nich słowa i powtórzyć je. Jednak gdy stymulacji poddany został zakręt skroniowy górny, percepcja słów uległa zaburzeniu – uczestnicy mogli usłyszeć dźwięk, lecz nie jego znaczenie. Jeden z badanych stwierdził, że brzmiało to tak, jakby sylaby w słowach zostały zamienione miejscami.
Zatem, po latach badań, naukowcom udało się zarejestrować jak mózg przetwarza informacje akustyczne w słowa. Wyniki ich pracy stoją w sprzeczności z tradycyjnym, hierarchicznym modelem rozumienia mowy i przynoszą dowody na istnienie równoległych ścieżek przetwarzania informacji akustycznej i językowej w korze słuchowej mózgu. Sugeruje to, że tradycyjny model przetwarzania języka jest zbyt uproszczony i wymaga aktualizacji. Na podstawie wyników swojego eksperymentu naukowcy proponują, by uznać zakręt skroniowy górny za niezależny ośrodek słuchowy, zamiast kategoryzować go jako wyłącznie kolejny poziom przetwarzania informacji z pierwszorzędowej kory słuchowej. Są jednak ostrożni w wyciąganiu wniosków.
“Wyniki naszego badania stanowią ważny krok naprzód w neuronauce słuchu. Pomimo to nie rozumiemy jeszcze zbyt dobrze równoległego przetwarzania informacji słuchowej. Być może przebiega ono zupełnie inaczej, niż wyobrażaliśmy to sobie do tej pory. Nasze rezultaty to jedynie wierzchołek góry lodowej – przynoszą one więcej pytań niż odpowiedzi” – podsumowuje Chang.
Dzięki tej wiedzy w przyszłości naukowcy i terapeuci będą mogli opracować nowe terapie zaburzeń słuchu. W ten sposób pomogą nie tylko osobom niesłyszącym, lecz także dyslektykom, u których zaburzenia percepcji słuchu przypominają rezultaty stymulacji zakrętu skroniowego górnego.