Spis treści:

1. Dźwięk
2. Przewód słuchowy
   2.1. Ucho zewnętrzne
   2.2. Ucho środkowe
   2.3. Ucho wewnętrzne
        2.3.1. Ślimak
        2.3.2. Komórki rzęsate
        2.3.3. Komórki nerwowe
        2.3.4. Tonotopia
3. Struktury neuronalne
   3.1. Jądra ślimakowe
   3.2. Ciało czworoboczne
   3.3. Jądra oliwkowe górne
   3.4. Wstęga boczna
   3.5. Wzgórek dolny
   3.6. Ciało kolankowate przyśrodkowe
   3.7. Pierwszorzędowa kora słuchowa
   3.8. Droga słuchowa brzuszna i grzbietowa
4. Model Wernickego-Geschwinda
5. Patologia słuchu
   5.1. Niedosłuch
   5.2. Tinnitus (szumy uszne)
   5.3. Afazja
   5.4. Aprozodia

 
1. Dźwięk

Dźwięki to wrażenia słuchowe spowodowane rozchodzeniem się fali akustycznej. Działanie układu słuchowego opiera się na wychwytywaniu ruchu molekuł powietrza. Przewód słuchowy człowieka rejestruje zmianę amplitudy i częstotliwości ciśnienia powietrza w formie drgań. Ten sygnał jest przetwarzany przez struktury drogi słuchowej w głośność i wysokość dźwięku. Układ słuchowy człowieka może rejestrować dźwięki w zakresie częstotliwości od 20 Hz do 20 KHz.

 
2. Przewód słuchowy

Narządem słuchu u człowieka jest ucho. Małżowina uszna zbiera drgania z otoczenia i kieruje je do przewodu słuchowego. Składa się on ze struktur ucha zewnętrznego, środkowego oraz wewnętrznego. Jego funkcje to transmisja i wzmocnienie drgań mechanicznych, a także ich transdukcja w impulsy nerwowe.

 
2.1. Ucho zewnętrzne

Najbardziej zewnętrzną częścią ucha jest małżowina uszna. Tworzą ją fałdy skórne wypełnione tkanką chrzęstną, które otaczają zewnętrzny kanał słuchowy. Gdy fale dźwiękowe uderzają w małżowinę uszną, są odbijane i dostrajane, co ułatwia mózgowi lokalizację dźwięku. Następnie fale dźwiękowe kierowane są do zewnętrznego kanału słuchowego, który kształtem przypomina rurę zakończoną błoną bębenkową. Zewnętrzny kanał słuchowy wzmacnia dźwięki o częstotliwości pomiędzy 3 a 12 kHz.

 
2.2. Ucho środkowe

Fale dźwiękowe uderzają w błonę bębenkową i wprowadzają ją w drgania, które podążają przez wypełnioną powietrzem jamę ucha środkowego do tzw. kosteczek słuchowych – najmniejszych kości w organizmie człowieka. Są to: młoteczek, kowadełko i strzemiączko. Strzemiączko przesyła fale dźwiękowe do membrany zwanej okienkiem owalnym lub przedsionkowym, za którą rozpościera się ucho wewnętrzne. Rączka (manubrium) młoteczka łączy się przegubowo z błoną bębenkową, podczas gdy stopa (podstawa) strzemiączka łączy się przegubowo z owalnym okienkiem. Kosteczki słuchowe ucha środkowego działają jak dźwignia: wzmacniają drgania odebrane przez błonę bębenkową niemal dwudziestokrotnie.

 
2.3. Ucho wewnętrzne

Główną funkcją struktur ucha wewnętrznego jest przekształcenia docierających do nich fal mechanicznych w impulsy elektryczne. Odbywa się to z zachowaniem informacji i amplitudzie i częstotliwości tych fal, czyli o głośności i wysokości dźwięku.

2.3.1. Ślimak

Ślimak zawiera trzy obszary wypełnione płynem: schody środkowe (scala media), schody bębenka (scala tympani) i schody przedsionka (scala vestibuli). Schody środkowe są również nazywane przewodem ślimakowym. Wypełnia je endolimfa – płyn podobny składem do płynu wewnątrzkomórkowego. Organ Cortiego tworzy wstęgę nabłonka czuciowego, która biegnie wzdłuż całej błony podstawnej przewodu ślimakowego. Jej komórki rzęsate (ang. hair cells) przekształcają fale mechaniczne w sygnały nerwowe. Pozostałe sekcje – schody bębenka i schody przedsionka – znajdują się w labiryncie kostnym wypełnionym płynem zwanym perylimfą. Jego skład przypomina płyn mózgowo-rdzeniowy. Różnica chemiczna między endolimfą a perylimfą polega na różnicy potencjałów elektrycznych między jonami potasu i wapnia. Jest ona istotna dla funkcjonowania komórek rzęsatych w uchu środkowym.

2.3.2. Komórki rzęsate

Komórki rzęsate to komórki kolumnowe będące receptorami układu słuchowego. Na szczycie każdej z nich znajduje się wiązka około 100-200 wyspecjalizowanych rzęsek (cilia) – stąd ich nazwa. Ze względu na funkcję komórki rzęsate dzielą się na dwa rodzaje: wewnętrzne i zewnętrzne. Wewnętrzne komórki rzęsate są mechanoreceptorami ruchu. Przekształcają wibrację fali dźwiękowej w aktywność elektryczną włókien nerwowych, która następnie jest przesyłana do mózgu. Te komórki, podobnie jak fotoreceptory oka, wykazują stopniową odpowiedź elektryczną. Nie są więc ograniczone właściwościami potencjału czynnościowego „wszystko albo nic”. Na szczycie najdłuższych rzęsek komórek rzęsatych wewnętrznych spoczywa błona tektorialna. Porusza się ona z każdym cyklem dźwięku, przechylając rzęski i modyfikując ich aktywność elektryczną. Zewnętrzne komórki rzęsate są strukturą motoryczną. Energia akustyczna powoduje ich odkształcenia, co służy wzmocnieniu drgań o określonej częstotliwości.

U człowieka już w momencie narodzin ślimak zawiera około 3500 wewnętrznych i 12000 zewnętrznych komórek rzęsatych. Wykrywają one wibrację fali dźwiękowej z dokładnością rzędu wielkości atomowych, a ich reakcja nie trwa dłużej niż kilkadziesiąt mikrosekund. Ponadto ich aktywność błyskawicznie przystosowuje się do bodźców o stałej częstotliwości, co umożliwia odróżnienie istotnych sygnałów od dźwięków “tła”.

2.3.3. Komórki nerwowe

Sygnały z wewnętrznych komórek rzęsatych są przekazywane do dendrytów pierwszorzędowych neuronów słuchowych za pośrednictwem neuroprzekaźnika – glutaminianu. Ślimak zawiera znacznie mniej wewnętrznych komórek rzęsatych niż aferentnych włókien nerwowych, tak więc jedna komórka jest unerwiona przez wiele włókien nerwu słuchowego. Nerw słuchowy łączy się z nerwem przedsionkowym, tworząc nerw przedsionkowo-ślimakowy lub VIII nerw czaszkowy. Obszar błony ślimaka dostarczający dane wejściowe do określonego aferentnego włókna nerwowego można uznać za jego pole recepcyjne. Eferentne projekcje z mózgu do ślimaka również odgrywają rolę w percepcji dźwięku, choć ich rola nie jest jeszcze w pełni poznana. Synapsy eferentne znajdują się głównie na zewnętrznych komórkach rzęsatych.

2.3.4. Tonotopia

Informacja o amplitudzie (głośności) dźwięku jest wprost proporcjonalna do aktywności komórek rzęsatych. Natomiast informacja o częstotliwości (wysokości) dźwięków jest zachowana dzięki mapowaniu ich na strukturze ślimaka. Komórki unerwiające dany obszar ślimaka reagują jedynie na preferowaną częstotliwość dźwięku. Zatem częstotliwość jest w przybliżeniu wykładniczą funkcją długości ślimaka. Wysokie dźwięki odbierane są przez jego podstawę, a im dalej od podstawy leżą kolejne neurony, tym niższe dźwięki odbierają. Tę organizację nazywa się topograficznym mapowaniem częstotliwości – tonotopią. Jest ona zachowana w całym układzie słuchowym.

 
3. Struktury neuronalne

Droga słuchowa (nerw słuchowy, VIII nerw czaszkowy) zawiera zarówno włókna dośrodkowe, jak i odśrodkowe. Nerwy aferentne zachowują organizację tonotopową, która odzwierciedla analizę częstotliwości sygnału dźwiękowego. Zanim włókna nerwowe tego systemu dotrą do pierwszorzędowej kory słuchowej, wielokrotnie przeplatają się, dzięki czemu możliwy jest obustronny odbiór informacji akustycznej.

Oba nerwy słuchowe (lewo- i prawostronny) zawierają w przybliżeniu po 30000 włókien nerwowych. Każde włókno jest aksonem komórki unerwiającej określony obszar ślimaka i przenosi informacje o konkretnej częstotliwości i głośności dźwięku. Dane przesyłane w każdym włóknie nerwowym są reprezentowane przez szybkość potencjałów czynnościowych, a także określony czas poszczególnych potencjałów czynnościowych.

 
3.1. Jądra ślimakowe

Jądra ślimakowe stanowią pierwszy ośrodek przetwarzania neuronalnego sygnału akustycznego płynącego z ucha wewnętrznego. U ssaków obszar ten można anatomicznie i fizjologicznie podzielić na dwa regiony: grzbietowe jądro ślimakowe (ang. dorsal cochlear nucleus, DCN) i brzuszne jądro ślimakowe (ang. ventral cochlear nucleus, VCN). VCN dzieli się na tylno-środkowe jądro ślimakowe (ang. posteroventral cochlear nucleus, PVCN) i przednio-środkowe jądro ślimakowe (ang. anteroventral cochlear nucleus, AVCN). Kompleks jąder ślimakowych jest zlokalizowany na pograniczu mostu i rdzenia przedłużonego. Na tym poziomie droga słuchowa pozostaje nieskrzyżowana.

Kompleks jąder ślimakowych jest pierwszym miejscem integracji danych przetwarzanych w układzie słuchowym. Otrzymuje sygnał z przeciwstawnego ślimaka, płynący przez nerw ślimakowy i pełni kilka funkcji. Następnie droga słuchowa dzieli się na równoległe ścieżki dośrodkowe, które mogą jednocześnie wydobywać różne rodzaje informacji. Komórki brzusznego jądra ślimakowego otrzymują informacje o głośności i wysokości dźwięku. Następnie przesyłają je do kolejnych struktur układu słuchowego. Komórki grzbietowego jądra ślimakowego wykonują nieliniową analizę spektralną sygnału dźwiękowego, a następnie umieszczają jej wyniki w kontekście lokalizacji głowy, uszu i ramion. Ponadto oddzielają wrażenia dźwiękowe z “tła” i bodźców, korzystając z odśrodkowych projekcji płynących z kory słuchowej, jąder mostu (ang. pontine nuclei), zwoju i jądra trójdzielnego (ang. trigeminal ganglion and nucleus), jądra kolumny grzbietowej (ang. dorsal column nuclei) i drugiego zwoju korzenia grzbietowego (dorsal root ganglion). Przypuszczalnie to właśnie procesy zachodzące w neuronach grzbietowego jądra ślimakowego stanowią fundament dla lokalizacji źródeł dźwięku.

 
3.2. Ciało czworoboczne

Ciało czworoboczne znajduje się w brzusznej części mostu. Jest obszarem drogi słuchowej, w którym krzyżują się niektóre aksony pochodzące z jądra ślimakowego. Dzięki temu kolejna struktura układu słuchowego – jądra oliwkowe górne (ang. superior olivary complex) – otrzymuje informacje z obojga uszu. Skrzyżowanie włókien drogi słuchowej umożliwia lokalizację źródeł dźwięku.

 
3.3. Jądra oliwkowe górne

Jądra oliwkowe górne to grupa jąder zlokalizowanych w pniu mózgu, w pobliżu połączenia mostu i rdzenia przedłużonego. Jest to pierwszy przekaźnik słuchowy po jądrze ślimakowym w drodze do kory słuchowej. Stanowi główny punkt integracji informacji z obojga uszu. Otrzymuje projekcje wejściowe przede wszystkim z brzusznego jądra ślimakowego. Boczne jądra oliwkowe wykrywają różnice przestrzenne między sygnałem docierającym z obojga uszu. Przyśrodkowe jądra oliwkowe są natomiast wyspecjalizowane w detekcji różnic czasowych pomiędzy tymi sygnałami.

 
3.4. Wstęga boczna

Aksony jąder oliwkowych górnych tworzą tzw. wstęgę boczną, która przenosi informacje akustyczne przez różne jądra pnia mózgu aż do dolnego wzgórka śródmózgowia. W obrębie tych włókien rozmieszczone są trzy odrębne grupy komórek, głównie o działaniu hamującym: grzbietowa, środkowa i brzuszna. Nazywa się je również jądrami wstęgi bocznej. Komórki jądra grzbietowego wstęgi bocznej reagują selektywnie na binauralne (napływające z obojga uszu) dane wejściowe. Ich odpowiedź jest podtrzymana (tzn. nie reagują tylko na pojawienie się bodźca, ale utrzymują aktywność również po jego przeminięciu) i zależna od zarówno złożoności, jak i czasu trwania sygnału dźwiękowego. Neurony te są przede wszystkim GABA-ergiczne. Ich aksony biegną bilateralnie do wzgórka dolnego. Przeciwstawne jądra grzbietowe wstęgi bocznej mają połączenie strukturalne. Komórki jądra środkowego wstęgi bocznej nie wykazują aktywności spontanicznej, ale reagują na szeroki zakres częstotliwości fali akustycznej. Czasowy przebieg odpowiedzi tych komórek różni się znacząco zarówno od rytmu aktywności komórek tak brzusznego, jak i grzbietowego jądra wstęgi bocznej. Komórki brzusznego jądra wstęgi bocznej także wykazują niewielką aktywność spontaniczną. Bodźce rejestrowane uchem kontralateralnym wywołują w nich najsilniejszą odpowiedź. Reakcja tych neuronów może być przejściowa bądź podtrzymana, co wskazuje na zaangażowanie w przetwarzanie przebiegu bodźca w czasie (zmiany wysokości rejestrowanego dźwięku).

 
3.5. Wzgórek dolny

Wzgórek dolny to parzysta struktura międzymózgowia, znajdująca się tuż pod wzgórkiem górnym, funkcjonalnie przynależnym do układu wzrokowego. Jest to główne jądro drogi słuchowej międzymózgowia. Otrzymuje projekcje zarówno ze ścieżek sensorycznych, jak i z korowych. Jego neurony są zaangażowane w integrację dźwięku oraz tłumienie odgłosów procesów fizjologicznych takich jak bicie serca bądź oddech.

Anatomicznie wzgórek dolny dzieli się na trzy części: jądro centralne, otaczającą je korę grzbietową oraz bocznie przylegającą do nich korę zewnętrzną. Otrzymują one połączenia wejściowe od wielu jąder pnia mózgu. Niemal wszystkie jądra wstęgi bocznej wysyłają bilateralne projekcje do centralnego jądra wzgórka dolnego. Ponadto docierają do niego aksony kory słuchowej, ciała kolankowatego przyśrodkowego oraz jąder wzgórza. Połączenia wyjściowe ze wzgórka dolnego biegną przede wszystkim do ciała kolankowatego przyśrodkowego – ostatniego podkorowego ośrodka drogi słuchowej.

Aksony wstępujące równoległych ścieżek drogi słuchowej (np. projekcje z różnych jąder ślimakowych) kończą swój bieg we wzgórku dolnym. Pełni on zatem funkcje integrujące różne aspekty bodźca dźwiękowego. Jego neurony reagują na określone częstotliwości sygnału, co umożliwia wykrycie wysokości dźwięku. Ponieważ docierają do niego informacje z obojga uszu, jest to również kluczowy ośrodek lokalizacji przestrzennej źródła dźwięku. Ponadto wzgórek dolny jest odpowiedzialny za aktywację reakcji przestrachu (ang. startle reflex) wywołanej niespodziewanym odgłosem.

 
3.6. Ciało kolankowate przyśrodkowe

Ciało kolankowate przyśrodkowe (ang. medial geniculate body, MGB) to ośrodek układu słuchowego pośredniczący między wzgórkiem dolnym a obszarami kory słuchowej. Składa się z wielu jąder wzgórza, które różnią się morfologią i gęstością neuronów, połączeniami wstępującymi i zstępującymi oraz wzorcem ich aktywności. Jest zaangażowane w procesy kierowania i podtrzymywania uwagi słuchowej. W MGB wyróżnia się jądra brzuszne, grzbietowe i przyśrodkowe. Komórki jąder brzusznych odpowiadają na częstotliwość bodźca, a ich projekcje biegną z i do kory słuchowej. Neurony jąder grzbietowych otrzymują projekcje z poza drogi słuchowej i są zaangażowane w integrację dźwięku z innymi bodźcami. Natomiast komórki jąder przyśrodkowych przenoszą do kory słuchowej informacje o czasie trwania oraz intensywności dźwięku.

 
3.7. Pierwszorzędowa kora słuchowa

Pierwszorzędowa kora słuchowa to pierwszy ośrodek korowy układu słuchowego. Znajduje się w zakrętach poprzecznych Heschla, w tylno-górnej części zakrętu skroniowego górnego (41 i 42 pole Brodmanna). Również ten obszar zachowuje organizację tonotopową – można uznać go za topograficzną mapę częstotliwości dźwięku. Jego neurony mają pola recepcyjne, które reagują na zakres częstotliwości słuchowych oraz taktowanie dźwięku. Pierwszorzędowa kora słuchowa odpowiada za świadomą percepcję wrażeń akustycznych, a także pośredniczy w ich rozpoznaniu i lokalizacji.

Pierwszorzędowa kora słuchowa otoczona jest przez drugorzędową korę słuchową, z którą posiada gęsta sieć połączeń zwrotnych. Kora drugorzędowa przesyła projekcje do kolejnych ośrodków korowych zaangażowanych w percepcję dźwięku. Kora przedczołowa bierze udział w krótkotrwałym przechowywaniu wspomnień. Zakręt skroniowy poprzeczny, w obrębie którego znajduje się ośrodek Wernickego, jest zaangażowany w procesy związane z przetwarzaniem emocjonalnego ładunku dźwięku. Ma także udział w procesie zapamiętywania dźwięków.

Kora śródwęchowa jest częścią formacji hipokampa, który wspomaga i przechowuje wspomnienia wzrokowe i słuchowe. Natomiast zakręt nadbrzeżny pomaga w zrozumieniu języka, łącząc dźwięki ze słowami oraz integruje informacje dotykowe, wizualne i dźwiękowe.

 
3.8. Droga słuchowa brzuszna i grzbietowa

Istnieją dwa szlaki łączące korę słuchową z płatem czołowym: brzuszny i grzbietowy. Pełnią one różne funkcje. Szlak brzuszny odpowiada za rozpoznawanie dźwięku. Łączy korę słuchową z zakrętem skroniowym środkowym i biegunem skroniowym, który z kolei łączy się z zakrętem czołowym dolnym. Szlak grzbietowy jest odpowiedzialny za lokalizację dźwięku. Łączy korę słuchową z płatem ciemieniowym, który z kolei łączy się z dolnym zakrętem czołowym. U ludzi ta ścieżka (zwłaszcza w lewej półkuli) jest również odpowiedzialna za wytwarzanie mowy, powtarzanie słów, czytanie z ruchu warg oraz fonologiczną pamięć roboczą i pamięć długotrwałą. Podział drogi słuchowej na dwa szlaki następuje już na poziomie nerwu słuchowego. Jego przednia gałąź wchodzi do jądra przedniego ślimakowego w pniu mózgu, dając początek szlakowi brzusznemu. Tylna gałąź wchodzi zaś do grzbietowego i tylno-środkowego jądra ślimakowego, rozpoczynając tym samym grzbietowy szlak wzrokowy.

 
4. Model Wernickego-Geschwinda

Wczesny model percepcji i produkcji mowy został opracowany przez Carla Wernickego i Normana Geschwinda pod koniec XIX wieku. Model ten stanowił punkt wyjścia dla paradygmatu badawczego lingwistyki kognitywnej aż do początku XXI wieku. Zgodnie z jego głównym założeniem istnieją dwa komponenty niezbędne dla poprawnego operowania mową: rozumienie i wytwarzanie mowy. Wernicke i Geschwind, na podstawie badań pacjentów z rozmaitymi uszkodzeniami kory mózgu, spróbowali znaleźć obszary odpowiedzialne za te funkcje.

Wernicke i Geschwind zdolność słuchania ze zrozumieniem przypisali zakrętowi Heschla w 41 polu Brodmanna (obszarowi odpowiadającemu pierwszorzędowej korze słuchowej) oraz jego projekcjom do ośrodka Wernickego w płacie czołowym. Produkcję mowy ulokowali natomiast w sąsiednim ośrodku Broki. Uważali bowiem, iż znaczenia słów są reprezentowane przez pole Wernickego i przesyłane są wiązką aksonów, zwaną pęczkiem łukowatym, do ośrodka Broki. Tam reprezentacje odpowiednich morfemów są składane w wyrażenia. Następnie ośrodek ten miał przesyłać instrukcje ruchowe do neuronów kory motorycznej sterujących działaniem mięśni twarzy. Ponadto infrastruktura językowa mózgu była zlateralizowana i znajdowała się wyłącznie w lewej półkuli.

Założenia tego modelu zostały unieważnione dzięki badaniom przeprowadzonym z wykorzystaniem technologii neuroobrazowania. Przede wszystkim wykazały one istnienie dwóch szlaków przetwarzania dźwięku oraz udowodniły, że są one obecne w obu półkulach. Jakkolwiek jego postulaty dotyczące lokalizacji i lateralizacji funkcji językowych okazały się nieprawdziwe, model ten miał ogromny wkład w rozwój badań nad percepcją i produkcją języka. Przede wszystkim Wernicke i Geschwind zauważyli podział zdolności językowych na komponent czuciowy (percepcja) i ruchowy (produkcja), co ukierunkowało prowadzenie kolejnych badań.

 
5. Patologia słuchu 5.1. Niedosłuch

Niedosłuch to zaburzenie, które utrudnia bądź uniemożliwia prawidłowe słyszenie dźwięków. Może być łagodny (próg słuchowy 20-40 dB), umiarkowany (40-70 dB), ciężki (70-90 dB) lub głęboki (powyżej 90 dB). Niedosłuch może dotyczyć jednego lub obojga uszu. Utrudnia odbiór informacji dźwiękowej, prowadzenie rozmów i interakcji społecznych. W przypadku dzieci ma negatywny wpływ na ich rozwój poznawczy, a w przypadku osób starszych – może przyspieszać postęp otępienia starczego. Niedosłuch może być wrodzony bądź nabyty, trwały lub przejściowy. Do możliwych przyczyn niedosłuchu nabytego zalicza się: czynniki genetyczne, komplikacje przy porodzie, choroby zakaźne, przewlekłe infekcje ucha, ekspozycja na hałas oraz starzenie się.

Ze względu na lokalizację zaburzenia słuchu rozróżnia się niedosłuch przewodzeniowy i odbiorczy. Niedosłuch przewodzeniowy może być spowodowany zablokowaniem zewnętrznego kanału słuchowego, perforacją błony bębenkowej, infekcją ucha środkowego lub uszkodzeniem ciągu kosteczek słuchowych. Korekta niedosłuchu przewodzeniowego jest możliwa na drodze chirurgicznej lub za pomocą zewnętrznego aparatu słuchowego. Z rzadka prowadzi on do całkowitej głuchoty. Niedosłuch odbiorczy występuje częściej niż przewodzeniowy i ma wiele możliwych przyczyn. Najczęstsza z nich to degeneracja komórek rzęsatych ślimaka – receptorów słuchu. Zaburzenie słuchu rozwija się powoli. Pacjenci mogą doświadczać zmniejszonej wrażliwości na dźwięki lub trudności z interpretacją bodźców akustycznych. Percepcja mowy staje się problematyczna, szczególnie jeśli chodzi o wyodrębnianie słów z dźwięków tła. Niedosłuch odbiorczy może być korygowany za pomocą aparatu słuchowego, który amplifikuje docierające do ucha dźwięki, lecz nie ułatwia rozumienia mowy. W przypadku zaawansowanego niedosłuchu aparaty słuchowe nie przynoszą poprawy. Zamiast nich stosuje się implanty ślimakowe, które bezpośrednio stymulują nerw słuchowy, poprawiając zdolność słyszenia i percepcji mowy.

Ponad 5% światowej populacji – około 466 milionów ludzi (w tym 34 miliony dzieci) – cierpi ze względu na niedosłuch uniemożliwiający normalne funkcjonowanie. W przybliżeniu jedna trzecia osób powyżej 65 roku życia cierpi na jakąś formę niedosłuchu. Szacuje się, iż w 2050 roku co dziesiąta osoba będzie miała zaburzenia słuchu.

 
5.2. Tinnitus (szumy uszne)

Szumy uszne to zjawisko percepcji dźwięku, które nie jest spowodowane bodźcem akustycznym. Często jest on opisywany jako dzwonienie, lecz może również brzmieć jak klikanie, brzęczenie, syk lub ryk. Może być cichy lub głośny, niski lub wysoki i często wydaje się dochodzić z jednego lub obojga uszu, a nawet z samej głowy. U niektórych osób może zakłócać koncentrację, a w rzadkich przypadkach wiąże się z lękiem i depresją. Szumy uszne są zwykle związane z pewnym stopniem utraty słuchu. Występują często – dotykają około 10–15% populacji. Większość jednak dobrze je toleruje. Jest to poważny problem tylko u 1–2% osób. Słowo tinnitus pochodzi od łacińskiego tinnire, co oznacza „dzwonić”.

Najczęstszymi przyczynami szumu w uszach są uszkodzenie drogi słuchowej i niedosłuch spowodowany hałasem lub związany z wiekiem. Inne przyczyny obejmują infekcje ucha, choroby serca lub naczyń krwionośnych, chorobę Ménière’a, guzy mózgu lub urazy głowy. Czasami szum w uszach jest nagle odczuwany w okresie stresu emocjonalnego. Występuje częściej u osób cierpiących na depresję. Diagnostyka zwykle opiera się na opisie subiektywnych doświadczeń pacjenta. Możliwe jest także zastosowanie metod diagnostycznych audiologii. Obecnie nie istnieją leki bądź terapie ukierunkowane bezpośrednio na leczenie szumu. Zamiast tego podejmuje się próby znalezienia przyczyny szumu i usunięcia jej. W niektórych przypadkach chorym pomagają zewnętrzne aparaty słuchowe.

 
5.3. Afazja

Afazja to niezdolność do rozumienia lub formułowania mowy spowodowana uszkodzeniem mózgu w obrębie lewego płata skroniowego i/lub czołowego. Uszkodzenie analogicznych obszarów tylko po stronie przeciwnej nie prowadzi do objawów afazji. Głównymi przyczynami są udar niedokrwienny mózgu lub uraz głowy, ale afazja może być również wynikiem guzów mózgu, infekcji mózgu lub chorób neurodegeneracyjnych.

Diagnoza opiera się na ocenie czterech aspektów zdolności językowych: rozumienia słuchowego, ekspresji werbalnej, czytania i pisania oraz komunikacji funkcjonalnej. Aby zdiagnozować afazję, przynajmniej jeden z nich musi być znacząco zaburzony. Trudności osób z afazją mogą obejmować sporadyczne problemy ze znalezieniem słów, utratę zdolności mówienia, czytania lub pisania; ich inteligencja jednak pozostaje nienaruszona. Afazja może mieć wpływ zarówno na język ekspresyjny, jak i język receptywny, a także język wizualny, taki jak język migowy. Pomimo zaburzeń, często zachowane jest stosowanie wyrażeń formalnych w codziennej komunikacji. Na przykład, chociaż osoba z afazją, zwłaszcza afazją Broki, może nie być w stanie zapytać ukochanej osoby o jej urodziny, nadal może śpiewać „Sto lat”.

Afazja może rozwinąć się w każdym wieku, jako, że często jest ona spowodowana urazem. Jednak osoby w średnim wieku i starsze są najbardziej narażone na ten problem, ponieważ ryzyko udaru wzrasta wraz z wiekiem: około 75% wszystkich udarów występuje u osób powyżej 65. roku życia. Udary stanowią przyczynę większości udokumentowanych przypadków afazji: 25% – 40% osób rozwija afazję w wyniku uszkodzenia obszarów mózgu przetwarzających język.

Istnieje wiele podejść do klasyfikacji tego zaburzenia, którego objawy są wyjątkowo heterogeniczne. Paul Broca i Carl Wernicke zidentyfikowali jego dwie główne kategorie: ekspresywną oraz receptywną. Afazja ekspresywna, zwana również afazją motoryczną lub afazją Broca, charakteryzuje się trudnościami z produkcją mowy. Wypowiedzi pacjentów są fragmentaryczne, przerywane i produkowane z dużym wysiłkiem. Natomiast rozumienie języka zostaje zachowane. Uszkodzenie zazwyczaj znajduje się w obrębie płata czołowego lewej półkuli, w pobliżu ośrodka Broca. Zaburzeniom językowym często towarzyszy przeciwstronny paraliż bądź niedowład kończyn.

Afazja receptywna jest znana również jako afazja sensoryczna lub afazja Wernickego. Charakterystycznym objawem jest brak zrozumienia słów i zdań połączony z zachowaną zdolnością do produkcji płynnej mowy. W rezultacie wypowiedzi pacjentów, choć swobodne, często zawierają elementy niepoprawne bądź wręcz nonsensowne. Może też brakować im kluczowych słów. Uszkodzenie zazwyczaj znajduje się w obrębie płata skroniowego, w okolicy ośrodka Wernickego.

 
5.4. Aprozodia

Aprozodia to przypadłość neurologiczna charakteryzująca się niezdolnością do prawidłowego przekazywania lub interpretowania emocjonalnego nacechowania mowy. Te deficyty mogą być wynikiem uszkodzenia obszarów produkcji języka w półkuli niedominującej. Częstość występowania aprozodii jest obecnie nieznana, ponieważ badanie w kierunku aprozodii wtórnej do innych uszkodzeń mózgu jest zjawiskiem niedawnym.

Ze względu na objawy można wyróżnić trzy typy aprozodii: motoryczny, sensoryczny i mieszany. W pierwszym z nich pacjent nie jest w stanie zakomunikować swoich emocji przez odpowiedni akcent czy intonację. Jego mowa najczęściej jest monotonna, brakuje też odpowiedniej, związanej z emocjami, mimiki twarzy. W aprozodii sensorycznej pacjent nie jest w stanie zauważyć nacechowania emocjonalnego wypowiedzi innych osób. Typ mieszany łączy cechy aprozodii motorycznej i sensorycznej.

Bibliografia:
Adams JC, Mugnaini E Dorsal nucleus of the lateral lemniscus: a nucleus of GABAergic projection neurons. Brain Res Bull 1984
Damasio AR, Aphasia The New England Journal of Medicine, 1992
Darrow KN, Maison SF, Liberman MC Cochlear efferent feedback balances interaural sensitivity Nat. Neurosci. 2006
Davis KA Contralateral effects and binaural interactions in dorsal cochlear nucleus J. Assoc. Res. Otolaryngol. 2005
Fettiplace R, Hackney CM The sensory and motor roles of auditory hair cells" Nature Reviews. Neuroscience, 2006.
Goodglass, H, Kaplan, E, Barresi, B. The assessment of aphasia and related disorders Philadelphia: Lippincott Williams & Wilkins, 2001
Henry, JA; Dennis, KC; Schechter, MA General review of tinnitus: prevalence, mechanisms, effects, and management Journal of Speech, Language, and Hearing Research, 2005
Hickok G, Poeppel D The cortical organization of speech processing Nature Reviews. Neuroscience, 2007
Hoppe U, Hesse G Hearing aids: indications, technology, adaptation, and quality control" Current Topics in Otorhinolaryngology, Head and Neck Surgery, 2005.
Janata P et al. The cortical topography of tonal structures underlying Western music Science 2002
Kaas JH, Hackett TA Subdivisions of auditory cortex and processing streams in primates. PNAS, 2000
Kulesza RJ Cytoarchitecture of the human superior olivary complex: nuclei of the trapezoid body and posterior tier. Hear. Res. 2008
Levine, RA, Oron, Y Tinnitus The Human Auditory System – Fundamental Organization and Clinical Disorders. Handbook of Clinical Neurology, 2015
Lindeberg T, Friberg A Idealized computational models of auditory receptive fields PLOS ONE, 2015
Manasco MH Introduction to Neurogenic Communication Disorders. Burlington, 2014
Moore JK Organization of the human superior olivary complex Microscopy Research and Technique, 2000
Ross, ED, Monnot, M Neurology of affective prosody and its functional-anatomic organization in right hemisphere.Brain and Language, 2008
Skottun, BC. et al. The ability of inferior colliculus neurons to signal differences in interaural delay. PNAS, 2001
Stahl B, Van Lancker Sidtis D Tapping into neural resources of communication: formulaic language in aphasia therapy Frontiers in Psychology, 2015
Śliwińska-Kowalska M., Audiologia kliniczna.Mediton oficyna wydawnicza, 2005.
Thomson RS et al. Hearing loss as a risk factor for dementia: A systematic review Laryngoscope Investigative Otolaryngology, 2017
Tremblay P, Dick AS Broca and Wernicke are dead, or moving past the classic model of language neurobiology Brain and Language, 2016

Dodaj komentarz