Spośród wszystkich organizmów na ziemi jedynie ludzie komunikują się za pomocą dźwięków na tak dużą skalę. Nasze ciało – zwłaszcza drogi oddechowe i mózg – są do tego specjalnie przystosowane. Podczas normalnej rozmowy wypowiadamy nawet 120 – 200 słów na minutę. Mózg musi więc w bardzo krótkim czasie wykonać ogromną pracę, aby właściwie zinterpretować każdy z usłyszanych dźwięków i zrozumieć jego sens. Nie ułatwia mu zadania fakt, że wiele słów, choć brzmi tak samo, oznacza coś zupełnie innego, w zależności od kontekstu. Np. “Obraz okazał się tylko kopią” i “Chłopcy na boisku kopią piłkę” – a przecież słowo “kopią” może być użyte jeszcze w innym znaczeniu.
Naukowcy starają się zrozumieć, w jaki sposób ludzki mózg rozpoznaje poszczególne słowa. Przypuszcza się, że może on błyskawicznie obliczać podobieństwo znaczenia każdego z kolejno usłyszanych wyrazów. Przypominałoby to metodę, która pozwala nowoczesnym programom komputerowym analizować i rozumieć mowę. Potrzebują one jednak bardzo dużej liczby przykładów występowania poszczególnych słów w różnych kontekstach, aby w miarę prawidłowo rozpoznawać ich znaczenie. Porównując sumy podobieństwa danych słów, mogą one “dostrzec”, że np. “ciasto” i “placek” oznacza coś zbliżonego do siebie. Gdy jednak przyjrzeć się temu, jak dzieci uczą się rozumienia mowy, można zauważyć, że wystarczy im niewielka liczba przykładów. Świadczy to o dużej odmienności mechanizmów pozwalających komputerom i ludzkiemu mózgowi rozumieć słyszane słowa.
Badacze z Trinity College w Dublinie sprawdzili, co dzieje się z ludzkim mózgiem, gdy odbiera on mowę. W tym przeprowadzili badanie elektroencefalografem (EEG) grupy osób słuchającej audiobooków. Analiza aktywności ośrodkowego układu nerwowego pozwoliła stwierdzić, że słuchaniu mowy towarzyszy pobudzenie w obrębie płata ciemieniowego, które odzwierciedla jak bardzo słyszane właśnie słowo jest podobne do tych, które mózg zarejestrował wcześniej.
Wyniki badania pozwoliły nie tylko na potwierdzenie teorii porównującej działanie ludzkiego mózgu i komputera. Okazało się bowiem, że aby ten specyficzny sygnał się pojawił, badany musi naprawdę rozumieć to, co słyszy. Kiedy ochotnicy nie byli w stanie zrozumieć poszczególnych słów z powodu przeszkadzającego im hałasu, nie obserwowano tej specyficznej aktywności w płacie ciemieniowym. Ten sam efekt obserwowano, gdy słuchali oni nagrania odtwarzanego od tyłu lub kiedy nie skupiali uwagi na tym, co słyszą.
Autorzy badania przyznają, że stan obecnej wiedzy wciąż jest zbyt ubogi, aby dokładnie wyjaśnić, w jaki sposób mózg przetwarza mowę, rozpoznaje i analizuje poszczególne słowa oraz jak bardzo mechanizm ten różni się od stosowanego w programach komputerowych. Zwracają jednak uwagę na możliwości praktycznego zastosowania swojego odkrycia. Kierujący pracą zespołu prof. Edmund Lator uważa, że może ono by przydatne do monitorowania rozwoju językowego u niemowląt lub oceny funkcjonowania mózgu u pacjentów będących w stanie obniżonej świadomości. Co więcej – za pomocą EEG można byłoby również potwierdzić czy dana osoba naprawdę zrozumiała wydane jej instrukcje. Byłoby to przydatne szczególnie w przypadku zawodów, które wymagają efektywnej komunikacji, natychmiastowego reagowania i podejmowania szybkich decyzji na podstawie otrzymanych informacji, czyli np. u żołnierzy czy kontrolerów ruchu lotniczego.