Dźwięk jest źródłem wielu informacji o środowisku zewnętrznym, odbieranych przez ludzki mózg. Mechanizm przekształcania fali dźwiękowej na impuls nerwowy, który przekazywany jest do mózgu znany był od dawna, jednak mniej zrozumiały był do tej pory sposób, w jaki sygnał ten przetwarzany jest w korze słuchowej. Badania naukowców z MIT, prowadzone we współpracy z innymi ośrodkami naukowymi w Stanach Zjednoczonych, pozwoliły rzucić więcej światła na ten problem.
W 1980 roku opracowano głębokie sieci neuronowe, które dały neurobiologom nadzieję na możliwość modelowania ludzkiego mózgu i dokładnego przyjrzenia się temu, jak przetwarza on informacje. Przez następne lata nie dysponowano jednak komputerami o mocy obliczeniowej, która byłaby wystarczająca do naśladowania zachodzących w nim procesów, takich jak rozpoznawanie mowy lub konkretnych obiektów. Postęp technologiczny, który nastąpił w ciągu ostatnich lat umożliwił takie wykorzystanie sieci neuronowych.
Alexander Kell, jeden z głównych autorów artykułu, mówi: “To niesamowita okazja dla neuronauki, ponieważ możemy rzeczywiście tworzyć systemy, które mogą robić to samo, co ludzie, a następnie badać je i porównywac z ludzkim mózgiem.”
Model sieci neuronowych opracowany przez zespół z MIT miał za zadanie rozpoznawać muzykę oraz mowę. “Odsłuchiwał” zatem tysiące dwusekundowych nagrań, zawierających jeden lub drugi rodzaj dźwięków, wraz z szumem tła, jaki występuje w naturalnych warunkach. Następnie miał zidentyfikować “usłyszane” słowo lub gatunek muzyki. Po licznych próbach model nauczył się wykonywać to zadanie równie dobrze, jak człowiek. Co więcej, wykazywał tendencję do wykonywania podobnych błędów i najgorzej radził sobie z tymi samymi nagraniami, które były kłopotliwe dla ludzi.
“Z czasem model staje się coraz lepszy w wykonywaniu swojego zadania” – mówi Kell. – “Mamy nadzieję, że uczy się on pewnego ogólnego schematu, więc gdy przedstawi się mu dźwięk, którego wcześniej nie słyszał, właściwie go rozróżni, co często zdarza się w praktyce.”
Model miał także odpowiedzieć na pytanie o strukturę kory słuchowej, a dokładniej – czy jest ona zorganizowana hierarchicznie. W systemie takim region mózgu odpowiedzialny za analizę poszczególnych bodźców dzieli się na kilka mniejszych obszarów, które wykonują inne rodzaje operacji. Dobrze udokumentowanym przykładem jest tu kora wzrokowa. Jej część zwana pierwszorzędową otrzymuje impulsy nerwowe bezpośrednio z komórek siatkówki. W niej rozpoznawane są podstawowe cechy obserwowanego obiektu, takie jak jego kolor czy ruch. Dalsza, dokładniejsza analiza ma miejsce w drugorzędowej i kojarzeniowej korze wzrokowej.
Analizując kolejne etapy przetwarzania informacji przez sieć neuronową, badacze odkryli, że podstawowe dane o dźwięku, np. o jego częstotliwości, są łatwiejsze do uzyskania na wcześniejszych etapach modelu. Ponieważ zaś “poruszają się” one po sieci, trudno jest je wyodrębnić na dalszych etapach. Tam z kolei łatwiejsze do uzyskania są bardziej złożone informacje, takie jak konkretne słowa. Zbadano także aktywność ludzkiej kory słuchowej i porównano obrazy uzyskane dzięki funkcjonalnemu rezonansowi magnetycznemu (fMRI) z aktywnością sieci neuronowej. Otrzymane wyniki pozwalają z dużym prawdopodobieństwem stwierdzić, że ten obszar mózgu istotnie wykazuje budowę hierarchiczną. Widoczne jest w nich bardzo wyraźne rozróżnienie między pierwszorzędową korą słuchową a regionami zaangażowanymi w dalsze przetwarzanie otrzymanych impulsów nerwowych.
Zespół planuje prowadzić dalsze badania, w trakcie których zbudowane zostaną modele sieci neuronowych wykonujące inne typy zadań opartych na bodźcach słuchowych, jak np. określenie lokalizacji źródła dźwięku. Przyniosą one lepsze zrozumienie funkcjonowania kory słuchowej, a w konsekwencji też sposobu, w jaki mózg przetwarza informacje.