Niektórzy ludzie utknęli wewnątrz swoich umysłów. Mogą odczuwać, postrzegać i myśleć, lecz w wyniku urazu lub choroby mózgu ich zdolność ekspresji uległa zniszczeniu. Jedyną nadzieją na przywrócenie możliwości komunikacji ze światem zewnętrznym jest dla nich neurotechnologia. Dekodowanie sygnałów neuronalnych w czasie rzeczywistym pozwoli na odczytanie i przekazanie intencji tych pacjentów – słów, ruchów, emocji. Zespół naukowców z Washington University School of Medicine w St. Louis udowodnił, że za pomocą światła można poprawnie odczytać to, co widzi mózg. Wyniki tych badań zostały opublikowane online w czasopiśmie NeuroImage.
Dekodowanie sygnałów neuronalnych ma ogromny potencjał zarówno jako narzędzie badań, jak i jako sposób komunikacji dla pacjentów ze schorzeniami neurologicznymi. Jednakże dużym wyzwaniem jest ograniczona dostępność technologii, która mogłaby rejestrować pracę mózgu w codziennym życiu. Elektrokortykografia (ang. electrocorticography, ECG) wymaga inwazyjnej operacji wszczepienia elektrod w tkankę kory mózgu. Rezonans magnetyczny (ang. magnetic resonance imaging, MRI) jest wykonywany za pomocą dużej i drogiej maszyny skanującej. Z kolei funkcjonalna spektroskopia w bliskiej podczerwieni (functional near-infrared spectroscopy, fNIRS) oferuje sygnał o zbyt niskiej jakości by można było precyzyjnie odczytać aktywność mózgów pacjentów. Natomiast dyfuzyjna tomografia optyczna o dużej gęstości (ang. high-density diffuse optical tomography, HD-DOT) to nieinwazyjna metoda obrazowania mózgu za pomocą światła.
Kiedy aktywność neuronalna jakiegokolwiek obszaru mózgu wzrasta, napływa do niego zwiększona ilość natlenowanej krwi, która odżywia “pracujące” komórki. Natlenowana krew absorbuje więcej światła niż krew odtlenowana. HD-DOT wykorzystuje te różnice, aby zarejestrować pracę neuronów. Do pomiaru niezbędny jest ściśle przylegający czepek, w którym ukryte są malutkie lampy LED oraz detektory światła. Procedura polega na przepuszczeniu strumienia światła przez powierzchniowe warstwy ośrodkowego układu nerwowego i rejestrację zmian absorpcji światła wynikających z dynamiki procesów metabolicznych. Dzięki temu w pośredni sposób można uzyskać informacje o aktywności neuronów kory mózgu. Dlatego profesor Joseph Culver i jego zespół postanowili zbadać potencjał HD-DOT w dekodowaniu sygnału mózgu w czasie rzeczywistym.
“Teoretycznie moglibyśmy wykorzystać do dekodowania sygnału MRI. Jednak do tego niezbędna jest maszyna skanująca. Zatem takie badanie nie miałoby zastosowania w codziennym życiu. Natomiast żeby skorzystać z HD-DOT użytkownicy mogliby po prostu założyć czepek” – opowiada autor i pomysłodawca badania, prof. Culver.
Naukowcy użyli HD-DOT do rejestracji aktywności płata potylicznego zawierającego korę wzrokową mózgu. Następnie stworzyli algorytmy sztucznej inteligencji, które na podstawie uzyskanych danych “zgadywały” co widzi mózg. Badacze postanowili rozpocząć ewaluację HD-DOT od modalności wizualnej, ponieważ układ wzrokowy mózgu jest już dość dobrze poznany. Neuronaukowcom udało się opracować “mapę” kory wzrokowej: wyświetlali uczestnikom bodźce i notowali, które neurony aktywowały się w odpowiedzi na dany percept. Dekodowanie sygnału komórek nerwowych odwraca ten proces – chodzi o uzyskanie informacji o charakterystyce bodźca na podstawie aktywności mózgu.
“Wiemy jakie bodźce widzą uczestnicy, więc możemy zweryfikować dokładność naszych algorytmów dekodujących sygnały neuronalne. W ten sposób możemy zaprogramować je tak, by osiągały wysokie wyniki również w naturalnym środowisku” – wyjaśnia prof. Culver, wykładowca wydziałów fizyki, inżynierii elektrycznej i inżynierii biomedycznej.
Naukowcy rozpoczęli pomiary od bardzo prostych bodźców. Do uczestnictwa zaprosili pięcioro ochotników, którzy wzięli udział w wielu kilkuminutowych testach. Każdy z nich polegał na biernej obserwacji wzoru szachownicy wyświetlanego przez kilka sekund po lewej bądź prawej stronie pola widzenia. Jednocześnie HD-DOT rejestrował aktywność kory wzrokowej. Następnie część sygnału została potraktowana jako dane “treningowe” – algorytm uczący się otrzymał zarówno informacje o aktywności mózgu jak i o lokalizacji bodźca. Pozostały sygnał wykorzystano jako dane “testowe” – na których algorytm sprawdzał, czy umie poprawnie przyporządkować aktywność mózgu do lokalizacji bodźca. Dla maksymalizacji jego skuteczności naukowcy powtórzyli tę analizę, używając różnych wycinków sygnału jako danych treningowych i testowych, dopóki nie przeanalizowali wszystkich możliwych kombinacji. Tak przygotowany algorytm był w stanie poprawnie zidentyfikować pozycję bodźca z dokładnością od 75% do 98% – działał lepiej, gdy dane treningowe i testowe pochodziły od jednej osoby.
W kolejnym etapie eksperymentu naukowcy postanowili utrudnić zadanie algorytmu. Mianowicie zwiększyli złożoność bodźca dodając element ruchu – obraz obracał się o 10 stopni na sekundę. Zatem program musiał nie tylko dekodować lokalizację bodźca, lecz także jego rotację. W pomiarach wzięło udział trzech (nowych) badanych. Każdy z nich odbył 6 siedmiominutowych testów. Badacze wykorzystali ten sam schemat analizy. Algorytm poprawnie zidentyfikował pozycję bodźca z dokładnością do 26 stopni. W ten sposób detekcja i dekodowanie sygnałów mózgu umożliwiły naukowcom scharakteryzowanie widzianego obiektu. Dokonanie tego wymagało fuzji zaawansowanej technologii neuroobrazowania z technikami analizy danych wykorzystującymi algorytmy uczące się. Wyniki tego badania stanowią krok naprzód w kierunku rozwiązania o wiele trudniejszego problemu – dekodowania pracy mózgu podczas wytwarzania komunikatów werbalnych. Ostatecznym celem jest umożliwienie osobom sparaliżowanym i pacjentom poudarowym porozumiewania się z światem.