Świadomość od dekad pozostaje jednym z największych wyzwań nauki. Wiemy coraz więcej o aktywności neuronów, sieciach mózgowych i neurochemii, a mimo to wciąż trudno odpowiedzieć na proste pytanie: dlaczego określone procesy w mózgu wiążą się z subiektywnym doświadczeniem, a inne nie? Nowa praca omawiana na łamach Neuroscience & Biobehavioral Reviews proponuje, aby spojrzeć na ten problem z innej perspektywy – nie jako na własność konkretnej struktury mózgu, lecz jako efekt specyficznego typu obliczeń wykonywanych przez układ nerwowy. Autorzy wychodzą od obserwacji, że większość współczesnych teorii świadomości koncentruje się na korelatach neuronalnych, czyli wzorcach aktywności mózgu towarzyszących świadomym stanom. Choć takie podejście dostarczyło wielu cennych danych, samo w sobie nie wyjaśnia, dlaczego dana aktywność „coś znaczy” z perspektywy podmiotu. Trudno jest uchwycić moment, w którym elektryczna aktywność neuronów staje się świadomym doświadczeniem człowieka. Dlatego proponowane jest podejście obliczeniowe: świadomość miałaby wynikać z określonego sposobu przetwarzania informacji, niezależnie od tego, czy realizuje go mózg biologiczny, czy inny system.
W centrum tej koncepcji znajduje się myśl, że nie każde przetwarzanie informacji prowadzi do świadomości. Kluczowe są takie cechy, jak integracja informacji, jej dostępność dla wielu procesów jednocześnie oraz zdolność systemu do modelowania własnego stanu. Mózg nie tylko reaguje na bodźce, lecz nieustannie tworzy wewnętrzny model świata i samego siebie, aktualizując go w czasie rzeczywistym. Świadomość byłaby więc efektem ubocznym procesu bardzo złożonego, ale zasadniczo opartego na możliwych do zaplanowania obliczeniach. To podejście ma istotne konsekwencje dla badań nad sztuczną inteligencją. Jeśli świadomość jest związana z konkretną architekturą obliczeniową, a nie wyłącznie z tkanką nerwową, pojawia się pytanie, czy zaawansowane systemy sztucznej inteligencji mogłyby kiedyś spełnić te warunki. Autorzy podkreślają jednak, że obecne modele sztucznej inteligencji, mimo imponujących możliwości, nie wykazują cech koniecznych do powstania świadomego doświadczenia. Brakuje im trwałego, zintegrowanego modelu własnych stanów oraz mechanizmów, które nadawałyby przetwarzanym informacjom znaczenie z perspektywy systemu.
Z punktu widzenia neuronauki i neurologii takie ujęcie może pomóc uporządkować wyniki z badań klinicznych. Zaburzenia świadomości, takie jak stan minimalnej świadomości czy śpiączka, można analizować nie tylko przez pryzmat uszkodzonych struktur mózgowych, lecz także przez to, które elementy sieci obliczeniowej przestały działać. Podobnie w dietetyce i medycynie coraz częściej mówi się o tym, że funkcjonowanie mózgu zależy od warunków energetycznych i metabolicznych, które umożliwiają lub ograniczają złożone przetwarzanie informacji. Świadomość w tym sensie staje się wskaźnikiem ogólnej sprawności systemu, a nie tajemniczym dodatkiem do biologii. Choć zaproponowane ramy nie rozwiązują ostatecznie problemu świadomości, przesuwają dyskusję na bardziej weryfikowalny grunt. Zamiast pytać, czy maszyna może być świadoma, badacze proponują pytać, jakie obliczenia są konieczne, aby jakikolwiek system mógł mieć subiektywne doświadczenie. To podejście może w przyszłości połączyć badania nad mózgiem, sztuczną inteligencją i filozofią umysłu w jeden, spójny program badawczy.