Komunikacja między ludźmi i sterowanie urządzeniami opierają się na działaniu mięśni: klikanie myszką, pisanie na klawiaturze, mowa, gesty, mruganie... Gdy tracimy kontrolę nad mięśniami, tracimy możliwość komunikacji. Taką sytuację potrafimy sobie wyobrazić tylko jako stan przejściowy, coś w rodzaju chwilowej niedyspozycji. Ale są ludzie, dla których jest to okrutna codzienność. W skrajnym przypadku stanu całkowitego zamknięcia, do którego prowadzą choroby neurodegeneracyjne, jedynym sposobem komunikacji może być interfejs mózg–komputer. Aby zrozumieć jego działanie, przypomnijmy najpierw, co wiemy o działaniu mózgu.
Wiemy, że mózg składa się z niecałych 100 mld komórek zwanych neuronami. Pobudzenie elektryczne jednego neuronu propaguje się przez synapsy do dziesiątków tysięcy bliższych lub dalszych sąsiadów. Jeśli do neuronu dotrze tą drogą wystarczająco dużo pobudzeń, wygeneruje on potencjał, który też rozchodzi się przez dziesiątki tysięcy synaps... i tak dalej. Znamy i rozumiemy równania opisujące propagację tych potencjałów.
Nie wiemy, jak w tym kłębku wzajemnie pobudzających się komórek rodzą się świadomość i uczucia, ba, nawet sterowanie ruchem ludzkiej ręki jest dla nas wciąż niedoścignionym wzorem.
Co umiemy?
Potrafimy mierzyć potencjały neuronów wewnątrz mózgu – ale wymaga to wtyczki podobnej do tej z filmu „Matrix”, więc wygodniej mierzyć średnie potencjały docierające do powierzchni głowy. I to jest właśnie elektroencefalogram, czyli EEG. Od ponad 80 lat badamy EEG, aby dowiedzieć się czegoś o funkcjonowaniu mózgu, ale postęp jest powolny. Dlaczego?
Spróbujmy sobie wyobrazić podobne do EEG badanie, w którym pacjentem będzie komputer. Zmierzymy średnie pole elektryczne wokół centralnej jednostki komputera – na szczęście procesor, podobnie jak mózg, też działa „na prąd”. Co zobaczymy w takim sygnale? Na pewno zauważymy brak pola, kiedy komputer jest wyłączony. Podobnie w EEG – złośliwi twierdzą, że najlepiej sprawdza się w diagnozie śmierci klinicznej.
Im intensywniej będzie działał komputer, tym mierzone pole będzie silniejsze. Trudno jednak na tej podstawie stwierdzić, czy komputer odtwarza wideo czy wykonuje obliczenia naukowe. Chyba że potencjały pojawiają się głównie w okolicy koprocesora, odpowiedzialnego za obliczenia zmiennoprzecinkowe. Ale co konkretnie jest liczone? Znów trudno powiedzieć. Chyba że zaobserwujemy jakieś charakterystyczne dla danego rodzaju obliczeń cykle... W każdym razie z „badania” pola elektrycznego wokół procesora nie odczytamy dokładnie, co robi komputer. Podobnie w EEG poruszamy się trochę na ślepo. Potrafimy skojarzyć pewne typy cyklicznej aktywności pojawiające się w EEG ze stadiami snu czy napadami epileptycznymi, ale nie potrafimy odczytać myśli. Jak w tej sytuacji sterować komputerem za ich pomocą?
Znamy kilka prostych zjawisk, związanych z reakcją mózgu na różne bodźce. Na przykład widoczne w zapisie EEG potencjały wywołane zależą od tego, jak bardzo konkretny bodziec przykuwa naszą uwagę. Pokazane w serii fotografii zdjęcie miejsca zbrodni może wywołać silniejszy potencjał u mordercy, który zeznaje, że nigdy tego miejsca nie widział.
Ten potencjał, zwany P300 (występuje ok. 300 milisekund po bodźcu), może też posłużyć do stworzenia interfejsu mózg–komputer: jeśli migać będą kolejne literki, a my będziemy koncentrować uwagę tylko na „D”, ignorując pozostałe, to komputer powinien odczytać silniejszy potencjał P300 w momentach, gdy miga „D”. Czyli możemy pisać za pomocą samych myśli.
Odczytanie z EEG, kiedy wystąpił potencjał, niestety nie jest całkiem proste, bo w mózgu naraz dzieje się mnóstwo innych rzeczy i potencjały giną w „szumie” niezwiązanych z bodźcem myśli. Dlatego dla pewności każda literka miga zwykle kilka razy. Również ciągłe koncentrowanie uwagi na wybranych bodźcach nie jest wbrew pozorom łatwe, pomaga na przykład liczenie mignięć.
Tak właśnie działają współczesne interfejsy mózg–komputer. Poza P300 wykorzystywane są jeszcze inne potencjały, na przykład w niektórych systemach próbujemy na podstawie EEG odróżnić wyobrażenia ruchu lewą i prawą ręką. Nie jest to odczyt myśli, tylko świadomie generowanych intencji.
Co nam przeszkadza?
Największy problem, z którym nie bardzo potrafimy sobie poradzić, polega na tym, że EEG jest elektrycznym śladem nie tylko wybranych myśli, ale wszystkich zachodzących w danej chwili w mózgu procesów, i poza wspomnianymi powyżej nie ma wielu pomysłów na to, jak odseparować odpowiadające im sygnały.
Jest też mniejszy problem: zapis EEG jest silnie zakłócany przez potencjały pochodzące spoza mózgu. Wszystkie mięśnie, podobnie jak mózg, też działają „na prąd” i prąd ten jest niestety bez porównania silniejszy niż to, co do powierzchni głowy dociera z mózgu. Dlatego właśnie przy badaniu EEG elektrody umieszcza się we włosach (bo tam jest najmniej mięśni), należy się rozluźnić, czyli zmniejszyć napięcie mięśni, i nie mrugać, bo ruch gałki ocznej też generuje prąd.
Chyba że właśnie te „zakłócenia” chcemy wykorzystać do sterowania, tak jak w grze „mindball” prezentowanej w warszawskim Centrum Nauki Kopernik: w elektrodach umieszczonych na czole ślady EEG są zdominowane przez potencjały pochodzące od mięśni czoła i ruchów gałki ocznej. Są one bez porównania silniejsze niż to, co dociera do tych elektrod z mózgu, i bardzo łatwe do odczytu: sygnał pojawia się tylko wtedy, gdy mięsień pracuje, a oko się porusza – wystarczy tym zdarzeniom przypisać komendy. Mózg „niestety” działa bez przerwy.
Jak widać, znacznie łatwiej sterować za pomocą sygnałów docierających z mięśni i oczu niż z mózgu. Nie ma w tym nic złego, jeśli produktu nie reklamujemy jako interfejsu mózg–komputer albo dopuszczamy w tej dziedzinie pośrednictwo mięśni. Ale wtedy do interfejsów mózg–komputer należałoby zaliczyć również zwyczajną klawiaturę: komentarze na forach internetowych wpisywane za jej pośrednictwem, choć trudno w to czasem uwierzyć, w większości przypadków powstają w mózgu człowieka.
Wróćmy do poruszonego na wstępie tematu niepełnosprawnych o dramatycznie ograniczonych możliwościach komunikacji, żyjących w piekle zamknięcia. Ostatni krąg tego piekła to stan całkowitego zamknięcia, w którym przestały działać motoneurony, czyli kable przewodzące decyzje z mózgu do mięśni. Ale mózg pozostaje w pełni sprawny. Dzieje się tak w końcowym stadium stwardnienia zanikowego bocznego (ALS), na które choruje na przykład wybitny astrofizyk Stephen Hawking. Wyłączenie sterowania kluczowymi dla życia mięśniami prowadziło kiedyś do nieuchronnej śmierci – dzisiaj dzięki postępom medycyny potrafimy podtrzymywać zanikające funkcje życiowe, ale nie potrafimy zapewnić komunikacji. Wtedy jedyną nadzieją pozostaje interfejs mózg–komputer.
W 2008 r. przeprowadziłem pierwszy w Polsce publiczny pokaz działania takiego interfejsu. Niecałe cztery lata od rozpoczęcia badań prezentowaliśmy na CeBIT najnowocześniejsze i najszybsze na tych targach Urządzenie BCI, nadrabiając w ten sposób kilkunastoletnie opóźnienie Polski w tej dziedzinie. Efekty tej działalności były nieoczekiwane: z jednej strony kolejne ministerstwa RP odrzuciły siedem kolejnych wniosków o finansowanie dalszych badań, z drugiej strony zaczęli się zgłaszać niepełnosprawni o dramatycznie ograniczonych możliwościach komunikacji, których nadzieje rozbudziły prezentacje naszych sukcesów w mediach.
Czasem słyszymy o kimś sławnym, jak wspomniany Stephen Hawking czy genialny gitarzysta Jason Becker, któremu ALS odebrało panowanie nad mięśniami w wieku 20 lat, ale dzięki ruchom oczu wciąż porozumiewa się i komponuje (zob. jasonbeckerguitar.com); Jean-Paul Bauby, redaktor naczelny magazynu „Elle”, który po wylewie mógł tylko mrugać okiem i napisał w ten sposób książkę „Motyl i skafander”, czy artysta graffiti Tempt1 (Tony Quan), który tworzy mimo ALS dzięki złożonemu przez przyjaciół z tanich części i wolnego oprogramowania systemowi eyewriter.org.
Niestety, nie wszyscy mają szansę stać się sławni i bogaci, zanim nadejdzie choroba. Historie dziesiątków tysięcy niepełnosprawnych żyjących w piekle zamknięcia bywają bliższe historii Przemka Chrzanowskiego, który od urodzenia nie mógł nawiązać kontaktu z otoczeniem – tak opisuje swoją sytuację z tych czasów: „Nazywali mnie debilem, kłodą, rośliną. Wyłem w duchu z rozpaczy. Próbowałem oczyma dać znać, że wszystko rozumiem”. Na motywach jego historii powstał scenariusz filmu „Chce się żyć”, ale smutną rzeczywistość opisuje raczej reportaż „Jak motyl”, który można obejrzeć na vod.pl.
Co jest potrzebne?
W większości przypadków do komunikacji wystarczą technologie prostsze i tańsze niż interfejs mózg–komputer. Niestety, są one wciąż za drogie dla większości potrzebujących. Na przykład okulografia (ang. eyetracking), czyli śledzenie ruchów oka. Wykorzystujemy ją szeroko w neuromarketingu do badania, które elementy reklamy czy strony internetowej najbardziej przykuwają wzrok. Obiektywne odpowiedzi na takie pytania warte są dużych pieniędzy, dlatego cena systemu nie stanowi problemu.
Inaczej sprawa wygląda, gdy chcemy taki system udostępnić niepełnosprawnemu, dla którego ruchy oka są jedynym sposobem komunikacji ze światem. Wtedy 60 tys. zł staje się zwykle barierą nie do przebycia. Ale jest sposób na jej pokonanie.
W systemach komunikacji dla niepełnosprawnych najdroższe jest oprogramowanie. Chyba że udostępnimy system na licencji GPL – wtedy koszt licencji oprogramowania spada do zera. Ale działalność akademicka, finansowana z nakładów na naukę, kończy się na prototypach – a stąd do systemu gotowego do stosowania w praktyce codziennej zwykle daleko. Aby wypełnić tę lukę, założyłem firmę BrainTech.
W oparciu o biblioteki oprogramowania dostępne na otwartej licencji GPL, m.in. tworzone do celów naukowych w uniwersytetach Warszawy i Nottingham, stworzyliśmy pierwszy w świecie profesjonalny system EEG, korzystający całkowicie z wolnego (od słowa „wolność”) oprogramowania. Oparcie na licencji GPL oznacza, że każdy problem rozwiązuje się tylko raz, a dokładny opis tego rozwiązania (czyli kod źródłowy programów) jest dostępny dla wszystkich. Dzięki licencji GPL na rozwiązaniach z systemu GNU/Linux opiera się na przykład Android, dzięki czemu wielu producentów może produkować tanie telefony i tablety i wyposażać je w system operacyjny bez ponoszenia kosztów tworzenia oprogramowania od podstaw. Gdyby każdy producent musiał utrzymywać zespół programistów tworzących i rozwijających własny system (jak Apple), urządzenia byłyby znacznie droższe.
Jednak nawet pomimo dostępności oprogramowania interfejsy mózg–komputer są wciąż skomplikowaną, względnie drogą i trudną w stosowaniu technologią, rzadko wychodzącą poza ściany laboratoriów naukowych. Dostosowanie jej do potrzeb i możliwości niepełnosprawnych jest przedmiotem projektu, o którego finansowanie będziemy występować. Zajęliśmy się już jednak tworzeniem prostszych systemów, podobnych do tego, którym posługuje się Stephen Hawking. Projekt PISAK (Polski Integracyjny System Alternatywnej Komunikacji), realizowany przez BrainTech we współpracy z Wydziałem Fizyki UW i Stowarzyszeniami „Ożarowska” oraz „Mówić bez słów”, dofinansowany przez NCBiR w programie „Innowacje Społeczne”, ma na celu stworzenie takiego systemu, opartego na licencji GPL i dopasowanego do potrzeb niepełnosprawnych. Przemek Chrzanowski jest w pierwszej grupie użytkowników testujących powstający system.
Zapraszamy na wykład prof. Piotra Durki o interfejsach mózg–komputer podczas zbliżającego się Tygodnia Mózgu, który między 10 a 14 marca organizuje Instytut Biologii Doświadczalnej im. M. Nenckiego PAN. POLITYKA patronuje przedsięwzięciu, a spotkania odbywać się będą w redakcyjnej Sali Multimedialnej przy ul. Słupeckiej 6 w Warszawie o godz. 18.00. Wstęp wolny.