Nowa technologia szansą dla niewidomych na lepsze poznanie świata
Osoby niewidome są w pewnym stopniu w stanie zrekompensować utratę wzroku używając innych zmysłów. Poznają za pomocą dźwięku i dotyku otaczający ich świat. Badania neuroobrazowania dodatkowo poparły ten od lat znany fakt, pokazując, że obszary mózgu osób niewidomych odpowiedzialne za widzenie, stały się przewodnikami przetwarzającymi dotyk i dźwięk w informacje bardziej zwizualizowane. Obecnie, w epoce Google Glass, smartfonów i samo prowadzących się samochodów, nowe technologie oferują coraz bardziej zaawansowane sposoby zastąpienia jednego doświadczenie zmysłowego innym. Nowe technologie mogą „przywrócić” wzrok niewidomym w sposób wcześniej niemożliwy.
Widzieć uszami
Jednym ze sposobów jest wizualizacja dźwięku. W badaniu opublikowanym w Current Biology, neurolodzy z Uniwersytetu Hebrew w Jerozolimie wykorzystywali urządzenie zwane "the vOIce" w celu umożliwienia pacjentom niewidomym od urodzenia, widzenie za pomocą dźwięku. Urządzenie przekształcało obrazy w krótkie serie dźwięku, które uczestnicy uczą się następnie odpowiednio „rozkodowywać”.
Po serii szkoleń uczestnicy nauczyli się, na przykład, że krótki, głośny dźwięk syntezatora oznacza pionową linię, podczas, gdy dłuższy odpowiada jednej poziomej. Wstępujące i zstępujące tony odzwierciedlają odpowiednie kierunki, a intensywność i głośność tonu mówi o wysokości i jasności. Ułożenie tych dźwięków i ich kilkukrotne odtworzenie w założonej kolejności (każdy impuls trwa około jednej sekundy) stopniowo buduje obraz jako prosty i podstawowy kształt lub tak złożony, jak krajobraz.
Pomysł ma sprawdzone i rzeczywiste analogie w świecie zwierząt, mówi dr Amir Amedi, główny badacz. "Chodzi o to, aby zastąpić informacje z brakującego zmysłu używając innego. Tak jak nietoperze i delfiny wykorzystują dźwięki i echolokację, by "widzieć" za pomocą uszu".
Rozpoczynając od dźwięków dla podstawowych kształtów i linii, uczestnicy ostatnich badań zaczynali identyfikować kształt i pozycję ciała - "widzieli" je w swoim umyśle, nawet jeśli nigdy wcześniej nie mogli widzieć ludzkiej postaci. Co ciekawe, po około 70 godzinach treningów, niewidomi uczestnicy byli w stanie wykorzystać dźwięki do aktywacji wzrokowej części mózgu, w tych samych obszarach, jak w grupie kontrolnej, której członkowie rzeczywiście widzieli dane obrazy. Badania dotyczyły określonej części kory wzrokowej, która była aktywowana podczas oglądania ludzkich kształtów i pozycji.
Uczestnicy badania nigdy wcześniej nie byli w stanie zwizualizować całego ludzkiego ciała. Mogli chwycić za rękę, dotknąć policzka, nawet objąć, ale nie wiedzieli jak ta osoba wyglądał kucając, stojąc na jednej nodze lub podnosząc ręce do góry. Pomimo braku tego doświadczenia, podczas treningu uczestnicy byli zdolni do aktywacji specyficznego obszaru w korze wzrokowej po prostu po usłyszeniu konkretnych dźwięków, które umożliwiały prawidłową wizualizację określonych pozycji.
Według Dr Amedi, mózg jest w stanie przetworzyć początkową aktywację w korze słuchowej w "prawidłową” w obszarach widzenia w mózgu. "To co ma miejsce w mózgu, można nazwać „recyklingiem” neuronów, w tym sensie, że te same neurony wykonują to samo zadanie, ale z inną modalnością sensoryczną".
Nawigacja za pomocą ręki
Postęp technologiczny pozwala również osobom niewidomym wykonywać wiele czynności, o których nawet nie marzyli, np.: prowadzić samochód.
Badanie wykonane w Laboratorium Robotics and Mechanisms Virginia Tech było prowadzone przez dr Dennis Hong i doprowadziło do wykonania prototypowego samochodu dla niewidomych kierowców. Aby to osiągnąć, Hong i jej zespół wykorzystał do systemu wizualnego dotyk, zamiast dźwięku. Używając technologii stosowanej w prowadzących się samodzielnie samochodach, Hong i zespół zmodyfikowali pojazd kontrolowany przez komputer, tak aby umożliwić kierowcom prowadzenie go wyłącznie za pomocą dotyku, opierając się na nawigacji przesyłanej przez czujniki w samochodzie.
Lasery zamontowane w przedniej części samochodu stanowią „oczy” samochodu, zbierając informacje na temat barier i granic drogi. Następnie specjalne rękawice przekazują te informacje do kierowcy, aby pomóc mu kierować, poprzez stopniowe wibrowanie w palcach obu rąk wskazując kierunek, w który należy zwrócić samochód. Wibrujące krzesło z kolei daje wskazówki dotyczące optymalnej prędkości: położenie i intensywność wibracji mówi kierowcy, czy ma przyspieszyć, zwolnić, czy natychmiast hamować. Dodatkowo, nawiew powietrza sterowany z urządzenia umieszczonego obok kierowcy tworzy mapę na jego dłoniach i palcach, pomagając mu poruszać się na drodze. Pozwala to kierowcy na podejmowanie zaawansowanych decyzji, dając mu większą niezależność, z uwzględnieniem automatycznej informacji z samochodu.
Mimo, że otrzymano zgodę na projekt - niewidomi kierowcy wzbudzają niepokój niektórych osób – badania Dr Hong wykazały jednak, że samochód jest bezpieczny i efektywny, i zostało to potwierdzone w kilku jazdach testowych z udziałem osób niewidomych. Narodowe Stowarzyszenie Osób Niewidomych również poparło projekt umożliwiający niewidomym kierowcom aktywnie prowadzenie auta, a nie tylko bierne w charakterze pasażera. Dr Hong i zespół nadal udoskonalają technologię, poprawiając zarówno jakość bodźców zmysłowych generowanych przez samochód, jak i dotykowe systemy sterowania. Do tego czasu samochód został przetestowany jedynie na zamkniętym torze, ale celem jest, aby pewnego dnia móc testować go na zwykłej publicznej drodze.
Wspinaczka wysokogórska z użyciem języka
Również bardziej niezwykła część ciała została wykorzystana, aby pomóc osobom niewidomym zobaczyć poprzez dotyk: język. Usta są bardzo wrażliwym obszarem, o nieproporcjonalnie dużej liczbie neuronów; postać homunculusa, ukazująca interpretację proporcji ciała wyrażonych w stosunku do aktywacji mózgu, pokazuje język, jako część ciała mającą większe znaczenie sensoryczne niż cały tułów.
Twórcy BrainPort wykorzystali czułość języka do opracowania urządzenia, które przekształca bodźce wzrokowe w serie małych wyładowań elektrycznych. Szereg 400 elektrod, rozmieszczonych na powierzchni niewiele większej niż znaczek pocztowy, umieszcza się na języku. Urządzenie połączone jest z kamerą wideo podłączoną do okularów, a la Google Glass. Sygnał wizualny jest przetwarzany przez mały komputer podłączony do urządzenia, przy czym piksele odpowiadają różnym elektrodom w szeregu. Ta wizualna informacja jest przekładana i generowana w postaci impulsu elektrycznego na język, z różnym stopniem intensywności, czasem trwania, lokalizacją i liczbą w zależności od sygnału wyjściowego. Naukowcy opisują wyładowania, jako uczucie przypominające bąbelki lub wodę gazowaną na języku.
W chyba najbardziej niesamowity pokazie tej technologii, pewien człowiek używał BrainPort podczas wspinaczki górskiej. Sportowiec ekstremalny Erik Weihenmayer, jedyny niewidomy uczestnik wyprawy na Mount Everest, wykorzystywał dotykowe sygnały na języku, podczas wspinaczki. Z urządzeniem, był w stanie ocenić wielkość, odległość i głębokość następnego celu na ścianie wspinaczkowej lub uskoku, „widząc” za pomocą wibracji przekazywanych na język.
Podobnie jak vOIce, BrainPort aktywuje korę wzrokową, z pominięciem uszkodzonego nerwu wzrokowego. Opisane osiągnięcia technologiczne dają szansę nie tylko tymczasowym urządzeniom, ale również są potencjalną stałą opcją leczenia, z pominięciem niesprawnego narządu percepcyjnego, natomiast uruchamiające takie regiony w mózgu, które wcześniej były uważane za nieczynne. Na przykład, czujniki laserowe wszczepione w oko mogłyby zastąpić nieporęczne kamery, przekazując informacje wzrokowe do mikrochipów, które przełożą je na dotykowe lub słuchowe doznania. Lub elektrody wszczepiane do mózgu mogłyby być stosowane do bezpośredniego aktywowania kory wzrokowej, wykluczając konieczności udziału innych zmysłów. Neurolog dr Paul Bach-y-Rita, pionier technologii substytucji sensorycznej i współtwórca BrainPort, powiedział kiedyś: "widzimy naszymi mózgami, a nie oczami".
Autor: Barbar Garbacka
Źródło: www.blogs.discovermagazine.com
http://laboratoria.net/technologie/21794.html