Kuzyni Terminatora
Do jakiego więc stopnia roboty wojskowe powinny być autonomiczne? Christina Hess w artykule „Czy roboty zabójcy mogą być etycznie usprawiedliwione?”, podała przykład amerykańskich żołnierzy, którzy dostrzegli w Afganistanie grupę uzbrojonych talibów, ale mimo to nie zaatakowali. Powodem był fakt, iż bojownicy nieśli trumnę na pogrzeb. Jak przygotować robota na tak nieprzewidywalną sytuację? „Gdyby przecież zaprogramować roboty, by wstrzymać atak, gdy nieprzyjaciel niesie trumnę, to wówczas wróg zawsze by taką miał, aby uniknąć ataku” – zauważa Hess w argumentacji, która tylko na pozór wydaje się absurdalna. Argument, iż w przyszłości powstaną jeszcze bardziej zaawansowane maszyny, które będą się same uczyć, wcale nie uspokaja. Czy bezpieczniejszy jest bowiem „głupi” robot bojowy, który popełnia błędy, czy robot zaawansowany i stale się uczący, którego zachowania nie sposób do końca przewidzieć?
Granice nieomylności
Prócz naukowców problemem coraz częściej zajmują się też etycy, filozofowie i prawnicy. Na konferencji naukowej w 2008 r., o wymownym tytule „Etyka autonomicznych systemów wojskowych”, padło pytanie: Czy roboty mogą popełniać zbrodnie wojenne? Dla niektórych ekspertów takie pytanie jest absurdalne – robot to narzędzie, a za konsekwencje jego użycia odpowiedzialność ponosi sprawca. Innymi słowy, za morderstwo młotkiem winny jest nie młotek, ale człowiek, który zdecydował się użyć go w taki, a nie inny sposób.
Ale z autonomicznymi robotami sprawa może być mniej jednoznaczna – młotek nie jest samodzielny, a robot może być. Nie jest już tylko bezwolnym narzędziem, lecz staje się sprawcą kształtującym rzeczywistość. Jak podczas konferencji stwierdził jeden z ekspertów, „zbliżamy się do punktu, w którym prawo będzie musiało się zmienić. Trzeba będzie przyjąć do wiadomości, że odpowiedzialność za działania będzie od teraz spoczywać również na maszynach”. W dyskusję włączył się wtedy przedstawiciel brytyjskiego Ministerstwa Obrony, który dodał, że kwestie prawne można obejść. „Trzeba po prostu ograniczyć sytuacje, w których autonomiczny robot mógłby być narażony na złamanie prawa”. A jeżeli już dojdzie do pomyłki, to – zdaniem zwolenników – trudno, bowiem ludzie na wojnie przecież też popełniają błędy. Tak jak Amerykanie, którzy w 2008 r. pomyłkowo zbombardowali afgańskie wesele (37 ofiar), Niemcy, którzy pomylili talibów z cywilami (90 ofiar), czy Polacy, którzy ostrzelali wioskę (6 ofiar). Dlaczego więc od maszyn należałoby oczekiwać stuprocentowej nieomylności?
Niektórzy zwracają uwagę, że nawet jeśli robot popełni zbrodnię wojenną w wyniku swojej autonomicznej decyzji, to nie będzie można obarczyć za to winą człowieka, tak samo jak nie obarcza się odpowiedzialnością dowódcy żołnierza, który z własnej woli i bez rozkazu popełnił zbrodnię na polu walki. Taki pogląd, podobnie jak cała dyskusja na temat „wolności” robotów bojowych i zakresu ich swobody działania sprawiają, że przybywa zwolenników jednoznacznych rozwiązań. Mieszcząca się w Londynie pozarządowa organizacja „Landmine Action” (prowadząca kampanię na rzecz zakazania min przeciwpiechotnych i amunicji kasetowej) wezwała już społeczność międzynarodową do opracowania traktatu, który zdelegalizuje autonomiczne roboty bojowe. – Jesteśmy przekonani, że to człowiek, a nie maszyna, powinien decydować o użyciu broni – sądzi Richard Moyes z „Landmine Action”. – Nie chcemy, aby to roboty same uznawały, kto jest nieprzyjacielem, a kto nie – dodał. Human Rights Watch uważa, iż autonomiczne systemy broni to prosty krok na drodze do dehumanizacji wojny i tym samym wzywa do całkowitego zakazania bojowych robotów, które mogłyby działać samodzielnie, bez ingerencji człowieka. W 2013 r. Christof Heynes, specjalny sprawozdawca ONZ, wezwał do wstrzymania prac nad autonomicznymi systemami wojskowymi do czasu stworzenia odpowiednich regulacji prawnych.
Obawy te przemawiają do części naukowców. – Nie powinniśmy używać autonomicznych robotów bojowych, dopóki te naprawdę dobrze nie będą potrafiły odróżnić żołnierza od cywila – uważa Sharkey – a to nigdy nie będzie możliwe.
Więcej niż toster
Przedstawione powyżej dylematy nie są li tylko filozoficzną dyskusją; coraz bardziej dotyczą życia codziennego. Zwiększająca się autonomiczność robotów wojskowych to fakt. Ten proces trwa już od wielu lat. Wystarczy wspomnieć wykorzystywane od lat osiemdziesiątych przez amerykańską marynarkę wojenną systemy pokładowe „Aegis”, które mogą działać bez ingerencji człowieka. W 1988 r. system taki autonomicznie zidentyfikował cywilny samolot pasażerski Iran Air jako irański myśliwiec F-14. Chociaż załoga miała podejrzenie, że obiekt jest maszyną cywilną, oparto się na ocenie systemu „Aegis”. W katastrofie zginęło 290 osób.
Korea Południowa do monitorowania granicy ze swym nieprzewidywalnym sąsiadem z północy używa robotów SGR-A1 mogących otwierać ogień bez konieczności autoryzacji ze strony człowieka. Amerykanie na swych okrętach mają zbliżony system Phalanx. W wielu regionach na świecie, chociażby na Bliskim Wschodzie, latają setki bezzałogowców, które mogą działać niemal zupełnie autonomicznie, a udział człowieka jest bardzo ograniczony. Izraelski system przeciwrakietowy Iron Dome w pewnych sytuacjach sam odpala rakiety, nie czekając na decyzję człowieka.
O tym, że roboty odmienią przyszłe pole walki, jest przekonany Sharkey, a także Arkin, który stwierdził, że pomysły badaczy mogą znaleźć zastosowanie „może jeszcze nie w kolejnej wojnie, ale już w następnej – tak”. Gdyby wojskowi poważnie o tym nie myśleli, nie finansowaliby przecież badań Rona Arkina. Świadczy o tym też kierunek innych prowadzonych obecnie studiów. Pentagon już poprosił o rozpoczęcie prac nad systemem rozróżniania osób, które „współpracują” i „odmawiają współpracy” z robotem.
W 2006 r. opracowano raport o możliwości stworzenia autonomicznego systemu, który sam będzie mógł podjąć decyzję o zaatakowaniu nieprzyjaciela. Rok wcześniej amerykańskie dowództwo przygotowało prognozę, w której zapisano, że już za 20 lat „inteligentne” roboty staną się normą na polu walki. Trend jest więc wyraźny i to jedynie kwestia czasu, kiedy na froncie pojawi się w pełni samodzielny robot bojowy. Jedynie od nas – ludzi – zależy, czy będzie on wyposażony tylko w broń, czy również w namiastkę moralności.
Autor: Robert Czulda
Tagi: maszyna, darpa, pole walki, robot
wstecz Podziel się ze znajomymi