Kuzyni Terminatora
Maszyny na polu walki odgrywają coraz ważniejszą rolę, a każda ich generacja jest bardziej autonomiczna niż poprzednia. Czy doczekamy się robotów, które samodzielnie będą decydować o otwarciu ognia do wroga?
O tym, że roboty stają się na współczesnym polu walki niemal niezastąpione, nie trzeba chyba już nikogo przekonywać. Większość z nich wykonuje zadania głównie defensywne, jak chociażby monitoring (automatyczne wieżyczki obserwacyjne), rozbrajanie (roboty saperskie) czy rozpoznanie (bezzałogowe statki latające). Jednak w wojskowych laboratoriach od pewnego czasu próbuje się stworzyć roboty w pełni autonomiczne. Maszyny, które będą podejmować decyzje o zachowaniu się na polu bitwy (m.in. o zaatakowaniu samodzielnie wybranego celu) bez udziału człowieka.
Teoretycznie nie ma w tym nic złego – zimna kalkulacja maszyny może przecież sprawić, że nie zginie nikt przypadkowy, co może się zdarzyć, gdy żołnierz jest zmęczony lub po prostu przestraszony i źle oceni ryzyko. Robot nie kieruje się uprzedzeniami ani nienawiścią, potrafi lepiej celować. Inni eksperci uważają jednak, że to scenariusz przerażający – każdy żołnierz wie bowiem, czym jest prawo konfliktów zbrojnych i co jest dozwolone, a co nie. Ma też wrodzoną empatię i wdrożoną w wyniku wychowania moralność. Wie, kiedy należy się zatrzymać. Maszyna, nawet najbardziej zaawansowana i nowoczesna, postępuje wyłącznie zgodnie z zapisanym w niej programem.
Zwolennicy daleko idącej robotyzacji pola walki prócz argumentu, iż roboty będą lepszymi, a więc bardziej precyzyjnymi wojownikami, przytaczają jeszcze jeden – na wojnie przestaną ginąć żołnierze (przynajmniej jednej strony – tej dysponującej odpowiednią technologią). Trudno jednak nie zauważyć, że postępująca robotyzacja działań zbrojnych może sprawić, iż w obliczu niewielkiego ryzyka kosztów społecznych politycy łatwiej mogą podejmować decyzję o rozpoczęciu wojny. Już teraz wysłanie wojsk chociażby do Iraku czy Syrii jest praktycznie niemożliwe z powodu presji społecznej, podczas gdy naloty z wykorzystaniem bezzałogowców na cele w Jemenie, Somalii, Afganistanie czy Pakistanie nie przyciągają większej społecznej uwagi. Z prostego powodu – w tego rodzaju operacjach nie giną „nasi chłopcy”, tylko maszyny. – Roboty wojenne, które się nie męczą, gotowe do działania na naciśnięcie guzika, tworzą zagrożenie permanentnego konfliktu zbrojnego – alarmował raport ONZ z maja 2013 r.
Sztuczna moralność
– Roboty nie złoszczą się i nie szukają zemsty, ale też nie okazują empatii żadnej ze stron – przestrzega prof. robotyki Noel Sharkey z University of Sheffield, krytyk autonomicznych dronów. Dodaje, że skonstruowanie w pełni samodzielnych robotów bojowych nie jest już obecnie szczególnie wymagającym wyzwaniem technicznym. Problemem jest jednak stworzenie nie tyle maszyn autonomicznych, ile „samodzielnie myślących”, czyli właściwie interpretujących otoczenie, a także zasady prawa wojennego. W tym dwie jego reguły podstawowe – rozróżniania i proporcjonalności. Konwencje genewskie głoszą, że zakazane jest „zabijać lub ranić wroga, który złożył broń lub jest bezbronny i który się poddał”. Czy autonomiczne roboty będą potrafiły właściwie ocenić sytuację na dynamicznie zmieniającym się polu bitwy? Jak poradzą sobie np. z odróżnieniem cywili od uzbrojonych bojowników w „nieformalnym” odzieniu? Zdaniem Sharkeya roboty nie mają czegoś, co Peter Singer – dyrektor Centrum dla Bezpieczeństwa i Wywiadu XXI Wieku przy waszyngtońskim ośrodku analitycznym Brookings – nazwał „wewnętrznym przeczuciem, że coś jest nie w porządku, moralnym kompasem; wiedzą, kiedy użyć przemocy, a kiedy nie”.
Autonomiczność robotów na polu walki wymagałaby zaprogramowania ich w przyszłości tak, aby mogły przestrzegać zasad konfliktów zbrojnych. Byłaby to komputerowa wersja „moralności”, pozwalająca robotom nie wykonywać rozkazów, które określilibyśmy jako zbrodnię wojenną. – Mamy moralny obowiązek upewnienia się, że tworzymy broń zdolną działać odpowiedzialnie i etycznie, potrafiącą zredukować zagrożenie dla osób niebędących stroną konfliktu – przekonywał prof. Ron Arkin z Georgia Institute of Technology, podczas prezentacji wstępnego systemu takiej „moralności”, powstającego w ramach prac finansowanych przez amerykańskie wojska lądowe.
W ramach prowadzonego projektu robot namierzył nieprzyjaciela w strefie działań wojennych, a więc w tej, w której otwarcie ognia jest dozwolone. Robot nie otworzył jednak ognia, bowiem nieprzyjaciel ukrył się na cmentarzu, a obiekt taki jest chroniony prawem międzynarodowym. W innym symulowanym teście robot namierzał wroga poruszającego się w konwoju obok szpitala. Maszyna starała się wtedy ocenić, czy można dokonać ataku bez uszkodzenia obiektów cywilnych. Jak przekonuje Arkin, udało mu się też stworzyć mechanizm „winy” – gdy robot popełnił błąd, w kolejnej podobnej sytuacji zaczynał działać ostrożniej. Naukowiec stwierdził optymistycznie: – Nie sądzę, by bezzałogowe systemy stały się kiedyś perfekcyjnie etyczne na polu walki, ale jestem przekonany, że mogą być bardziej etyczne niż ludzie.
Jednocześnie Arkin dodaje, że obecnie obawy krytyków są przesadzone, bo autonomiczność nie oznacza w pełni samodzielnego robota, pozostawionego bez kontroli człowieka: „Toster też jest autonomiczny. Można nakazać mu zrobić tost. Gdy wyjdziemy z kuchni, urządzenie nie pyta, czy ma przestać działać. O takiej autonomiczności mówimy”. Innymi słowy, roboty pozostałyby samodzielne w działaniu, ale nie podejmowałyby kluczowych decyzji, szczególnie co do otwarcia ognia. Na wojnie wszak żołnierze bardzo często muszą otrzymać rozkaz od dowódcy, by użyć broni. Z robotami byłoby podobnie – konieczna byłaby autoryzacja. Innym rozwiązaniem byłoby wykorzystanie robotów do zadań wartowniczych – mogłyby działać tylko w specjalnych strefach, gdzie nie ma przypadkowych osób (a przynajmniej nie powinno ich być).
Tagi: maszyna, darpa, pole walki, robot
wstecz Podziel się ze znajomymi
Partnerzy
Szanowny Czytelniku!
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Kto będzie administratorem Twoich danych?
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
O jakich danych mówimy?
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Dlaczego chcemy przetwarzać Twoje dane?
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
-
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
-
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
-
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Komu możemy przekazać dane?
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Jakie masz prawa w stosunku do Twoich danych?
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Jakie są podstawy prawne przetwarzania Twoich danych?
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI