Osoby czytające wydania polityki

„Polityka” - prezent, który cieszy cały rok.

Pierwszy miesiąc prenumeraty tylko 11,90 zł!

Subskrybuj
Świat

Nieludzka wojna

Drony i automaty zamiast żołnierzy

Co najmniej 75 państw inwestuje w bezzałogowe systemy bojowe. Co najmniej 75 państw inwestuje w bezzałogowe systemy bojowe. J.M. Eddins Jr/Zuma Press / Forum
W technologii wojskowej nadchodzi punkt zwrotny. Jeśli roboty mordercy trafią na wyposażenie współczesnych armii, wojna stanie się łatwa, tania i powszechnie dostępna. To już nie jest science fiction.
Przedstawiciele świata zaawansowanych technologii zaapelowali do ONZ, by jak najszybciej wprowadziła zakaz budowy robotów morderców i automatyzacji wojny.Colin Anderson/Getty Images Przedstawiciele świata zaawansowanych technologii zaapelowali do ONZ, by jak najszybciej wprowadziła zakaz budowy robotów morderców i automatyzacji wojny.
Wraz z robotyzacją systemów przemocy współczesne państwo staje się zdehumanizowaną strukturą wymykającą się demokratycznej kontroli.Oli Scarff/Getty Images Wraz z robotyzacją systemów przemocy współczesne państwo staje się zdehumanizowaną strukturą wymykającą się demokratycznej kontroli.

W pilnowaniu granicy między Koreą Północną i Południową uczestniczą już od kilku lat. Wyprodukowane przez Samsunga, uzbrojone po zęby, nie przysypiają na warcie, nie dekoncentrują się, wolne są od zgubnych emocji. Wojskowe roboty za pomocą swoich sensorów beznamiętnie dzień i noc obserwują powierzony opiece teren. Najmniejsza próba ingerencji przekazywana jest do centrali, skąd może paść rozkaz o otwarciu ognia. Do dyspozycji jest karabin maszynowy kaliber 5,5 mm oraz działko 40 mm. Kiedy politycy i wojskowi zdecydują się usunąć całkowicie najsłabsze ogniwo – człowieka – i pozwolą robotom decydować o zabijaniu samodzielnie?

Zdaniem wielu ludzi z biznesu high-tech to tylko kwestia czasu. Elon Musk, założyciel Tesli, Demis Hassabis z Google wraz z ponad setką innych przedstawicieli świata zaawansowanych technologii zaapelowali właśnie do ONZ, by jak najszybciej wprowadziła zakaz budowy robotów morderców i automatyzacji wojny. Bo o ile dyplomatyczne rozmowy o robotycznym rozbrojeniu nie mogą się rozpędzić ze względu na biurokratyczną mitręgę, prace nad automatami do zabijania trwają na całym świecie.

Musk i spółka ostrzegają, że ludzkość znalazła się na krawędzi kolejnej rewolucji w dziedzinie uzbrojenia, której konsekwencją będzie rozwój nowego typu broni masowej zagłady, a wraz z nią ewolucja wojen, które mają być prowadzone na znacznie szerszą skalę niż dotychczas, w znacznie szybszym tempie. Do tego dochodzi ryzyko „demokratyzacji” nowej broni i jej wykorzystanie przez organizacje terrorystyczne.

Ich apel, niezwykle dramatyczny, nie trafił w próżnię. Debata o automatyzacji wojny trwa od lat. Przyspieszyła, gdy w 2012 r. organizacja Human Rights Watch opublikowała raport „Losing Humanity: The Case Against Killer Robots” (Tracąc człowieczeństwo: Argument przeciwko robotom zabójcom). Rok później sama ONZ podjęła dyskusję o automatycznym uzbrojeniu konwencjonalnym, w której uczestniczą 123 państwa (nie zabrakło Polski i Watykanu), 19 spośród nich zadeklarowało poparcie dla zakazu budowy robotów zabójców. Przykład dał Pakistan już w 2013 r. Ale największe potęgi militarne milczą w sprawie robotów.

1.

Jeszcze do niedawna wizje wojen prowadzonych przez roboty i automaty zajmowały wyobraźnię twórców science fiction: „Terminator”, „Matrix” czy stary poczciwy „Dr Strangelove” Stanleya Kubricka, w którym pojawia się „maszyna zagłady”, opracowany przez ZSRR automatyczny system odpowiedzi na ewentualny atak jądrowy ze strony Stanów Zjednoczonych. Dziś już jednak rzeczywistość dogoniła science fiction. Rewolucja technologiczna w dziedzinie militarnej nie jest, jak piszą autorzy sierpniowego listu, zagrożeniem, lecz faktem. O tym zaś przekonuje m.in. raport „20YY. Preparing for War in the Robotic Age” (20YY. Przygotowując się na wojnę w erze robotów) opublikowany w 2014 r. przez amerykański think tank Center for a New American Security.

Autorzy tego opracowania przypominają historię rozwoju bezzałogowych systemów bojowych, która sięga czasów drugiej wojny światowej. W 1943 r. Niemcy dokonali pierwszego ataku na konwoje morskie sił alianckich, wykorzystując samonaprowadzające się torpedy. W odpowiedzi Amerykanie zbombardowali niemiecki okręt podwodny, wykorzystując samonaprowadzającą się minę. Okazało się, że Niemcy mają w zanadrzu też inne pomysły, np. naprowadzane sygnałem radiowym bomby Fritz X. Rozwój broni jądrowej zmienił chwilowo myślenie o prowadzeniu wojny, do czasu jednak kiedy ustaliła się równowaga sił między USA i ZSRR gwarantująca wzajemne zniszczenie w przypadku konfliktu.

Równowaga strachu czyniąca z użycia broni jądrowej niebezpieczną fantazję popchnęła wojskowych i wspomagających ich inżynierów do rozwoju broni konwencjonalnej i zwiększania jej skuteczności, czyli doskonalenia tzw. współczynnika śmiercionośności. Okazją do spektakularnej prezentacji nowego, „inteligentnego” uzbrojenia stała się wojna w Zatoce Perskiej w latach 1990–91. Mimo że udział „inteligentnych” (samonaprowadzających się) pocisków w masie zrzuconych na siły irackie przez Amerykanów bomb nie przekroczył 10 proc., to wystarczyło, by pokazać bezradność armii Saddama Husajna. Armii zbudowanej zgodnie jeszcze z doktryną tradycyjnej wojny bardziej angażującej masy ludzkie niż systemy techniczne. Udział nowoczesnego, precyzyjnego sprzętu wykorzystywanego przez wojska USA wzrósł do 35 proc. podczas wojny o Kosowo w 1999 r. i do 65 proc. podczas kolejnej wojny w Iraku w 2003 r.

2.

To jednak nie te proporcje, czyli systematyczny wzrost nasycenia systemów bojowych „inteligencją”, są najważniejsze, tylko towarzyszące tej przemianie konteksty polityczny, społeczny i w końcu militarny. Monografia majora armii amerykańskiej Davida Bursaca „Autonomous Robotic Weapons” (Autonomiczna Broń Robotyczna) przypomina, że to doświadczenie pierwszej wojny światowej, która zamiast obiecywanej kilkutygodniowej przygody przekształciła się w przemysłową rzeź, popchnęło Niemców do rozwoju nowej koncepcji wojny, w której ludzie w maksymalnym stopniu zastąpieni byliby przez technikę. I choć druga wojna wywołana przez Niemców okazała się jeszcze większą rzezią, utrzymał się paradygmat minimalizacji strat własnych poprzez oddanie zabijania maszynom.

Ba, doktryna ta zyskała na znaczeniu w krajach Zachodu po drugiej wojnie światowej, z momentem kulminacyjnym podczas wojny w Wietnamie. Okazało się wtedy, że to nie Vietkong, ale koszt polityczny wynikający z braku społecznego przyzwolenia stał się głównym przeciwnikiem amerykańskiej armii. A tak zdecydowana niechęć wynikała z rachunku strat żołnierzy pochodzących z powszechnego poboru. Dwie dekady później Pustynna Burza w Iraku angażująca podobny ilościowo kontyngent sił koalicyjnych zakończyła się minimalnymi stratami.

Okazało się jednak, że nawet 18 żołnierzy amerykańskiej jednostki specjalnej Delta Force, którzy zginęli w 1993 r. w Somalii, to zbyt wiele, by angażować do bezpośrednich walk siły lądowe. Dlatego w 1999 r. wojna z Serbią o Kosowo zyskała aprobatę pod jednym warunkiem – że będzie casualties free, obędzie się bez ofiar (po stronie sił interwencyjnych). Co oznaczało rezygnację z wojsk lądowych i postawienie na operację powietrzną prowadzoną w taki sposób, by nie narazić własnych sił na utratę sprzętu i personelu. Rzeczywiście nikt nie zginął, choć Serbom udało się zestrzelić supersamolot F-117A. Fotografowali się potem na jego wraku z plakatami „Sorry, nie wiedzieliśmy, że jest niewidzialny”.

3.

Wojna o Kosowo zainspirowała Michaela Ignatieffa do napisania książki „Virtual War”. Autor zwraca uwagę, że koncepcja „bezpiecznej wojny bez ofiar”, potwierdzona w Kosowie, zdejmuje z interwencji zbrojnych najważniejszy bezpiecznik – naturalnej dla społeczeństw demokratycznych niechęci do poświęcania życia. Gdy ten koszt znika, rośnie pokusa, by interwencje zbrojne zbanalizowały się do rutynowej techniki rozwiązywania konfliktów politycznych i kryzysów humanitarnych. Miejsce żołnierzy przejmują prawnicy analizujący ewentualne konsekwencje i koszty nieuchronnych pomyłek.

Niedługo po kosowskiej interwencji w bazie lotnictwa amerykańskiego w Nellis odbyła się pierwsza próba bojowego wykorzystania samolotu bezzałogowego Predator. Dron zaopatrzony w pocisk Hellfire z powodzeniem zniszczył wskazany cel. Okazji do wykorzystania nowego uzbrojenia dostarczył zamach 11 września 2001 r. i późniejsza operacja w Afganistanie. Dziś, jak informują autorzy wspomnianego raportu „20YY. Preparing for War in the Robotic Age”, co najmniej 75 państw inwestuje w bezzałogowe systemy bojowe, a sami Amerykanie mają na stanie tysiące takich maszyn. Bez jakiejkolwiek kontroli opinii publicznej wykonują misje tzw. pozasądowych egzekucji na wrogach USA, najczęściej na terenach, gdzie Stany Zjednoczone nie prowadzą działań wojennych, jak Pakistan lub Jemen.

4.

Tę postępującą błyskawicznie dehumanizację wojny analizuje w kontekstach etycznym, filozoficznym i prawnym francuski badacz Grégoire Chamayou w ponurej książce „Théorie du drone” (Teoria drona). Przypomina w niej rozważania o wiecznym pokoju Immanuela Kanta. Wielki filozof z Królewca przekonywał, że wojny ustaną, gdy na świecie zapanuje demokracja. Demokracje skazane są bowiem na demokratyczny pacyfizm, wynikający z niechęci do poświęcania życia przez obywateli decydujących o samych sobie. Robotyzacja wojny doprowadziła jednak dziś do tego, że zwyciężył demokratyczny militaryzm, a świat znalazł się w stanie ciągłej, choć niewypowiedzianej wojny, której bliźniaczym wyrazem są nie-ludzkie ataki dronów i nieludzkie, samobójcze ataki terrorystyczne. Obawy Ignatieffa z końca XX w. spełniły się w połowie drugiej dekady XXI w.

To jednak dopiero początek, używane obecnie drony ciągle podlegają kontroli człowieka. Nie ma jednak technicznych przeszkód, by obdarzyć je autonomią, i nie brakuje zwolenników takiej ewolucji uzbrojenia. Autorzy raportu „20YY” zwracają uwagę na złożoność tego procesu. Rozwój systemów autonomicznych, odwołujących się do rozwiązań opartych na sztucznej inteligencji, spowoduje w nieuchronny sposób zmniejszenie dzisiejszej militarnej przewagi Stanów Zjednoczonych. Systemy takie są bowiem bardziej dostępne niż np. broń jądrowa lub chemiczna i znajdują się w zasięgu mniej zamożnych państw lub struktur pozapaństwowych.

Amerykanie przekonali się o tym już w Iraku, gdy lokalna partyzantka odpowiedziała na zaawansowaną technologicznie wojnę własnym jej wariantem. Telefony komórkowe, tania elektronika i łatwy dostęp do materiałów wybuchowych umożliwiły masową produkcję zdalnie odpalanych bomb skutecznie hamujących swobodę przemieszczania się wojsk okupacyjnych. Rewersem wojny high-tech okazała się wojna „Zrób to sam” oraz ataki terrorystyczne.

Problem jednak nie tylko w tym, że ceną, jaką trzeba zapłacić za „wojnę bez ofiar”, są ofiary zamachów. Chamayou przekonuje, że o wiele poważniejszą konsekwencją jest powrót do domu przemocy wyekspediowanej na skrzydłach dronów i innych systemów bojowych. Pod hasłem wojny z terrorem następuje militaryzacja sił policyjnych, które coraz chętniej na całym świecie sięgają po wypróbowane przez wojsko rozwiązania. Jako przykład tego procesu podaje się użycie przez policję w Dallas w lutym 2016 r. robota do likwidacji zabójcy pięciu policjantów ukrywającego się w trudno dostępnym budynku. Wraz z automatyzacją i robotyzacją systemów przemocy współczesne państwo staje się bezosobową i zdehumanizowaną strukturą wymykającą się coraz bardziej demokratycznej kontroli.

5.

Czy tę kontrolę można jeszcze odzyskać? Jest taka szansa – najważniejsze rozwiązania techniczne potrzebne do rozwoju automatycznej broni znajdują się w rękach prywatnych przedsiębiorstw i ludzi, takich jak Elon Musk, Mark Zuckerberg, Larry Page. Obecna rewolucja w dziedzinie uzbrojenia wymaga od wojskowych innego podejścia do cywili takich jak oni. Tacy ludzie będą mieli coraz większy wpływ na kształt końcowych technologii. Jak go wykorzystają – nie wiemy. Ale sierpniowy apel najważniejszych postaci świata robotycznego może wzbudzać optymizm, że rozumieją wagę swojej roli.

Tym bardziej że to kolejna już taka inicjatywa – dwa lata wcześniej jeszcze liczniejsze grono uczonych, inżynierów, przedsiębiorców zaapelowało o zwiększenie kontroli nad rozwojem sztucznej inteligencji. Apel podpisały tysiące osób, ze Stephenem Hawkingiem na czele. Rośnie także świadomość znaczenia techniki jako odrębnego czynnika w polityce i relacjach międzynarodowych. Prezydent Niemiec Frank-Walter Steinmeier, witając w czerwcu w Berlinie uczestników dorocznego spotkania Europejskiej Rady ds. Stosunków Międzynarodowych, wśród głównych wyzwań dla polityki międzynarodowej wskazał właśnie konsekwencje zmian technologicznych.

Steinmeier mówił zarówno o „dronizacji” rzeczywistości, cyberbezpieczeństwie, jak i wykorzystaniu technik medialnych do wpływania na politykę i wyniki demokratycznych wyborów. Według niego robotyzacja uzbrojenia i automatyzacja wojny jest tak samo niebezpieczna dla współczesnej demokracji jak tzw. automatyzacja sfery publicznej, czyli komunikacji społecznej opartej na takich platformach jak Facebook, za którymi stoją coraz mniej przejrzyste algorytmy. Paradoksalnie przemiana wojny, najbardziej nieludzkiej z ludzkich aktywności, najlepiej uzmysławia ryzyko dehumanizacji współczesnego społeczeństwa pod wpływem rozwoju techniki. Techniki, nad którą tracimy panowanie, coraz mniej ją rozumiejąc.

Apel Muska i innych liderów przemysłu high-tech ma więc swoją wagę dla przyszłości świata. Przyszłości, która już nadeszła i natarczywie stawia pytanie: czy ktoś jeszcze kontroluje rzeczywistość? Oby odpowiedź padła wcześniej niż pierwszy strzał robota na granicy między Koreami.

Polityka 36.2017 (3126) z dnia 05.09.2017; Świat; s. 52
Oryginalny tytuł tekstu: "Nieludzka wojna"
Więcej na ten temat
Reklama

Warte przeczytania

Czytaj także

null
Kultura

Mark Rothko w Paryżu. Mglisty twórca, który wykonał w swoim życiu kilka wolt

Przebojem ostatnich miesięcy jest ekspozycja Marka Rothki w paryskiej Fundacji Louis Vuitton, która spełnia przedśmiertne życzenie słynnego malarza.

Piotr Sarzyński
12.03.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną