Nowe technologie na polu walki to poważne wyzwanie zarówno praktyczne jak i etyczne. Chodzi przede wszystkim o broń opartą na sztucznej inteligencji. Pole walki przyszłości to nie tylko czołgi drukowane w technologii 3D czy broń hipersoniczna, lecz również autonomiczna sztuczna inteligencja zabijająca prawdziwych ludzi.
„Roboty zastąpią żołnierzy, lasery – broń konwencjonalną, a generałów, kierujących działaniami zbrojnymi, sztuczna inteligencja. Armie czekają rewolucyjne zmiany” – taką wizję przyszłych sił zbrojnych przedstawia Michał Duszczyk na łamach „Cyfrowej Rzeczpospolitej”.
Wesprzyj nas już teraz!
Walka o prymat w dziedzinie sztucznej inteligencji (SI) to kluczowy aspekt rywalizacji zbrojnej wielkich mocarstw. Amerykański Departament Obrony w jawnej części budżetu na 2020 roku wnioskował o miliard dolarów na systemy sztucznej inteligencji, w tym rozwój broni. W 2021 roku będzie to zapewne 850 milionów dolarów. Wiadomo też, że w ramach DARPA w ciągu 2023 roku na sztuczną inteligencje popłynie 2 miliardy dolarów z budżetu federalnego.
Wśród uzbrojenia przyszłości wymienia się także broń laserową i hipersoniczną. Ta ostatnia osiągnie cel oddalony o 1600 kilometrów w ciągu 15 minut. Obecnie Tomahawk potrzebuje na to 2 godzin. Kolejny pomysł to broń laserowa pozwalająca zniszczyć wrogie machiny latające w ciągu jednej biliardowej (sic) części sekundy. Trwają też prace nad technologią umożliwiającą produkcję stopów wysokiej wytrzymałości bezpośrednio na polu walki. W przypadku powodzenia prac prowadzonych przez Penn State College of Engineering szybkie drukowanie (3D) kamizelek kuloodpornych, pocisków czy czołgów.
Drony
Wśród nowych technologii używanych na polu walki – i to już współcześnie – szczególne wątpliwości budzą wojskowe drony. Ich zwolennicy argumentują, że dzięki nim mniej ludzi zginie na polu walki i osiągnie się większą precyzję. Jednak to, co dla jednych jest korzyścią, dla innych stanowi śmiertelne zagrożenie. Jak bowiem zauważa Langdon Ogburn na łamach „Ethics and International Affairs” przeciwnicy wykorzystywania dronów na polu walki używają kilku następujących argumentów przeciwko maszynom. Jednym z nich jest niegodna i nieludzka śmierć ofiary maszyny. Ta nie jest bowiem w stanie w żaden sposób zidentyfikować swego zabójcy i choćby spróbować wyrazić swojego sądu o nim. Jej śmierć jest odczłowieczona, podobnie jak maszyna. Kolejny problem związany z użyciem dronów polega na asymetrii w zabijaniu. Obecny na ogromnej wysokości dron potrafi zabić, a jego ofiara nie potrafi się mu przeciwstawić. Kolejny problem wiąże się z brakiem ryzyka podejmowanego przez zabójców. Nawet bowiem jeśli drony są zdalnie sterowane przez ludzi, to ci pozostają bezpieczni w oddalonych o wiele tysięcy kilometrów strzeżonych ośrodkach. Dochodzi więc do sytuacji zabijania w sposób całkowicie pozbawiony ryzyka.
Sam Ogburn twierdzi, że istotniejszą rolę odgrywają inne powody. Jednym z nich jest nierówność sił. Mamy bowiem do czynienia z jednej strony z operatorem drona zdolnym do zabójstwa, a z drugiej z jego ofiarą. Kolejny problem stanowi asymetria informacji. O ile bowiem operator drona dysponuje szczegółowymi danymi o lokalizacji swej ofiary, o tyle ona sama dowiaduje się o istnieniu wroga tuż przed śmiercią.
Autonomiczne pojazdy latające
Wspomniane wyżej wątpliwości niekoniecznie są jednak specyfiką dronów. W znacznej mierze odnoszą się bowiem również do innego typu uzbrojenia. Znacznie bardziej niepokojące okazują się projekty tworzenia w pełni autonomicznych broni (ang. fully autonomous weapons). Chodzi tu o całkowicie pozbawione ludzkiej kontroli.
Jak podkreśla we wspomnianym już tekście Duszczyk, amerykańska marynarka prowadzi już eksperymenty dotyczące statków samodzielnie przemierzających tysiące mil w poszukiwaniu okrętów wroga. Zamówiła też autonomiczne łodzie z napędem motorowym. Ich funkcja? Ubezpieczanie destantu marines wraz z wystrzeleniem roju eksplodującego dronów-kamikaze. Amerykańskie Siły Powietrzne opracowują ponadto drony zajmujące się ubezpieczaniem samolotów wojskowych, choćby w roli skrzydłowych. Chodzi o realizowanie misji bez udziału ludzkich operatorów.
Tego typu projekty budzą oburzenie wielu środowisk. Jak bowiem czytamy na stronie „Campaign to Stop Killer Robots” [stopkillerrobots.org] „w pełni autonomiczne bronie mogłyby decydować o tym, kto żyje, a kto umiera bez dalszej ludzkiej interwencji stanowią przekroczenie moralnej granicy. Jako maszyny byłyby pozbawione cech nierozerwalnie złączonych z człowieczeństwem, takich jak współczucie niezbędnych do podejmowania skomplikowanych wyborów etycznych”. Nad tego typu systemami pracuje już 5 krajów, takich jak Stany Zjednoczone, Chiny, Izrael, Korea Południowa, Rosja i Wielka Brytania. Przedstawiciele „Campaign to Stop Killer Robots” zwracają uwagę, że znajdujemy się na prostej drodze ku niekontrolowanemu wyścigowi zbrojeń. Co więcej, zwracają oni uwagę, że zastępowanie żołnierzy przez maszyny może zachęcić do podjęcia decyzji o wojnie. Ta wyda się bowiem mniej kosztowna w przypadku braku zaangażowania ludzi.
Kolejny problem stanowi ryzyko pomyłek. Jeśli bowiem decyzje podejmować będzie maszyna, a nie żywy człowiek, to zabraknie elementu sądu niezbędnego do oceny proporcjonalności ataku, jak również rozróżnienia cywili od żołnierzy oraz przestrzegania prawa wojennego. Kolejna wątpliwość wiąże się z kwestią odpowiedzialności. Gdy dojdzie do złamania prawa, to kto okaże się winny? Programista, fabrykant, dowódca? A może sama maszyna? W końcu ostatecznie to ona podejmuje decyzję.
Zwolennicy „Campaign to Stop Killer Robots” postulują wprowadzenie ogólnoświatowego traktatu zakazującego w pełni autonomicznych systemów zbrojnych. Warto próbować, jednak skuteczność tego rozwiązania budzi wątpliwości. Wszak kraje nierespektujące zobowiązań uzyskają przewagę nad pozostałymi. Wydaje się zatem, że szerokie zastosowanie SI – także tej autonomicznej – na przyszłym polu bitwy jest nieuniknione. Można co najwyżej starać się je ograniczyć.
Marcin Jendrzejczak