- Analiza
- Wiadomości
Zabójcze roboty, czyli jak film "Terminator” może przestać być fantazją
Póki co nikt i nic nie zatrzymuje wyścigu w dziedzinie śmiercionośnych, bezzałogowych, autonomicznych systemów uzbrojenia. Istnieje więc szansa, że w ciągu kilku lat w konfliktach pojawią się drony samodzielnie polujące na konkretnych ludzi lub pojazdy.

Autor. USAF
Kiedy Organizacja Narodów Zjednoczonych chciała zorganizować dyskusję na temat tzw. zabójczych robotów, rosyjscy dyplomaci nie dopuścili do omówienia tej broni, twierdząc, że na tworzenie takich systemów nie pozwalają im nałożone na Rosję sankcje. W rzeczywistości Federacja zabezpiecza sobie wolne pole do działania, widząc ogromny potencjał tego rodzaju uzbrojenia oraz własne możliwości jego opracowywania. Rosjanie korzystają przy tym z niechęci Stanów Zjednoczonych, większości krajów europejskich i Izraela do tego rodzaju "kagańców".
W ten sposób nie ma szans, by w najbliższych latach rozszerzono o zabójcze roboty zakres stosowania Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (z ang. "Convention on Certain Conventional Weapons"). A przecież ONZ chciało zająć się jedynie wycinkiem problemu, a więc "uzbrojeniem, które można zaprogramować do odszukania konkretnej klasy celu, następnie wybrania i zaatakowania określonej osoby lub obiektu w tej klasie, z niewielką kontrolą człowieka nad podejmowanymi decyzjami". W rzeczywistości zabójczym robotem może być praktycznie każde urządzenie, które działając w sposób autonomiczny, może podjąć decyzję o ataku.

Autor. SRC
O tym, jak blisko jest od wprowadzenia "zabójczych robotów" na powszechne wyposażenie w siłach zbrojnych, najlepiej świadczył sposób prowadzenia działań wojennych w Górskim Karabachu, a obecnie na Ukrainie. Okazało się bowiem, że do tworzenia autonomicznych, śmiercionośnych bezpilotowców wcale nie trzeba budować ich od podstaw, ale można zaadoptować rozwiązania już istniejące. Wystarczy wprowadzić tylko kilka zmian do oprogramowania drona-kamikaze, by zaczął działać w pełni samodzielnie, bez konieczności ingerencji człowieka.
Zobacz też
Można też zrobić to bez żadnych korekt programowych, po prostu dokładając już gotowy komputer z możliwościami sztucznej inteligencji, nawet podłączając go do platformy bojowej zgodnie z zasadą "plug-and-play". Nad takim rozwiązaniem przez wiele lat pracowało m.in. Laboratorium Badawcze Sił Powietrznych USA, opracowując wysoce wydajny, kompaktowy komputer Agile Condor, który można bez problemu podłączyć do tradycyjnych systemów uzbrojenia. Takie połączenie zostało zresztą przetestowane na dronie uderzeniowym MQ-9 Reaper.
Jak widać, takich gotowych gotowych do adaptacji systemów uzbrojenia, podatnych na usamodzielniające je zmiany, jest coraz więcej. Zalicza się do nich nawet tak duże platformy jak okręty.
Czołg Leopard czy owczarek niemiecki?
Sytuacja jest o tyle niebezpieczna, że w ocenie specjalistów wykorzystywane obecnie technologie dotyczące sztucznej inteligencji są "niedojrzałe i podatne na błędy". Przede wszystkim wiele do życzenia wciąż pozostawiają autonomiczne systemy rozpoznawania obrazów. Problem nie jest nowy, ponieważ w BBC zwracano na to uwagę już w 2017 r. W opublikowanym wtedy raporcie bazowano na pracach japońskich inżynierów z Uniwersytetu w Kiusiu, którzy szukali sposobów na oszukanie szeroko stosowanych systemów rozpoznawania obrazu wykorzystujących sztuczną inteligencję.

Autor. M.Dura
Okazało się, że zmiana tylko jednego piksela w około 74% obrazów testowych powodowała błędne oznaczenie tego, co widziały sieci neuronowe. Często były to pomyłki niewielkie (pomylono np. kota z psem), jednak zdarzyło się również, że bombowiec stealth został zakwalifikowany jako buldog, a wydrukowany w drukarce 3d żółw jako karabin. Oczywiście od tamtego czasu postęp w dziedzinie AI poszedł daleko do przodu. Coraz większe znaczenie ma np. samodzielna nauka systemów sztucznej inteligencji, które po stwierdzeniu wykonanego błędu później już go nie popełniają.
Ale zamieszanie powodują również same warunki, jakie panują na polu walki: zadymienie, zmienione otoczenie, z ruinami zamiast domów i powalonymi drzewami, błyski, itp. Jak na razie nie ma stuprocentowej pewności, czy dany system uzbrojenia zadziała, podejmie pożądaną decyzję, a także czy trafi we właściwy cel lub też w cywilów tudzież własnych żołnierzy. Przy takiej niepewności zastosowanie większej liczby "zabójczych robotów" może doprowadzić do dużych strat ubocznych i nie daje gwarancji wykonania zadania.
Rosyjskie testy na Ukrainie
Pomimo potencjalnych skutków ubocznych są kraje, które decydują się na takie ryzyko. Wśród nich jest przede wszystkim Rosja. I to właśnie dlatego jej dyplomaci blokują jakiekolwiek próby wprowadzenie wcale nie zakazu, ale "tylko" międzynarodowej kontroli nad rozwojem "zabójczych robotów". Rosjanie bezkarnie stworzyli sobie nawet poligon doświadczalny na Ukrainie, gdzie testują coraz bardziej autonomicznie działające systemy uzbrojenia.
Większość z nich stanowią drony powietrzne, które z opóźnieniem (na szczęście w małej skali) zaczynają coraz bardziej przeszkadzać Ukraińcom. Rosjanie są tutaj w o tyle "dobrej" sytuacji, że przy ich patologicznym podejściu do strat wśród ludności cywilnej nie biorą pod uwagę cywilnych tragedii, więc nie muszą wprowadzać specjalnych zabezpieczeń, by tym wydarzeniom przeciwdziałać. Byłoby to zresztą dla nich trudne, a nawet niemożliwe, ze względu na opóźnienie technologiczne jeżeli chodzi o mikroelektronikę oraz rozpoznanie obrazowe. Prawdopodobnie autonomiczne, śmiercionośne drony są więc wprowadzane, pomimo że mogą trafić we niewłaściwy cel.
Zobacz też
Niderlandzka organizacja Pax for Peace zwróciła uwagę przede wszystkim na opracowaną przez grupę Kałasznikow amunicję krążącą ZALA Aero KUB-BŁA. Według oceny tej instytucji to właśnie w tym dronie Rosjanie zastosowali system obserwacji będący w stanie "rozpoznawać i klasyfikować wykryte obiekty w czasie rzeczywistym" za pomocą sztucznej inteligencji. W rzeczywistości na podstawie zdjęć nie sposób określić, czy KUB-BŁA pracował w chwili strącenia w trybie autonomicznym z analizą obrazu, czy też nie. Nie ma też jasności co do tego, jak rosyjskie systemy bezzałogowe podejmują decyzję o ataku oraz czy w ogóle działają w pełni samodzielnie.
Zresztą pierwszy opisany przypadek użycia broni autonomicznej wcale nie miał miejsca na Ukrainie, ale w Libii. Według ONZ to właśnie tam w 2020 r. turecki dron-kamikaze Kargu-2 miał "tropić" i zwalczać siły przeciwnika, w tym konwoje logistyczne. Oczywiście Turcy oficjalnie zaprzeczyli, by ich bezzałogowce w Afryce rzeczywiście atakowały ludzi w trybie autonomicznym, jednak potwierdzili, że teoretycznie mają już potrzebne do tego rozwiązania.
Protesty bez konkretów
Choć większość ludzi sprzeciwia się używaniu śmiercionośnej broni autonomicznej, to jak na razie organizacje międzynarodowe nie mogą wiele zrobić, by powstrzymać badania w tej dziedzinie. Oczywiście już kilka tysięcy naukowców pracujących nad sztuczną inteligencją podpisało zobowiązanie Instytutu Future of Life przeciwko pozwalaniu maszynom na odbieranie ludzkiego życia. Głos wsparcia w tej sprawie zabierają też ważni politycy.
Jednak jak na razie jedynie trzydzieści krajów zrzeszonych w Organizacji Narodów Zjednoczonych wyraźnie poparło wezwanie do wprowadzenia zakazu używania śmiercionośnych autonomicznych systemów uzbrojenia: Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Salwador, Ghana, Gwatemala, Stolica Apostolska, Irak, Jordania, Meksyk, Maroko, Namibia, Nikaragua, Pakistan, Panama, Peru, Państwo Palestyna, Uganda, Wenezuela, Zimbabwe.
Poza Austrią i Watykanem nie ma wśród nich żadnego podmiotu europejskiego. Projektu takiego wezwania nie poparły też Stany Zjednoczone oraz Izrael. I nie można się temu dziwić. Nawet gdyby istniały powszechnie akceptowane normy ograniczające prace nad zabójczymi robotami, to i tak wszyscy wiedzą, że są państwa, które się im nie podporządkują. I co najgorsze, są to najczęściej kraje najbardziej niebezpieczne, autorytarne, które rozwiązania siłowe traktują na tym samym poziomie jak rozmowy dyplomatyczne.
Problemem nie jest więc samo ustanowienie traktatów lub zasad, ale ich egzekwowanie. Jest to szczególnie ważne w odniesieniu do dużych graczy, którzy nie będą chcieli poddać się odpowiedniej kontroli, twierdząc, pomimo dowodów, że wykonują zalecenia. Przykładem tego są Chiny, które oficjalnie znajdują się wśród trzydziestu państw ONZ popierających wprowadzenie zakazu wykorzystania śmiercionośnych robotów. W rzeczywistości Chiny już od kilku lat znajdują się na czele listy krajów wprowadzających na uzbrojenie systemy bezzałogowe, w tym także działające z zasady autonomicznie roje dronów.
Zobacz też
Już w latach 2005-2015 a Chiny miały "tylko" 25 procent wszystkich nowych patentów AI przyznanych w domenie wojskowej. Górą były Stany Zjednoczone, które posiadały 26 procent. Jednak teraz to się zmieniło. Jeżeli więc władze w Pekinie deklarują chęć wprowadzenia ograniczeń w pracach nad "zabójczymi robotami", to raczej tylko po to, by spowolnić inne państwa w tego rodzaju programach, a nie w celu ich ostatecznego zatrzymania, w tym u siebie.
Jak na razie organizacjom międzynarodowym udało się określić jedynie to, jak można w ogóle próbować podejść do problemu sztucznej inteligencji w uzbrojeniu. Najlepszym rozwiązaniem byłoby opracowanie prawnie wiążącego dokumentu kontrolującego rozwój oraz wprowadzanie "zabójczych robotów". Ale możliwe jest jeszcze złożenie deklaracji politycznej, wzmocnienie stosowania już istniejących międzynarodowych praw humanitarnych oraz podejmowanie kwestii śmiercionośnej broni autonomicznej podczas zwierania traktatów dotyczących innego uzbrojenia (np. broni chemicznej i jądrowej).
Wbrew pozorom, ten ostatni pomysł wcale nie jest taki niedorzeczny, ponieważ autonomiczne decyzje komputera mogą być podejmowane również w procesie wystrzeliwania pocisków międzykontynentalnych z głowicami atomowymi. Trzeba bowiem pamiętać, że układ o nierozprzestrzenianiu broni jądrowej wcale nie wymaga od państw utrzymywania ludzkiej kontroli nad decyzjami o jej użyciu. (W tym miejscu warto przytoczyć film "Gry wojenne" z 1983 r., który porusza tę problematykę w kontekście zimnej wojny - przyp. red.). Istniejące traktaty nie przystają więc do obecnie dostępnej technologii i trzeba je zmienić, przy okazji rozciągając te zakazy na inne obszary, jak chociażby autonomiczne roje dronów.

Autor. IAI
O powadze problemu może świadczyć fakt, że powołana przez Kongres USA Komisja Bezpieczeństwa Narodowego ds. AI zaleciła amerykańskim władzom, by nie zezwalały sztucznej inteligencji na podejmowanie decyzji o wystrzeleniu broni jądrowej. A więc temat jest aktualny, był rozpatrywany i dostrzeżono w nim niebezpieczeństwa. Gorzej, że tak samo zaprojektowany system odstraszania mogą chcieć wprowadzić również Rosja i Chiny. A w tych krajach kryteria moralne znajdują się na ostatnim miejscu listy priorytetów.
Gdzie nie można zatrzymać rozwoju autonomicznych broni śmiercionośnych?
Określając sposoby działania w sprawie "śmiercionośnych systemów autonomicznych", przedstawiciele ONZ wskazali również na piąte rozwiązanie – nie robić obecnie nic. I to ta ostatnia opcja jest na razie najbardziej prawdopodobna. Tym bardziej, że w wielu przypadkach wprowadzenie zakazu jest po prostu niemożliwe.
Żadne z rozwiniętych państw nie zrezygnuje bowiem z takich rozwiązań jak aktywne systemy ochrony platform lądowych czy również zestawy obrony przeciwlotniczej i przeciwrakietowej krótkiego zasięgu. Ich zasada działania bazuje właśnie na autonomii przy bardzo szybkim czasie reakcji, bowiem nie ma szans, by w czasie nadlatywania przeciwpancernego pocisku rakietowego krótkiego zasięgu np. członek załogi czołgu był w stanie samodzielnie wykryć nadlatujące zagrożenie, sklasyfikować je i nakierować na nie system samoobrony. W takich przypadkach kierowanie działaniami powierza się więc komputerowi.

Autor. M.Dura
Co ciekawe, na jedno z rozwiązań tego problemu wskazał Międzynarodowy Komitet Czerwonego Krzyża. Zaleca on bowiem wprowadzenie szerokiego zakazu obejmującego stosowanie nieprzewidywalnej broni autonomicznej (z ang. "unpredictable autonomous weapons"), a także broni autonomicznej wycelowanej w ludzi, jak również wprowadzenie stosownych przepisów dotyczących "niezakazanej" broni autonomicznej. W jakiś sposób pozostawia się więc możliwość przyjmowania nowoczesnych rozwiązań niezbędnych na obecnym poziomie technologii, chociażby wyżej wymienionych systemów aktywnej ochrony pojazdów bojowych.
Zaleca się również opracowanie "zestawu najlepszych praktyk, praktycznych środków i ogólnej wymiany informacji w celu poprawy przestrzegania międzynarodowego prawa humanitarnego w zakresie broni autonomicznej". Do takich przydatnych działań zalicza się np. bardzo rygorystyczne testowanie wprowadzanego uzbrojenia i prace nad zwiększeniem jego celności.
Tyle propozycje, bo jak na razie, pomimo rosnącego oporu w społeczeństwach przeciwko wprowadzaniu broni autonomicznej, siły zbrojne w coraz większej liczbie państw pracują i wprowadzają takie uzbrojenie. Na to zagrożenie również trzeba się dobrze przygotować.

Autor. M.Dura
Sztuczna inteligencja w dowodzeniu
W tym wszystkim trzeba pamiętać, że w systemie dowodzenia granica między decyzją o sklasyfikowaniu przez maszynę ze sztuczną inteligencją danego obiektu jako wrogiego a wydaniem przez tą samą maszynę decyzji o ataku jest niewielka. Tymczasem ten pierwszy etap już został wprowadzony do sił zbrojnych, i to w kilku dziedzinach. Najważniejszą z nich jest szeroko rozumiany system obserwacji i rozpoznania. Czasy, w których radar wystarczał do stworzenia obrazu sytuacji powietrznej, już dawno się skończyły. Teraz proces: detekcji, śledzenia, identyfikacji i klasyfikacji obejmuje bardzo wiele różnych czynników, które wcześniej były ignorowane lub traktowane pobieżnie.
Warto zwrócić uwagę, że w dalszym etapie działań to nie człowiek wypracowuje dane potrzebne do otwarcia ognia dla systemów uzbrojenia, ale maszyna. W najnowszych rozwiązaniach rolą operatora jest więc tylko wcisnąć przycisk akceptacji jednego z zaproponowanych przez komputer scenariuszy ataku. By stworzyć autonomiczną broń śmiercionośną, wystarczy tylko ten przycisk zastąpić "wierszem programu" zlecającego maszynie, a nie operatorowi, wybranie najbardziej skutecznego sposobu działania. I wcale nie jesteśmy od tego daleko.

Autor. USAF
Amerykanie już w 2020 r. informowali, że wykorzystywali systemy ze sztuczną inteligencją podczas prób systemu zarządzania walką sił powietrznych ABMS (z ang. "Advanced Battle Management System"). Wykazano w ten sposób, że ABMS "łączy systemy uzbrojenia i personel w powietrzu, na ziemi, na morzu, a także w przestrzeni kosmicznej i cyberprzestrzeni w płynny sposób, który dotąd nie był dostępny dla współczesnych żołnierzy". Podobne próby z wykorzystaniem AI przeprowadzono w 2021 r. w systemie naziemnym sił powietrznych AF DCGS ("Air Force Distributed Common Ground System") z zaznaczeniem, że test wykonano wyłącznie "w celu automatycznego rozpoznawania celów".
Prace nad wprowadzaniem AI na okręty prowadzi również amerykańska marynarka wojenna. Jak na razie "sztuczna inteligencja" ma pomagać w analizie pozyskiwanych danych, których jest nie tylko więcej, ale są coraz trudniejsze w obróbce. W ten sposób informacje wcześniej uznawane za mało istotne lub niemożliwe do interpretacji obecnie mogą przełożyć się na podjęcie podjęciu takiej, a nie innej decyzji. Na to wszystko nakłada się dodatkowo ograniczenie czasowe, które wymaga, by czas reakcji był jak najszybszy. Jest to widoczne szczególnie w przypadku takich zagrożeń jak rakiety balistyczne czy też pociski hipersoniczne, poruszające się z prędkościami przekraczającymi 5 Mach.
Zobacz też
Dobrym przykładem takiego kierunku wykorzystania AI są prace koncernu Lockheed Martin nad unowocześnieniem wykorzystywanych na okrętach radarów AN/SPY-6 oraz morskiego systemu kierowania strzelaniem rakietowym Aegis Fire Control System. Jak na razie ich celem jest zwiększenie skuteczności wykrywania obiektów powietrznych i nawodnych oraz wsparcie decyzyjne dla dowódców, a więc tym samym przyśpieszenie czasu reakcji.
"Dzisiaj badamy, w jaki sposób sztuczna inteligencja może zapewnić szybszy czas reakcji systemu i wsparcie decyzji dla operatorów i dowódców (...). Poczyniliśmy ogromne postępy w dostarczaniu ulepszeń systemu takich jak zdolność do autonomicznego rozpoznawania wzorców, które są bardziej subtelne niż człowiek z konwencjonalnymi programowymi pomocami decyzyjnymi”.
Joe DePietro - Vice-President and General Manager of Naval Combat and Missile Defense Systems, Lockheed Martin
Amerykanie podkreślają przy tym złożoność i ilość danych przetwarzanych przez system Aegis, które wymagają utworzenia całego szeregu wzorców elektronicznych poprawiających zdolność do wykrywania, śledzenia i identyfikowania. Trzeba bowiem pamiętać, że urządzenie podda dalszej obróbce tylko to, co będzie spełniało ściśle określone kryteria (np. jeżeli chodzi o parametry sygnału, jego fluktuację, lub ruch obiektu).

Autor. M.Dura
Amerykanie wskazują również, że sztuczna inteligencja może pomóc przewidzieć, które części w systemie Aegis będą wymagały konserwacji, zanim się zepsują, maksymalizując w ten sposób sprawność. Można będzie bowiem wcześnie identyfikować i eliminować problemy ze sprzętem i oprogramowaniem, obniżając koszty i zwiększając okres bezawaryjnej pracy. Jednak to będzie związane z ocenianiem większej liczby parametrów i kojarzeniem ich ze sobą, czyli czegoś, co wcześniej było niemożliwe dla ludzkiej obsługi.
Oficjalnie w pracach nad wdrażaniem AI na potrzeby systemu Aegis koncern Lockheed Martin bazuje cały proces inżynieryjny na pięciu Zasadach Etycznych Sztucznej Inteligencji Departamentu Obrony (z ang. "Department of Defense AI Ethical Principles"): odpowiedzialność, niezawodność, przejrzystość, kierowalność i sprawiedliwość (etyczność). Jednak kiedy wprowadzi się autonomię systemu AI w odniesieniu do najbardziej niebezpiecznych dla okrętów celów, te reguły nie będą miały już znaczenia.
Co zrobić, by "Terminator" pozostał na ekranach
Jest pewne, że sztuczna inteligencja zostanie szeroko wprowadzona do sił zbrojnych. Jest też konieczne, by proces ten został objęty jakimiś ramami. Inżynierowie często nie zdają sobie sprawy, że tworzone przez nich rozwiązania nie muszą być wykorzystywane tylko zgodnie z przeznaczeniem i pożytkiem, ale mogą być również przeprogramowane na śmiertelne uzbrojenie, np. nakierowane na konkretną grupę osób.
W ten sposób system, który na co dzień pozwala złapać konkretnego terrorystę, w "złych rękach" mógłby "wyłapywać" np. osoby z charakterystycznym cywilnym nakryciem głowy (a nie w hełmach), o danym kolorze skóry (a nie pomalowanych kamuflażem), w mundurach służb porządkowych (a nie wojskowych) itp. itd.
Na szczęście wojna na Ukrainie udowodniła, że Rosjanie są bardzo opóźnieni w tej dziedzinie. Choć się chwalą "inteligentnymi" dronami, to w rzeczywistości są to najczęściej toporne konstrukcje bazujące na zachodnich komponentach, i to starszej generacji. Inaczej jest z Chinami, które stanowią zagadkę, na ile najnowsze technologie udało się wprowadzić na wyposażenie sił zbrojnych.
Oczywiście można mieć nadzieję, że władze w Pekinie tak samo manipulują informacją jak Kreml. Jednak porównanie chińskich i rosyjskich telefonów komórkowych niestety tego nie potwierdza. Oczywiście Stany Zjednoczone oraz ich sojusznicy cały czas pracują nad standardami odpowiedzialnego wykorzystania sztucznej inteligencji, jednak bez rozmów z potencjalnymi przeciwnikami takie działania nie mają sensu. Pomimo panującego chaosu trzeba więc szukać sposobu rozwiązania problemu, chociażby po to, by zapewnić ochronę ludności cywilnej.
Próbują to robić organizacje takie jak założona w 2012 r. grupa Stop Killer Robots, która skupia około 180 organizacji pozarządowych. Jej głównym hasłem jest "Mniej autonomii. Więcej człowieczeństwa" (ang. "Less autonomy. More humanity"). Jednak wojskowi są przeciwni tego rodzaju ruchom społecznym, uważając, że lepsze od zakazów są respektowane zasady budowy i wykorzystania. Nie dodają przy tym, że sami nie zamierzają się owym regułom podporządkować...
Zwolennicy AI wskazują, że za zbrodnie wojenne odpowiadają najczęściej ludzka mściwość, nienawiść i wściekłość, a więc uczucia nieznane maszynom. Niestety roboty nie rozumieją też pojęcia litości ani odczytywania intencji. Jako częsty przykład podaje się Indonezję, gdzie większość męskiej populacji powyżej 10 roku życia nosi na widoku noże. Maszyna nie będzie więc w stanie rozróżnić zagubionego chłopca od agresora, więc wyeliminuje obu.
Jak na razie sytuacja jest patowa. Nawet jeżeli Unia Europejska przyjęła kompleksową nową ustawę o sztucznej inteligencji (EU AI Act), to nie dotyczy ona zasadniczo spraw wojskowych, a więc domeny, która może mieć największy wpływ na ludzkie życie.
WIDEO: Zmierzch ery czołgów? Czy zastąpią je drony? [Debata Defence24]