Reklama

Technologie

Zabójcze roboty, czyli jak film "Terminator” może przestać być fantazją

Amerykanie już opracowali sposób jak na dron MQ-9 Reaper wprowadzić sztuczną inteligencję
Autor. USAF

Póki co nikt i nic nie zatrzymuje wyścigu w dziedzinie śmiercionośnych, bezzałogowych, autonomicznych systemów uzbrojenia. Istnieje więc szansa, że w ciągu kilku lat w konfliktach pojawią się drony samodzielnie polujące na konkretnych ludzi lub pojazdy.

Reklama

Wojna na Ukrainie - raport specjalny Defence24.pl

Reklama

Kiedy Organizacja Narodów Zjednoczonych chciała zorganizować dyskusję na temat tzw. zabójczych robotów, rosyjscy dyplomaci nie dopuścili do omówienia tej broni, twierdząc, że na tworzenie takich systemów nie pozwalają im nałożone na Rosję sankcje. W rzeczywistości Federacja zabezpiecza sobie wolne pole do działania, widząc ogromny potencjał tego rodzaju uzbrojenia oraz własne możliwości jego opracowywania. Rosjanie korzystają przy tym z niechęci Stanów Zjednoczonych, większości krajów europejskich i Izraela do tego rodzaju "kagańców".

W ten sposób nie ma szans, by w najbliższych latach rozszerzono o zabójcze roboty zakres stosowania Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (z ang. "Convention on Certain Conventional Weapons"). A przecież ONZ chciało zająć się jedynie wycinkiem problemu, a więc "uzbrojeniem, które można zaprogramować do odszukania konkretnej klasy celu, następnie wybrania i zaatakowania określonej osoby lub obiektu w tej klasie, z niewielką kontrolą człowieka nad podejmowanymi decyzjami". W rzeczywistości zabójczym robotem może być praktycznie każde urządzenie, które działając w sposób autonomiczny, może podjąć decyzję o ataku.

Reklama
Sposób stworzenia ze standardowego drona MQ-9 Reaper – autonomicznej broni śmiercionośnej poprzez proste dodanie komputera AI Agile Condor
Autor. SRC

O tym, jak blisko jest od wprowadzenia "zabójczych robotów" na powszechne wyposażenie w siłach zbrojnych, najlepiej świadczył sposób prowadzenia działań wojennych w Górskim Karabachu, a obecnie na Ukrainie. Okazało się bowiem, że do tworzenia autonomicznych, śmiercionośnych bezpilotowców wcale nie trzeba budować ich od podstaw, ale można zaadoptować rozwiązania już istniejące. Wystarczy wprowadzić tylko kilka zmian do oprogramowania drona-kamikaze, by zaczął działać w pełni samodzielnie, bez konieczności ingerencji człowieka.

Czytaj też

Można też zrobić to bez żadnych korekt programowych, po prostu dokładając już gotowy komputer z możliwościami sztucznej inteligencji, nawet podłączając go do platformy bojowej zgodnie z zasadą "plug-and-play". Nad takim rozwiązaniem przez wiele lat pracowało m.in. Laboratorium Badawcze Sił Powietrznych USA, opracowując wysoce wydajny, kompaktowy komputer Agile Condor, który można bez problemu podłączyć do tradycyjnych systemów uzbrojenia. Takie połączenie zostało zresztą przetestowane na dronie uderzeniowym MQ-9 Reaper.

YouTube cover video

Jak widać, takich gotowych gotowych do adaptacji systemów uzbrojenia, podatnych na usamodzielniające je zmiany, jest coraz więcej. Zalicza się do nich nawet tak duże platformy jak okręty.

Czołg Leopard czy owczarek niemiecki?

Sytuacja jest o tyle niebezpieczna, że w ocenie specjalistów wykorzystywane obecnie technologie dotyczące sztucznej inteligencji są "niedojrzałe i podatne na błędy". Przede wszystkim wiele do życzenia wciąż pozostawiają autonomiczne systemy rozpoznawania obrazów. Problem nie jest nowy, ponieważ w BBC zwracano na to uwagę już w 2017 r. W opublikowanym wtedy raporcie bazowano na pracach japońskich inżynierów z Uniwersytetu w Kiusiu, którzy szukali sposobów na oszukanie szeroko stosowanych systemów rozpoznawania obrazu wykorzystujących sztuczną inteligencję.

Lotnicze systemy optoelektroniczne są obecnie nie tylko w stanie wykryć daleko obiekty naziemne, ale również je rozpoznać, jednak z ograniczonym prawdopodobieństwem
Autor. M.Dura

Okazało się, że zmiana tylko jednego piksela w około 74% obrazów testowych powodowała błędne oznaczenie tego, co widziały sieci neuronowe. Często były to pomyłki niewielkie (pomylono np. kota z psem), jednak zdarzyło się również, że bombowiec stealth został zakwalifikowany jako buldog, a wydrukowany w drukarce 3d żółw jako karabin. Oczywiście od tamtego czasu postęp w dziedzinie AI poszedł daleko do przodu. Coraz większe znaczenie ma np. samodzielna nauka systemów sztucznej inteligencji, które po stwierdzeniu wykonanego błędu później już go nie popełniają.

Ale zamieszanie powodują również same warunki, jakie panują na polu walki: zadymienie, zmienione otoczenie, z ruinami zamiast domów i powalonymi drzewami, błyski, itp. Jak na razie nie ma stuprocentowej pewności, czy dany system uzbrojenia zadziała, podejmie pożądaną decyzję, a także czy trafi we właściwy cel lub też w cywilów tudzież własnych żołnierzy. Przy takiej niepewności zastosowanie większej liczby "zabójczych robotów" może doprowadzić do dużych strat ubocznych i nie daje gwarancji wykonania zadania.

Rosyjskie testy na Ukrainie

Pomimo potencjalnych skutków ubocznych są kraje, które decydują się na takie ryzyko. Wśród nich jest przede wszystkim Rosja. I to właśnie dlatego jej dyplomaci blokują jakiekolwiek próby wprowadzenie wcale nie zakazu, ale "tylko" międzynarodowej kontroli nad rozwojem "zabójczych robotów". Rosjanie bezkarnie stworzyli sobie nawet poligon doświadczalny na Ukrainie, gdzie testują coraz bardziej autonomicznie działające systemy uzbrojenia.

Większość z nich stanowią drony powietrzne, które z opóźnieniem (na szczęście w małej skali) zaczynają coraz bardziej przeszkadzać Ukraińcom. Rosjanie są tutaj w o tyle "dobrej" sytuacji, że przy ich patologicznym podejściu do strat wśród ludności cywilnej nie biorą pod uwagę cywilnych tragedii, więc nie muszą wprowadzać specjalnych zabezpieczeń, by tym wydarzeniom przeciwdziałać. Byłoby to zresztą dla nich trudne, a nawet niemożliwe, ze względu na opóźnienie technologiczne jeżeli chodzi o mikroelektronikę oraz rozpoznanie obrazowe. Prawdopodobnie autonomiczne, śmiercionośne drony są więc wprowadzane, pomimo że mogą trafić we niewłaściwy cel.

Czytaj też

Niderlandzka organizacja Pax for Peace zwróciła uwagę przede wszystkim na opracowaną przez grupę Kałasznikow amunicję krążącą ZALA Aero KUB-BŁA. Według oceny tej instytucji to właśnie w tym dronie Rosjanie zastosowali system obserwacji będący w stanie "rozpoznawać i klasyfikować wykryte obiekty w czasie rzeczywistym" za pomocą sztucznej inteligencji. W rzeczywistości na podstawie zdjęć nie sposób określić, czy KUB-BŁA pracował w chwili strącenia w trybie autonomicznym z analizą obrazu, czy też nie. Nie ma też jasności co do tego, jak rosyjskie systemy bezzałogowe podejmują decyzję o ataku oraz czy w ogóle działają w pełni samodzielnie.

Zresztą pierwszy opisany przypadek użycia broni autonomicznej wcale nie miał miejsca na Ukrainie, ale w Libii. Według ONZ to właśnie tam w 2020 r. turecki dron-kamikaze Kargu-2 miał "tropić" i zwalczać siły przeciwnika, w tym konwoje logistyczne. Oczywiście Turcy oficjalnie zaprzeczyli, by ich bezzałogowce w Afryce rzeczywiście atakowały ludzi w trybie autonomicznym, jednak potwierdzili, że teoretycznie mają już potrzebne do tego rozwiązania.

YouTube cover video

Protesty bez konkretów

Choć większość ludzi sprzeciwia się używaniu śmiercionośnej broni autonomicznej, to jak na razie organizacje międzynarodowe nie mogą wiele zrobić, by powstrzymać badania w tej dziedzinie. Oczywiście już kilka tysięcy naukowców pracujących nad sztuczną inteligencją podpisało zobowiązanie Instytutu Future of Life przeciwko pozwalaniu maszynom na odbieranie ludzkiego życia. Głos wsparcia w tej sprawie zabierają też ważni politycy.

Jednak jak na razie jedynie trzydzieści krajów zrzeszonych w Organizacji Narodów Zjednoczonych wyraźnie poparło wezwanie do wprowadzenia zakazu używania śmiercionośnych autonomicznych systemów uzbrojenia: Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Salwador, Ghana, Gwatemala, Stolica Apostolska, Irak, Jordania, Meksyk, Maroko, Namibia, Nikaragua, Pakistan, Panama, Peru, Państwo Palestyna, Uganda, Wenezuela, Zimbabwe.

Poza Austrią i Watykanem nie ma wśród nich żadnego podmiotu europejskiego. Projektu takiego wezwania nie poparły też Stany Zjednoczone oraz Izrael. I nie można się temu dziwić. Nawet gdyby istniały powszechnie akceptowane normy ograniczające prace nad zabójczymi robotami, to i tak wszyscy wiedzą, że są państwa, które się im nie podporządkują. I co najgorsze, są to najczęściej kraje najbardziej niebezpieczne, autorytarne, które rozwiązania siłowe traktują na tym samym poziomie jak rozmowy dyplomatyczne.

Problemem nie jest więc samo ustanowienie traktatów lub zasad, ale ich egzekwowanie. Jest to szczególnie ważne w odniesieniu do dużych graczy, którzy nie będą chcieli poddać się odpowiedniej kontroli, twierdząc, pomimo dowodów, że wykonują zalecenia. Przykładem tego są Chiny, które oficjalnie znajdują się wśród trzydziestu państw ONZ popierających wprowadzenie zakazu wykorzystania śmiercionośnych robotów. W rzeczywistości Chiny już od kilku lat znajdują się na czele listy krajów wprowadzających na uzbrojenie systemy bezzałogowe, w tym także działające z zasady autonomicznie roje dronów.

Czytaj też

Już w latach 2005-2015 a Chiny miały "tylko" 25 procent wszystkich nowych patentów AI przyznanych w domenie wojskowej. Górą były Stany Zjednoczone, które posiadały 26 procent. Jednak teraz to się zmieniło. Jeżeli więc władze w Pekinie deklarują chęć wprowadzenia ograniczeń w pracach nad "zabójczymi robotami", to raczej tylko po to, by spowolnić inne państwa w tego rodzaju programach, a nie w celu ich ostatecznego zatrzymania, w tym u siebie.

Jak na razie organizacjom międzynarodowym udało się określić jedynie to, jak można w ogóle próbować podejść do problemu sztucznej inteligencji w uzbrojeniu. Najlepszym rozwiązaniem byłoby opracowanie prawnie wiążącego dokumentu kontrolującego rozwój oraz wprowadzanie "zabójczych robotów". Ale możliwe jest jeszcze złożenie deklaracji politycznej, wzmocnienie stosowania już istniejących międzynarodowych praw humanitarnych oraz podejmowanie kwestii śmiercionośnej broni autonomicznej podczas zwierania traktatów dotyczących innego uzbrojenia (np. broni chemicznej i jądrowej).

Wbrew pozorom, ten ostatni pomysł wcale nie jest taki niedorzeczny, ponieważ autonomiczne decyzje komputera mogą być podejmowane również w procesie wystrzeliwania pocisków międzykontynentalnych z głowicami atomowymi. Trzeba bowiem pamiętać, że układ o nierozprzestrzenianiu broni jądrowej wcale nie wymaga od państw utrzymywania ludzkiej kontroli nad decyzjami o jej użyciu. (W tym miejscu warto przytoczyć film "Gry wojenne" z 1983 r., który porusza tę problematykę w kontekście zimnej wojny - przyp. red.). Istniejące traktaty nie przystają więc do obecnie dostępnej technologii i trzeba je zmienić, przy okazji rozciągając te zakazy na inne obszary, jak chociażby autonomiczne roje dronów.

Izraelska amunicja krążąca Harop technicznie jest w stanie samodzielnie przebywać godzinami w powietrzu poszukując celu, a po jego znalezieniu może przeprowadzić atak bez kontroli operatora
Autor. IAI

O powadze problemu może świadczyć fakt, że powołana przez Kongres USA Komisja Bezpieczeństwa Narodowego ds. AI zaleciła amerykańskim władzom, by nie zezwalały sztucznej inteligencji na podejmowanie decyzji o wystrzeleniu broni jądrowej. A więc temat jest aktualny, był rozpatrywany i dostrzeżono w nim niebezpieczeństwa. Gorzej, że tak samo zaprojektowany system odstraszania mogą chcieć wprowadzić również Rosja i Chiny. A w tych krajach kryteria moralne znajdują się na ostatnim miejscu listy priorytetów.

Gdzie nie można zatrzymać rozwoju autonomicznych broni śmiercionośnych?

Określając sposoby działania w sprawie "śmiercionośnych systemów autonomicznych", przedstawiciele ONZ wskazali również na piąte rozwiązanie – nie robić obecnie nic. I to ta ostatnia opcja jest na razie najbardziej prawdopodobna. Tym bardziej, że w wielu przypadkach wprowadzenie zakazu jest po prostu niemożliwe.

Żadne z rozwiniętych państw nie zrezygnuje bowiem z takich rozwiązań jak aktywne systemy ochrony platform lądowych czy również zestawy obrony przeciwlotniczej i przeciwrakietowej krótkiego zasięgu. Ich zasada działania bazuje właśnie na autonomii przy bardzo szybkim czasie reakcji, bowiem nie ma szans, by w czasie nadlatywania przeciwpancernego pocisku rakietowego krótkiego zasięgu np. członek załogi czołgu był w stanie samodzielnie wykryć nadlatujące zagrożenie, sklasyfikować je i nakierować na nie system samoobrony. W takich przypadkach kierowanie działaniami powierza się więc komputerowi.

Element systemu aktywnej obrony Trophy, który jest niczym innym jak autonomicznym systemem zabijającym
Autor. M.Dura

Co ciekawe, na jedno z rozwiązań tego problemu wskazał Międzynarodowy Komitet Czerwonego Krzyża. Zaleca on bowiem wprowadzenie szerokiego zakazu obejmującego stosowanie nieprzewidywalnej broni autonomicznej (z ang. "unpredictable autonomous weapons"), a także broni autonomicznej wycelowanej w ludzi, jak również wprowadzenie stosownych przepisów dotyczących "niezakazanej" broni autonomicznej. W jakiś sposób pozostawia się więc możliwość przyjmowania nowoczesnych rozwiązań niezbędnych na obecnym poziomie technologii, chociażby wyżej wymienionych systemów aktywnej ochrony pojazdów bojowych.

Zaleca się również opracowanie "zestawu najlepszych praktyk, praktycznych środków i ogólnej wymiany informacji w celu poprawy przestrzegania międzynarodowego prawa humanitarnego w zakresie broni autonomicznej". Do takich przydatnych działań zalicza się np. bardzo rygorystyczne testowanie wprowadzanego uzbrojenia i prace nad zwiększeniem jego celności.

Tyle propozycje, bo jak na razie, pomimo rosnącego oporu w społeczeństwach przeciwko wprowadzaniu broni autonomicznej, siły zbrojne w coraz większej liczbie państw pracują i wprowadzają takie uzbrojenie. Na to zagrożenie również trzeba się dobrze przygotować.

System aktywnej obrony pojazdów bojowych jest najlepszym przykładem już wprowadzonego do użytku robota śmiercionośnego
Autor. M.Dura

Sztuczna inteligencja w dowodzeniu

W tym wszystkim trzeba pamiętać, że w systemie dowodzenia granica między decyzją o sklasyfikowaniu przez maszynę ze sztuczną inteligencją danego obiektu jako wrogiego a wydaniem przez tą samą maszynę decyzji o ataku jest niewielka. Tymczasem ten pierwszy etap już został wprowadzony do sił zbrojnych, i to w kilku dziedzinach. Najważniejszą z nich jest szeroko rozumiany system obserwacji i rozpoznania. Czasy, w których radar wystarczał do stworzenia obrazu sytuacji powietrznej, już dawno się skończyły. Teraz proces: detekcji, śledzenia, identyfikacji i klasyfikacji obejmuje bardzo wiele różnych czynników, które wcześniej były ignorowane lub traktowane pobieżnie.

Warto zwrócić uwagę, że w dalszym etapie działań to nie człowiek wypracowuje dane potrzebne do otwarcia ognia dla systemów uzbrojenia, ale maszyna. W najnowszych rozwiązaniach rolą operatora jest więc tylko wcisnąć przycisk akceptacji jednego z zaproponowanych przez komputer scenariuszy ataku. By stworzyć autonomiczną broń śmiercionośną, wystarczy tylko ten przycisk zastąpić "wierszem programu" zlecającego maszynie, a nie operatorowi, wybranie najbardziej skutecznego sposobu działania. I wcale nie jesteśmy od tego daleko.

Sztuczna inteligencja okazała się przydatna podczas prób automatycznego rozpoznawania celów przez naziemny system dystrybucji danych amerykańskich sił AF DCGS (Air Force Distributed Common Ground System)
Autor. USAF

Amerykanie już w 2020 r. informowali, że wykorzystywali systemy ze sztuczną inteligencją podczas prób systemu zarządzania walką sił powietrznych ABMS (z ang. "Advanced Battle Management System"). Wykazano w ten sposób, że ABMS "łączy systemy uzbrojenia i personel w powietrzu, na ziemi, na morzu, a także w przestrzeni kosmicznej i cyberprzestrzeni w płynny sposób, który dotąd nie był dostępny dla współczesnych żołnierzy". Podobne próby z wykorzystaniem AI przeprowadzono w 2021 r. w systemie naziemnym sił powietrznych AF DCGS ("Air Force Distributed Common Ground System") z zaznaczeniem, że test wykonano wyłącznie "w celu automatycznego rozpoznawania celów".

Prace nad wprowadzaniem AI na okręty prowadzi również amerykańska marynarka wojenna. Jak na razie "sztuczna inteligencja" ma pomagać w analizie pozyskiwanych danych, których jest nie tylko więcej, ale są coraz trudniejsze w obróbce. W ten sposób informacje wcześniej uznawane za mało istotne lub niemożliwe do interpretacji obecnie mogą przełożyć się na podjęcie podjęciu takiej, a nie innej decyzji. Na to wszystko nakłada się dodatkowo ograniczenie czasowe, które wymaga, by czas reakcji był jak najszybszy. Jest to widoczne szczególnie w przypadku takich zagrożeń jak rakiety balistyczne czy też pociski hipersoniczne, poruszające się z prędkościami przekraczającymi 5 Mach.

Czytaj też

Dobrym przykładem takiego kierunku wykorzystania AI są prace koncernu Lockheed Martin nad unowocześnieniem wykorzystywanych na okrętach radarów AN/SPY-6 oraz morskiego systemu kierowania strzelaniem rakietowym Aegis Fire Control System. Jak na razie ich celem jest zwiększenie skuteczności wykrywania obiektów powietrznych i nawodnych oraz wsparcie decyzyjne dla dowódców, a więc tym samym przyśpieszenie czasu reakcji.

"Dzisiaj badamy, w jaki sposób sztuczna inteligencja może zapewnić szybszy czas reakcji systemu i wsparcie decyzji dla operatorów i dowódców (...). Poczyniliśmy ogromne postępy w dostarczaniu ulepszeń systemu takich jak zdolność do autonomicznego rozpoznawania wzorców, które są bardziej subtelne niż człowiek z konwencjonalnymi programowymi pomocami decyzyjnymi”.
Joe DePietro - Vice-President and General Manager of Naval Combat and Missile Defense Systems, Lockheed Martin

Amerykanie podkreślają przy tym złożoność i ilość danych przetwarzanych przez system Aegis, które wymagają utworzenia całego szeregu wzorców elektronicznych poprawiających zdolność do wykrywania, śledzenia i identyfikowania. Trzeba bowiem pamiętać, że urządzenie podda dalszej obróbce tylko to, co będzie spełniało ściśle określone kryteria (np. jeżeli chodzi o parametry sygnału, jego fluktuację, lub ruch obiektu).

Okręty z systemem Aegis działają z załogą jednak mogą również beż problemu być przygotowane do realizowania zadań rakietowych w pełni autonomicznie
Autor. M.Dura

Amerykanie wskazują również, że sztuczna inteligencja może pomóc przewidzieć, które części w systemie Aegis będą wymagały konserwacji, zanim się zepsują, maksymalizując w ten sposób sprawność. Można będzie bowiem wcześnie identyfikować i eliminować problemy ze sprzętem i oprogramowaniem, obniżając koszty i zwiększając okres bezawaryjnej pracy. Jednak to będzie związane z ocenianiem większej liczby parametrów i kojarzeniem ich ze sobą, czyli czegoś, co wcześniej było niemożliwe dla ludzkiej obsługi.

Oficjalnie w pracach nad wdrażaniem AI na potrzeby systemu Aegis koncern Lockheed Martin bazuje cały proces inżynieryjny na pięciu Zasadach Etycznych Sztucznej Inteligencji Departamentu Obrony (z ang. "Department of Defense AI Ethical Principles"): odpowiedzialność, niezawodność, przejrzystość, kierowalność i sprawiedliwość (etyczność). Jednak kiedy wprowadzi się autonomię systemu AI w odniesieniu do najbardziej niebezpiecznych dla okrętów celów, te reguły nie będą miały już znaczenia.

Co zrobić, by "Terminator" pozostał na ekranach

Jest pewne, że sztuczna inteligencja zostanie szeroko wprowadzona do sił zbrojnych. Jest też konieczne, by proces ten został objęty jakimiś ramami. Inżynierowie często nie zdają sobie sprawy, że tworzone przez nich rozwiązania nie muszą być wykorzystywane tylko zgodnie z przeznaczeniem i pożytkiem, ale mogą być również przeprogramowane na śmiertelne uzbrojenie, np. nakierowane na konkretną grupę osób.

W ten sposób system, który na co dzień pozwala złapać konkretnego terrorystę, w "złych rękach" mógłby "wyłapywać" np. osoby z charakterystycznym cywilnym nakryciem głowy (a nie w hełmach), o danym kolorze skóry (a nie pomalowanych kamuflażem), w mundurach służb porządkowych (a nie wojskowych) itp. itd.

Na szczęście wojna na Ukrainie udowodniła, że Rosjanie są bardzo opóźnieni w tej dziedzinie. Choć się chwalą "inteligentnymi" dronami, to w rzeczywistości są to najczęściej toporne konstrukcje bazujące na zachodnich komponentach, i to starszej generacji. Inaczej jest z Chinami, które stanowią zagadkę, na ile najnowsze technologie udało się wprowadzić na wyposażenie sił zbrojnych.

Oczywiście można mieć nadzieję, że władze w Pekinie tak samo manipulują informacją jak Kreml. Jednak porównanie chińskich i rosyjskich telefonów komórkowych niestety tego nie potwierdza. Oczywiście Stany Zjednoczone oraz ich sojusznicy cały czas pracują nad standardami odpowiedzialnego wykorzystania sztucznej inteligencji, jednak bez rozmów z potencjalnymi przeciwnikami takie działania nie mają sensu. Pomimo panującego chaosu trzeba więc szukać sposobu rozwiązania problemu, chociażby po to, by zapewnić ochronę ludności cywilnej.

Próbują to robić organizacje takie jak założona w 2012 r. grupa Stop Killer Robots, która skupia około 180 organizacji pozarządowych. Jej głównym hasłem jest "Mniej autonomii. Więcej człowieczeństwa" (ang. "Less autonomy. More humanity"). Jednak wojskowi są przeciwni tego rodzaju ruchom społecznym, uważając, że lepsze od zakazów są respektowane zasady budowy i wykorzystania. Nie dodają przy tym, że sami nie zamierzają się owym regułom podporządkować...

Zwolennicy AI wskazują, że za zbrodnie wojenne odpowiadają najczęściej ludzka mściwość, nienawiść i wściekłość, a więc uczucia nieznane maszynom. Niestety roboty nie rozumieją też pojęcia litości ani odczytywania intencji. Jako częsty przykład podaje się Indonezję, gdzie większość męskiej populacji powyżej 10 roku życia nosi na widoku noże. Maszyna nie będzie więc w stanie rozróżnić zagubionego chłopca od agresora, więc wyeliminuje obu.

Jak na razie sytuacja jest patowa. Nawet jeżeli Unia Europejska przyjęła kompleksową nową ustawę o sztucznej inteligencji (EU AI Act), to nie dotyczy ona zasadniczo spraw wojskowych, a więc domeny, która może mieć największy wpływ na ludzkie życie.

Reklama

Komentarze (21)

  1. DDR

    Czyli powtórka z rozrywki Widać że jak grzyby po deszczu zaczynają na zachodzie wyrastać i siać panike zwłaszcza w mediach różne organizacje pacyfistyczne antydronowe i antyAI które jak w czasach zimnej wojny będą domagać się rozbrojenia oczywiście głównie zachodu Nie jest trudno się domyśleć kto stoi za tą histerią i czemu oraz komu ona ma służyć

    1. Vixa

      Dokładnie o tym samym pomyślałem👍, autor - nie.

  2. Tadeusz Żeleźny - analityk systemowy

    Prosze pamiętać, że przypadek PEŁNEJ utraty kontroli nad AI w chmurze dronów mikro/nano - już z własnym zasilaniem z PV w cyklu całorocznym - można przewidzieć na 1,5-2 dekady. Ale JUŻ TERAZ AI zarządzająca z "wielkich superkomuperów" [a raczej klastrów] - czyli AI w skali makro - już może sieciocentrycznie zarządzać zasobami - w tym obecnymi rojami dronów. To znaczy, że przy JUŻ OBECNYM poziomie AI - i jednocześnie, gdy już wiemy, że AI potrafi gładko kłamać - już utraciliśmy kontrolę nad procesami AI - pozostaje nam JESZCZE w ręku tylko "twardy wyłącznik zasilania" - tylko pytanie? - KIEDY ten wyłącznik użyć wobec AI? Bo przecież b będziemy używać AI - i wyniki jej stosowania będą na tyle dobre, że możemy się pocieszać życzeniowo "jeszcze nas nie okłamuje, uczy się i rozwija - więc nie resetujmy tego". Widzę konflikt krótkofalowej korzyści z długofalowym zagrożeniem - ludzie zwykli w takiej sytuacji decydować życzeniowo....

  3. Al.S.

    Technologia jest już całkowicie gotowa na zabójcze roboty. W handlu od dawna dostępne są urządzenia do śledzenia danej osoby, poprzez zapamiętanie jej twarzy i sylwetki. Jakiś czas temu byłem na szkoleniu, gdzie kamera śledziła przez cały czas prelegenta i pokazywała go na dużym ekranie, podczas gdy on przemieszczał się po sali i odpowiadał na pytania kursantów. Ustawienie zoomu, kierunku dla kamery i mikrofonu, oczywiście następowało automatycznie. Wyposażony w podobne urządzenie dron mógłby więc dokonać likwidacji osoby, której rysy twarzy miałby zapisane w pamięci. Albo taka nowinka w gastronomii- urządzenie, które automatycznie rozpoznaje danie i nalicza odpowiednią zapłatę. Skoro urządzenie potrafi odróżnić pomiędzy rybą z frytkami, a hamburgerem z tym samym dodatkiem, to odróżni np. czołg od BWP. A wtedy wyśle zapytanie przez IFF i przy braku odpowiedzi odpali w jego kierunku rakietę. Ta technologia jest tu i teraz.

  4. ostatni

    Wogle w Histrii swata- czescto famtastyka okazwala sie prawda. Choby ksizki lema czy Juliusza Wernea. O dziwo bardzo wiele szczgolow potrafiono sobie wybrazic co sie kiedys moze zdazyc w fanratyce czesciej niz nauce (bo nauka jest zatrzmwana przez procedury i rzeczy juz udowdnione wiec ograniczna) A co do dronow - to nawet z czlowiekiem jako kierwnjacym ameryknie ostrzeliwali dronami wesela w Afgasanie i Iraku i wieksze grupy ludzi mylac np kamere nagrwajaca impreze z wyzutnia pociskow . NA szczscei kilka razy zaplacili nawet odszkodowanie.

    1. Davien3

      @ostatni za to wy Rosjanie nie macie takich dronów wiec uzywanie barbarzyńskich ataków na cywili przy pomocy prymitywnych dronów terrorystówi jeszcze się tym chwalicie .

  5. Mały Modelarz

    Sądzę, że autonomicznego HK Aerial można w sumie zrobić już dziś.

  6. Tadeusz Żeleźny - analityk systemowy

    Beton - ja nie piszę o "teraz póki co", tylko o sytuacji za 1,5-2 dekady - i w rozproszonych systemach "rojów-chmur" dronów - docelowo klasy mikro/nano. Myślenie i pocieszanie się "teraz póki co" - to automatyczna reakcja wyparcia i minimalizowania przyszłego zagrożenia. Niestety - to chowanie głowy w piasek. A postęp technologiczny PRZYŚPIESZA - nie mówimy o wzroście liniowym. Już teraz nie panujemy nad kontrolą AI - i to na etapie jej raczkowania - stąd te apele "1000 autorytetów". o "Wielki Stop". Moim zdaniem naiwne - bo rozwoju AI, Przemysłu 4.0, Internetu Rzeczy i Internetu Wszystkiego nie da się zatrzymać "ot tak" apelami ani ustawami. To musiałoby być jak z laboratoriami zjadliwych wirusów czy trucizn VI klasy zabezpieczeń - najpierw myślenie, bezwzględna kontrola zaprojektowana od podstaw i w całym cyklu życia - i to bez "dróg na skróty"....

  7. Tadeusz Żeleźny - analityk systemowy

    Sumując - bardzo chciałbym, aby przedstawiona uprzednio perspektywa była fałszywa, wręcz nierealna - jako istne s-f.. Nietsety - tak nie jest. I poziom samej AI i systemów rozproszonych i poziom dronizacji i poziom nanotechnologii - nieuchronnie zleją się w jeden nowy "metasystem" - którego teraz nie widzimy [co gorsza - decydenci wielkich graczy NIE ŻYCZĄ SOBIE żadnych ograniczeń - bo widzą tym środek do panowania o hegemonię globalną], a który zasadniczo zmieni dosłownie wszystko, od ekonomii i polityki [w tym jej siłowej odmiany - czyli wojny] po społeczeństwo, a w pewnym stopniu [może promil, a może 99 %] - zmiany samego człowieka NIESTETY - WSZYSTKIE STRUKTURALNE SIŁY PCHAJĄ DO TEGO SCENARIUSZA. Przy całkowitej "biernej amnezji" społeczeństw - które winny reagować milion razy silniej, niż na zbrojenia zimnej wojny.

    1. Beton

      Sensowne AI póki co wymaga komputerów wielkości szafy lub kilkunastu szaf

  8. Tadeusz Żeleźny - analityk systemowy

    Zabezpieczenie NADRZĘDNE i PROGOWE i BRZEGOWE [np. co do stopnia komplikacji czy mocy obliczeniowej czy kanałów komunikacji w dyspozycji AI] - czyli „bezpieczniki” AI to bez porównania głębszy temat, z którego tylko sygnalizuję najprostszy promil spraw do budowy "bezpiecznej" w praktycznym użytkowaniu AI. Na pewno nie można pozwolić AI na nieskrępowane modyfikacje własnego kodu oprogramowania systemu operacyjnego i PODSTAWOWEGO kodu aplikacji - na którym "siedzą" rozwijające się samouczące algorytmy "deep learning". ...te winny być umownie posadowione jako ROM.. tak samo sterowanie zasilaniem – i na osobnych kanałach łączności względem AI…. Bo obecnie - eksperymentujemy jak małe dzieci z probówkami pełnymi dżumy i cholery - zupełnie nie stosując ŻADNYCH zabezpieczeń....czyli na zasadzie "zobaczymy, co z tego wyjdzie"....

  9. Tadeusz Żeleźny - analityk systemowy

    Dla jasności - dalej niezmiennie podtrzymuję, że postawą strategicznej suwerenności Polski powinien być suwerennie zbudowany system C5iSTAR/EW wspomagany przez AI - i to w niektórych obszarach wymagających prędkości decyzji w mili i mikrosekundach - w 100%. Jednak winno to dotyczyć AI rozwijanej wyłącznie na bazie teorii gier/SWOT/koszt efekt i symulacji - w konkretnym zakresie z góry określonym przez człowieka. Bez "wpuszczania" w pełen internet, bez zasilania tera i potem petabajtami danych WSZYSTKICH TREŚCI z internetu - jak to zrobiono kompletnie nieodpowiedzialnie np. z Chat GPT. System winien być zaprojektowany od podstaw pod kontrolę AI w "wąskich gardłach" przez algorytmy "deterministyczne" - ale też przy monitoringu przez inne AI np. w systemie równoległym-delfickim] - ale pozbawione dostępu do efektorów. Z nadrzędnymi, czysto "mechanicznymi" systemami kontroli zasilania.

  10. Tadeusz Żeleźny - analityk systemowy

    W realnej autonomizacji dronów decyduje kwestia skali - obiekt 10 razy większy liniowo ma 100 razy większą powierzchnię, ale 1000 razy większa masę - czyli masa do powierzchni urośnie 10 razy. I odwrotnie - gdy z obiektu 1 m zejdziemy do 1 mikrona [skala 1 do :1000 000] tak samo polepszy się stosunek powierzchni odbioru PV do masy. I to zdecyduje o realnej autonomizacji dronów skali mikro czy nano [pomijam obecne słownictwo dronowe - zupełnie nieadekwatne].. Oczywiście drony mikro/nano mogą budować dużo większe obiekty [w tym umownej skali makro - czyli liczonej ogólnie w metrach czy więcej] - praktycznie dowolne i ze zróżnicowaniem funkcjonalnym całego "obiektu-systemu" - i to jest ich następna przewaga.

  11. Tadeusz Żeleźny - analityk systemowy

    O ile AI w sieci internet czy posadowiona na "makro-dronach" jest zasadniczo do wyłączenia [podkreślam - zasadniczo - co nie znaczy, że w każdych warunkach] przez odłączenie od zasilania [pomijam skutki makroekonomiczne - oczywiście katastrofalne] - to w momencie produkcji robotów autonomicznych co do zasilania - zwłaszcza na bazie nanotechnologii - możemy całkowicie utracić kontrolę nad całkowicie autonomicznym środowiskiem AI na "własnych nosicielach". Proszę pamiętać - mały rozmiar [docelowo mikro/nano] jest tu po stronie autonomizacji dronizacji w zasilanie np. PV [z ładowaniem mikro/nano magazynu energii].

  12. Tadeusz Żeleźny - analityk systemowy

    Podczas zimnej wojny wyścig na łączna moc głowic termojądrowych przestał mieć znaczenie, gdy każdy z graczy mógł zniszczyć Ziemię wielokrotnie. W tym układzie zwiększenie ilości i mocy głowic zapewniające np. zniszczenie Ziemi 50-krotne zamiast 10-krotnego - nie miało żadnego sensu politycznego. Przy dronizacji + AI + [w przyszłości - powiedzmy za 1-1,5 dekady] nanotechnologii - jest wręcz przeciwnie. Wielcy gracze będą kalkulować pod zniszczenie AI i wszelkich chmur dronów przeciwnika - więc będą jeszcze bardziej maksymalizować ten wyścig i jego wzrost - teoretycznie bez limitów. Dlatego AI + dronizacja + nanotechnologia jest bez porównania groźniejsza, niż cały termojądrowo-rakietowy wyścig zbrojeń w czasie zimnej wojny. Tak naprawdę KAŻDY - nawet najczarniejszy scenariusz jest możliwy.

  13. Tadeusz Żeleźny - analityk systemowy

    W ciągu najbliższych 20 lat całkowicie możliwy - NIESTETY - jest model przejścia najpierw do "Czarnej chmury" a la "Niezwyciężony" Lema, a potem do środowiska nanotechnologicznych chmur a la "Wizja lokalna" - też Lema. Podkreślam NIESTETY - bo w ramach rywalizacji o hegemonię i lokalne strefy wpływów zarówno supermocarstwa, jak i lokalne mocarstwa łamią wszelkie bezpieczniki w imię uzyskania przewagi i dominacji w wyścigu technologicznym. Puszka Pandory została otwarta - a co gorsza wielcy gracze żarłocznie starają się z niej "wycisnąć, ile się da" - i to na zasadzie "kto pierwszy, ten lepszy" - co maksymalizuje determinację graczy - bez względu na konsekwencje.

  14. Prezes Polski

    Obecny poziom ai to jak pierwsze pecety z procesorami 286. Trzeba zaczekać jeszcze kilkanaście lat zanim pojawią się dojrzałe rozwiązania, ale jest to nieuchronne. I o ile w cywilnych zastosowaniach ai powinna być blokowana, bo po prostu staniemy się niepotrzebni, to w wojskowych nie widzę nic złego. Bo co złego w tym, że wypuścimy drona, który będzie polował na ruskich? A system automatycznego rozpoznawania i klasyfikacji celów to oczywista oczywistość. To się pojawi najszybciej z bo daje z miejsca ogromną przewagę. Wystarczy popatrzeć na Ukrainę.

    1. Sorien

      Jak drogie drony się skończą to tak czy siak dostaniesz kalacha i pójdziesz na pole bitwy ... Jeżeli kogoś drony zaczną wygrywać to kraj b widząc to nie będzie stal z boku i patrzył jak jego drony dostaja baty tylko wyśle żołnierzy by pomogli swoim dronom wtedy kraj a widząc że kraj b tak robi zrobi tak samo by wygrać za wszelką cenę . Zapomnijcie o bezkrwawych wojnach . Ba każdą kolejną wojna na wielką skalę będzie o wiele bardziej krwawa od poprzednich z prostego powodu bo jest nas 4x dziś więcej niż było w czasie II WŚ

  15. KrzysiekS

    Powiem tak zamiast kupować koło 100 AH64 ograniczyć do max 50 szt. a pieniądze "zaoszczędzone" wpakować w zakup dronów.

  16. Szwejk85/87

    Akurat problem autonomicznycznych dronów, przynajmniej na polu bitwy jest prosty do rozwiązania, wystarczy Niemiecki Gepard z odpowiednimi środkami rozpoznania i odpowiednimi efektorami. Na Ukrainie Gepardy doskonale sobie radzą z najróżniejszymi wynalazkami. Gorzej za linią frontu, nie można np. terytorium Polski naszpikować odpowiednikami Gepardów aby bronić substancji cywilnej państwa przed rojami dronów. To samo dotyczy autonomicznych "stworów" lądowych służących zabijaniu, tu jest problem wykrycia takiego urządzenia i bezpiecznej dla otoczenia eliminacji takiego zagrożenia. Ogólnie rzecz biorąc, jeżeli znajdziemy sposób skutecznej eliminacji sztucznej inteligencji na polu walki, to spokojnie będziemy mogli wrócić do własnoręcznego wybijania się wzajemnie. Czego sobie i wszystkim czytelnikom serdecznie życzę.

  17. Endres

    Czy ja wiem? Wszędzie na świecie ( przynajmniej tam, gdzie mają głowę na karku ) idą w projektowanie, budowę, i rozwój dronów bojowych. Polska, jak zwykle jest w ariergardzie postępu, i kupuje na potęgę cele do zniszczenia przez to drony. I to za konkretną kasę. Od czołgów ( bo sami nie potrafimy wyprodukować ) poprzez artylerię na kołach, dość dalekiego zasięgu- Himarsy ( bo też nie potrafimy sobie czegoś takie zbudować ), poprzez korwety/fregaty ( bo nasze stocznie nie są w stanie nic za bardzo zwodować ), na kałużę zwaną Bałtyk, których cena na naszych oczach rośnie, bo po podpisaniu umowy, kontrahent z zachodu, dokłada kolejne koszta, jest z czego doić. Pięknie, wspaniale.

  18. Thorgal

    SkyNet i bunt maszyn nam nie grozi, co najwyżej będzie więcej automatyzacji procesów i ich ewentualny errror lub wylana kawa albo zła decyzja :)

  19. Paweł P.

    Kończąc, zawsze na horyzoncie pojawi się John Connor, czy bracia K. Też był najpierw film ;) Poziomów walk, jest uuuu – głęboko, wysoko, jak ktoś woli.

  20. Paweł P.

    *mankind ;) ale niech będzie i stan umysłów, zniszczyć dyski, spalić biblioteki, gdy ktoś/coś CI broń do skroni przykłada, to nie masz za dużego wyjścia.

  21. Paweł P.

    Najpierw był... film, książka, idea. Odpowiedź jest prosta trzeba mieć mocniejsze AI/M/AR niż przeciwnik, zaszyć 10 praw i tyle ;P If człowiek, !serv_minkind <- ups ktoś zapomniał wykrzyknika ;) Świadomość ludzi to qlu sprawy, sami sobie dokładają, te społecznościówki, to agregator wszystkiego o użytkowniku. For free.

Reklama