moja polska zbrojna
Od 25 maja 2018 r. obowiązuje w Polsce Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych, zwane także RODO).

W związku z powyższym przygotowaliśmy dla Państwa informacje dotyczące przetwarzania przez Wojskowy Instytut Wydawniczy Państwa danych osobowych. Prosimy o zapoznanie się z nimi: Polityka przetwarzania danych.

Prosimy o zaakceptowanie warunków przetwarzania danych osobowych przez Wojskowych Instytut Wydawniczy – Akceptuję

Człowiek w pętli

Militarne mocarstwa sięgną po AI tylko wobec przeciwnika, który nie może odpowiedzieć tym samym. Po jednej stronie staną więc maszyny, po drugiej nadal będą ginęli ludzie – uważa dr Kaja Kowalczewska. Specjalistka od międzynarodowego prawa humanitarnego mówi o rewolucji związanej ze sztuczną inteligencją i zawiłościach prawnych dotyczących jej stosowania przez wojsko i służby.

W Strefie Gazy izraelska armia używała sztucznej inteligencji do typowania celów. Fot. Abaca Press/Forum

Skynet to system obrony oparty na sztucznej inteligencji. Rząd USA daje mu ogromną swobodę działania. Skynet zdolny do samodzielnej nauki buntuje się jednak przeciwko swoim mocodawcom i doprowadza do niemal całkowitej zagłady ludzkości. Kojarzy Pani taką historię?

Dr Kaja Kowalczewska: „Terminator” Jamesa Camerona.

REKLAMA

Właśnie tak! Klasyczny film nurtu noir tech. Jeszcze dekadę temu przedstawioną w nim wizję z czystym sumieniem można było potraktować jak kinową bajkę. A teraz? Jak daleko jesteśmy od momentu, kiedy inteligentne maszyny będą walczyły i decydowały za nas?

Myślę, że jednak daleko, choć muszę zastrzec, że jako prawniczka nie wiem do końca, co dzieje się w tajnych wojskowych laboratoriach i sztabach. Jestem zdana na informacje z otwartych źródeł. Na pewno sztuczna inteligencja [artificial intelligence – AI] znajduje coraz szersze zastosowanie w działaniach armii, służb specjalnych, na polu walki. Algorytmy pomagają w analizowaniu danych, wspomagają człowieka w podejmowaniu decyzji, ale jeszcze go nie zastępują. Tyle że nawet w takich przypadkach stąpamy po kruchym lodzie.

Dlaczego?

Wystarczy spojrzeć na działania Izraela w Strefie Gazy. Jak wynika z ustaleń dziennikarzy śledczych portali +972 Magazine i Local Call, izraelska armia używała tam sztucznej inteligencji do typowania celów. System „Lavender” na podstawie zapisów z ulicznych kamer wyławiał z tłumu potencjalnych bojowników Hamasu. Z kolei ten o nazwie „Where’s Daddy?” pomagał ich śledzić i wysyłał powiadomienie w momencie, kiedy docierali oni do domów. Oczywiście zgodnie z zapewnieniami IDF [Israel Defense Forces, czyli Izraelskich Sił Obronnych], to nie AI podejmowała decyzję o zabiciu danej osoby i samym momencie ataku. Robili to wojskowi. Problem jednak w tym, że do operatorów spływały ogromne ilości danych, a dodatkowo działali oni pod silną presją czasu. Według wyliczeń dziennikarzy w szczytowym momencie operacji w Gazie na analizę poszczególnych przypadków mieli po kilkadziesiąt sekund. Istnieje zatem duże ryzyko, że mogli zatwierdzać cele automatycznie.

A to by oznaczało, że w praktyce zawierzyli maszynie, rezygnując z kontroli nad nią...

Właśnie! W rozważaniach nad zastosowaniem sztucznej inteligencji na polu walki pojawiają się trzy koncepcje. Pierwsza, określana terminem „human in the loop” [operator w pętli decyzyjnej], zakłada, że człowiek przez cały czas w pełni panuje nad systemami zarządzanymi przez AI. Według drugiej – „human on the loop” [operator włączony w pętlę], daje sztucznej inteligencji dużą swobodę, ale przez cały czas to człowiek nadzoruje przebieg zainicjowanych przez nią procesów. I w każdej chwili może je przerwać. I wreszcie koncepcja trzecia, „human out of the loop”, która mówi, że człowiek od początku do końca pozostaje poza pętlą decyzyjną. O wszystkim decyduje system. Otóż, jestem przeciwniczką takiego podziału. Daje on bowiem złudne poczucie, że istnieje jakieś „pomiędzy”. Że dając swobodę maszynie, można ją jednak w jakimś stopniu kontrolować. A moim zdaniem to nieprawda. Nie jesteśmy w stanie nadążyć za szybkością procesowania ani też do końca przewidzieć, jak zachowa się w danych warunkach AI.

Czy na przykład nie pomyli pododdziału przeciwnika z grupką cywilów?

Właśnie. Konflikty zbrojne mają bardzo różną specyfikę. Kto nam zagwarantuje, że algorytmy AI przygotowane do tego, by walczyć w Ukrainie, zadziałają tak samo na przykład w Afryce, gdzie będą miały do czynienia z zupełnie innym przeciwnikiem, uzbrojeniem, ukształtowaniem terenu, pogodą? Warto przy tym pamiętać, że różnica pomiędzy osobą cywilną a osobą biorącą bezpośredni udział w działaniach zbrojnych coraz częściej się zaciera. Tak było choćby w Afganistanie, gdzie wojska sojusznicze miały naprzeciw siebie już nie regularną armię, lecz talibańskich bojowników. Nie wkładali oni mundurów z wyraźnymi oznaczeniami, często więc na pierwszy rzut oka trudno ich było odróżnić od osób cywilnych. A jednak nimi nie byli. Czy sztuczna inteligencja w każdym przypadku będzie potrafiła rozróżnić jednych od drugich?

Kolejna ważna rzecz: systemy AI posiadają zdolność do samodzielnego uczenia się. Gromadzą płynącą z otoczenia i danych wiedzę i na jej podstawie modyfikują sposób działania. Pytanie, czy zawsze będziemy w stanie przewidzieć, w którą stronę ten proces pójdzie? Zapanować nad nim? A jeśli już maszyny napędzane przez AI dopuszczą się działań sprzecznych z prawem konfliktów zbrojnych, kto będzie za to odpowiadał? W wojsku mamy jasną hierarchię i reżim odpowiedzialności. Gdzie jednak na tej drabinie ulokować systemy napędzane przez sztuczną inteligencję?

Z drugiej strony, jeśli w przyszłości wyślemy na pole bitwy na przykład czołgi sterowane przez AI, to będziemy mieli starcie maszyn. Oszczędzimy żołnierzy, zredukujemy liczbę ofiar.

Tylko w teorii. Musimy bowiem odpowiedzieć sobie na kolejne ważne pytanie: kto będzie korzystał z tego rodzaju urządzeń? Tylko państwa wysoko rozwinięte. Powiem więcej – wątpliwe, by używały one sztucznej inteligencji w starciach przeciwko sobie. Prace nad takimi technologiami pochłaniają krocie. Prowadzi się je po to, by zyskać przewagę na polu bitwy. Bez większego ryzyka można zatem przyjąć, że militarne mocarstwa sięgną po AI tylko wobec przeciwnika, który nie może odpowiedzieć tym samym. A zatem w razie hipotetycznego konfliktu po jednej stronie staną maszyny, po drugiej nadal będą ginęli ludzie. Być może w skali nigdy wcześniej niespotykanej.

Co na to międzynarodowa społeczność? Czy ktokolwiek stara się ująć kwestie zastosowania AI do celów militarnych w ramy prawne?

To niełatwa sprawa. Międzynarodowe konwencje, które zakazują posiadania i używania danego typu uzbrojenia, są naprawdę nieliczne. Po II wojnie światowej państwa zgodziły się, że nie należy sięgać po broń chemiczną i biologiczną, ponieważ uznały, że na polu bitwy trudno zachować nad nimi pełną kontrolę. Atak na przeciwnika może dotknąć też własnych żołnierzy. Wystarczy, że wiatr zmieni kierunek. Podobne traktaty dotyczą broni nuklearnej, ze względu na jej niszczycielską siłę. W przypadku min przeciwpiechotnych i broni laserowej chodzi zaś o koszty społeczne. One nie tyle uśmiercają, ile zadają rany. Namnażają wojennych inwalidów, którymi potem musi opiekować się państwo. Problem ze wspomnianymi konwencjami polega jednak na tym, że żadnego kraju nie można zmusić do ich podpisania. Jeśli jakieś państwo tego nie zrobi, nie może być pociągnięte do odpowiedzialności, nawet jeśli po daną broń sięgnie. Co więcej, sygnatariusze w każdej chwili mają prawo taką konwencję wypowiedzieć. Dochodzi więc do sytuacji takich jak ta z traktatem o zakazie posiadania broni jądrowej z 2017 roku. Podpisały go 122 kraje, ale wśród nich nie było żadnego, który głowicami atomowymi dysponuje.

Dyskusje nad regulacjami dotyczącymi AI rozpoczęły się jeszcze w 2012 roku. Wówczas to grupa organizacji pozarządowych pod przewodnictwem Human Rights Watch zainicjowała kampanię pod hasłem „Stop Killer Robots” [powstrzymać zabójcze maszyny]. Jej efektem stał się raport „Losing Humanity” [utrata człowieczeństwa], który zawierał wezwanie, by Organizacja Narodów Zjednoczonych zajęła się tym tematem. Organizacje pozarządowe chciały oczywiście wprowadzenia zakazu posiadania, rozwijania i używania do celów militarnych bezzałogowych pojazdów napędzanych przez AI. Zagadnienie znalazło się w agendzie ONZ-etu, ale jak dotąd państwa nawet nie rozpoczęły negocjacji na temat traktatu, który w jakikolwiek sposób regulowałby tę kwestię.

Jak to tłumaczą?

Zacznijmy od tego, że państwa podzieliły się na trzy grupy. Członkowie pierwszej, w skład której wchodzi m.in. Brazylia, opowiadają się za wprowadzeniem pewnych regulacji. Miałyby one zagwarantować, że w procesie decyzyjnym z udziałem sztucznej inteligencji ostatnie słowo zawsze będzie należało do człowieka. Druga grupa, składająca się z krajów najsilniej dotkniętych skutkami toczących się w ostatnim czasie konfliktów zbrojnych, w ogóle chce zakazać używania AI do celów militarnych. I wreszcie grupa trzecia, złożona z najzamożniejszych i najwyżej rozwiniętych państw, takich jak USA czy Chiny, przekonuje, że wprowadzenie nowych przepisów jest nie tylko trudne, ale też bezcelowe. Według nich wystarczą fundamentalne zasady prowadzenia konfliktów zbrojnych, które wynikają z konwencji genewskich i zwyczaju. Obowiązują one od dekad, wynikają z wojennej praktyki, do ich respektowania zaś zobowiązały się wszystkie państwa. Mam tu na myśli zasady humanitaryzmu, rozróżniania, proporcjonalności oraz konieczności wojskowej. W skrócie zakazują one zadawania żołnierzom strony przeciwnej nadmiernych cierpień, atakowania osób i obiektów cywilnych, mówią też o konieczności minimalizacji strat ubocznych. Innymi słowy takiego planowania operacji wojskowych, by zyski czysto militarne nie przewyższyły strat na przykład w infrastrukturze cywilnej.

Sformułowania bardzo nieostre.

Tak, ale jednak akceptowane przez wszystkich. Jeśli chodzi o regulacje dotyczące samej AI sytuacja jest patowa. Oczywiście ONZ może się pokusić o przyjęcie jakiejś konwencji, ale jaką wartość będzie miał taki dokument, jeśli nie podpiszą się pod nim najwięksi gracze? Na razie państwa poprzestają na organizowaniu kongresów, podczas których ich przedstawiciele omawiają zagadnienia związane z nowoczesnymi technologiami i zasadami ich użycia, a także składają polityczne deklaracje. Zapewniają w nich, że AI będą używać w sposób etyczny i odpowiedzialny. Przestrzegania takich dokumentów nie można egzekwować na drodze prawnej. Są one pewnym gestem, deklaracją woli...

Myśli Pani, że w niedalekiej przyszłości jest szansa na jakiś traktat dotyczący wykorzystania sztucznej inteligencji do celów wojskowych?

Nie sądzę. Od pewnego czasu mamy kryzys multilateralizmu. Coraz trudniej o realizację pewnych inicjatyw ponad podziałami. Państwa stawiają na zbrojenia, lista zagrożeń rośnie. Politycy powtarzają, że to nie czas na narzucanie sobie ograniczeń. Wiele zależy teraz od nich samych. Od tego, jaki wizerunek kraju na arenie międzynarodowej chcą budować. Myślę, że trzeba po prostu rozsądnie korzystać z możliwości technologicznych, którymi dysponujemy. Tak by nawet rzecz tak ważna jak obrona własnych obywateli przeprowadzana była w sposób akceptowalny z perspektywy prawa międzynarodowego i ogólnoludzkich wartości.


 

Dr Kaja Kowalczewska jest specjalistką od prawa międzynarodowego, adiunktką w Inkubatorze Doskonałości Naukowej – Centrum Digital Justice na Wydziale Prawa, Administracji i Ekonomii Uniwersytetu Wrocławskiego oraz członkinią Komisji ds. Upowszechniania Międzynarodowego Prawa Humanitarnego działającej przy PCK. Obecnie zajmuje się problematyką nowych technologii używanych do dokumentowania naruszeń międzynarodowego prawa konfliktów zbrojnych. 

Rozmawiał Łukasz Zalesiński

autor zdjęć: Abaca Press/Forum, Dominika Hull-Burska

dodaj komentarz

komentarze


Nawrocki: zdaliśmy test wojskowy i test solidarności
Ograniczenia w ruchu lotniczym na wschodzie Polski
Państwo odbuduje dom w Wyrykach
Premier do pilotów: Jesteście bohaterami
W poszukiwaniu majora Serafina
Dwie agresje, dwie okupacje
NATO uruchamia „Wschodnią Straż”
Brytyjczycy na wschodniej straży
Szkolenia antydronowe tylko w Polsce
Czy trzeba będzie zrekonstruować samolot „Slaba”?
MSPO 2025 – serwis specjalny „Polski Zbrojnej”
Wojskowi szachiści z medalem NATO
ORP „Necko” idzie do natowskiego zespołu
Polsko-ukraińskie rozmowy o współpracy
Brytyjczycy żegnają Malbork
Sojusznicy wysyłają dodatkowe wojska
Australijski AWACS rozpoczął misję w Polsce
Młody narybek AWL-u na szkoleniu
Cios w plecy
Wieża z HSW nie tylko dla Warana
By znaleźć igłę, w Bałtyku trzeba najpierw znaleźć stóg
Husarz z polskim instruktorem
Orlik na Alfę
Sikorski: potrzebujemy ściany antydronowej
Nagrody MSPO – za uniwersalność konstrukcji
Pogrzeb ofiar rzezi wołyńskiej
Pytania o rosyjskie drony. MON wyjaśnia
NATO – jesteśmy z Polską
Koncern Hanwha inwestuje w AWL
Czołgiści w ogniu
Żandarmeria skontroluje także cywilów
Ostry kurs na „Orkę” – rząd chce podpisać kontrakt do końca roku
Niemiecki plan zniszczenia Polski
H145M – ciekawa oferta dla Polski
Prezydent przestrzega przed rosyjską dezinformacją
Debiut polskich Patriotów
„Road Runner” w Libanie
Zwycięska batalia o stolicę
Cena wolności. Powstańcze wspomnienia
Kurs dla najlepszych w SERE
„Nieustraszony Rekin” na wodach Bałtyku
Premiera na MSPO: Pocisk dalekiego zasięgu Lanca
Obowiązek budowy schronów staje się faktem
Hekatomba na Woli
W Sejmie o rosyjskich dronach nad Polską
Żołnierze USA i Bradleye jadą do Polski
Wielkie zbrojenia za Odrą
Człowiek w pętli
Aby państwo polskie było gotowe na każdy scenariusz
Trenują przed „Zapadem ‘25”
Triumf żołnierzy-lekkoatletów
17 września 1939. Nigdy więcej
Żelazna Dywizja zdaje egzamin celująco
Nielegalny skład amunicji został zlikwidowany
Rekompensaty na nowych zasadach
Święto Wojsk Lądowych
Black Hawki nad Warszawą
Największy transport Abramsów w tym roku
Grupa E5 o bezpieczeństwie wschodniej flanki NATO
Polska zwiększy produkcję amunicji artyleryjskiej
Pożegnanie z Columbią
Krok ku niezależności
Światowe podium dla zawodniczek Wojska Polskiego
Już mają brąz, a mogą mieć złoto!
Z najlepszymi na planszy
GROM w obiektywie. Zobaczcie sami!
Ustawa o obronie ojczyzny – pytania i odpowiedzi

Ministerstwo Obrony Narodowej Wojsko Polskie Sztab Generalny Wojska Polskiego Dowództwo Generalne Rodzajów Sił Zbrojnych Dowództwo Operacyjne Rodzajów Sił Zbrojnych Wojska Obrony
Terytorialnej
Żandarmeria Wojskowa Dowództwo Garnizonu Warszawa Inspektorat Wsparcia SZ Wielonarodowy Korpus
Północno-
Wschodni
Wielonarodowa
Dywizja
Północny-
Wschód
Centrum
Szkolenia Sił Połączonych
NATO (JFTC)
Agencja Uzbrojenia

Wojskowy Instytut Wydawniczy (C) 2015
wykonanie i hosting AIKELO