Płk Rafał Kasprzyk: nawet inteligentna maszyna może zostać zmanipulowana jak marionetka

Fot. Adobe Stock
Fot. Adobe Stock

Nawet inteligentna maszyna może zostać zmanipulowana jak marionetka. Cybernetycy nazywają to „złośliwym antagonistycznym atakiem”. Dlatego naukowcy, również w Wojskowej Akademii Technicznej, prowadzą badania dotyczących działań antagonistycznych - powiedział gość Studia PAP płk dr inż. Rafał Kasprzyk z WAT.

"Sztuczna inteligencja w rozumieniu humanistycznym to 'tchnienie ciepła' algorytmów do zimnych układów scalonych. Algorytmy rozgrzewają te układy scalone i pojawia się nowy byt, sztuczna inteligencja. Niektórzy widzą ją jako światło, inni jako cień, mrok przyszłości, który odbija się w teraźniejszości. Ja widzę to jako narzędzie, które jest wzmacniaczem naszej inteligencji" – mówi inżynier.

Dodaje, że to narzędzie szybko staje się coraz bardziej autonomiczne. Paliwem algorytmów sztucznej inteligencji są dane, a siłą – moc obliczeniowa współczesnych komputerów. Pozostawia też otwartą kwestię, czy ten nowy byt nie zacznie kiedyś sam zadawać sobie pytania: kim jest.

Ewolucja algorytmów sztucznej inteligencji odbywa się w tempie wykładniczym.

"Z jej klasyfikacją jest tak, jakbyśmy próbowali malować mapę kontynentu, którego jeszcze nie odkryliśmy. Co więcej, nie zdajemy sobie sprawy, że może są inne kontynenty" – dodaje badacz. Jako inżynier, dzieli AI na dwa typy. Pierwszy, to taki, którego uczy ekspert – człowiek rozumiejący maszynę i przelewający jej "do głowy" znane sobie reguły. Drugi natomiast to system, który nie potrzebuje człowieka, żeby się uczyć, bo sam korzysta z dostarczonych mu danych. Tak powstaje Software 2.0, który współcześnie znajduje coraz ciekawsze zastosowania, i który w różnych obszarach radzi sobie dużo lepiej niż człowiek.

Problem w tym, że "nie do końca rozumiemy reguły postępowania tej maszyny. Oczywiście, ponieważ umiemy je budować, rozumiemy algorytm. Możemy się domyślać, ale nie jesteśmy w stanie odpowiedzieć ze stuprocentową pewnością, jaką decyzję podejmie maszyna tak wytrenowana, i jakie reguły stały właśnie za tą decyzją" – przyznaje płk dr inż. Kasprzyk.

Jak zastrzega, jest wiele obszarów – w szczególności wojsku – gdzie nie można swobodnie wykorzystywać maszyn, o których nie jest wiadomo, na jakich zasadach działają.

ŚRODKI WALKI OPAKOWANE W SENSORY

Ogromna popularność AI ma związek z dużymi modelami językowymi, które uczą się same, z danych "słownikowych" dostępnych w internecie. Modele multimodalne uczą się nie tylko z tekstu, ale z obrazu, z dźwięku, z wszystkich danych, jakie potrafią zebrać czujniki – podobnie jak człowiek zbiera dane z otoczenia poprzez zmysły. Jak zdradza płk dr inż. Kasprzyk, inżynierowie takich modeli "osensorowują" generalnie wszystko, zbierają wszelkie możliwe dane, a dopiero potem będą się zastanawiać, do czego można je wykorzystać.

Jednocześnie rozwijają algorytmy dla już istniejących zastosowań, szczególnie w wojsku, gdzie AI pomaga zdobyć przewagę nad potencjalnym przeciwnikiem, nie tylko na polu walki. Pozwala na przykład osiągnąć zdolność do rozpoznania, czyli budowania świadomości sytuacyjnej.

"Algorytmy uczenia maszynowego są w stanie precyzyjnie, bardzo szybko, identyfikować podejrzane obiekty, rozpoznawać je i śledzić. To jest jedno z +grubych zastosowań+ również w cywilu, chociażby w autonomicznych pojazdach. Natomiast w wojsku chodzi o to, żeby zbierać dane i budować obraz sytuacji" – podaje przykład pułkownik i uzasadnia, że zdolność do fuzji danych z olbrzymiej ilości sensorów, którymi są opakowane współczesne środki walki, usprawnia dowodzenie.

USPRAWNIA, DORADZA, NIE ZASTĘPUJE

Wariantowanie, czyli wskazywanie dowódcom najlepszych kierunków działań, to kolejny obszar zastosowania AI na polu walki. Dowódca może, ale nie musi korzystać z takiej rekomendacji. "Mam nadzieję, że nigdy w tym kierunku nie pójdziemy" – zastrzega pułkownik. Natomiast z dużym przekonaniem mówi o obszarze obrony i ochrony wojsk.

"Sztuczna inteligencja może być wykorzystywana do wszystkich takich działań, które są brudne, nudne, niebezpieczne, jak chociażby kwestia rozminowania. Autonomiczne czy sterowane pojazdy wsparte algorytmami sztucznej inteligencji mogą to robić zamiast ludzi. Roboty mogą też maskować teren, mogą mylić pociski przeciwnika" – wylicza inżynier, dodając, że do maskowania mogą być wykorzystane drony, a dla naukowców otwiera się cały obszar wyzwań związany ze sterowaniem bardzo dużą liczbą małych obiektów. Zastosowania wojskowe to logistyka, zaopatrzenie, analiza potrzeb zarówno ludzi, jak i maszyn.

STRZELA WCIĄŻ TYLKO CZŁOWIEK

Najwięcej emocji w kontekście zastosowań AI wiąże się z obszarem rażenia, nieodzownym dla prowadzenia działań wojennych. Bo przecież wojsko, poza rozpoznaniem, ochroną i zaopatrzeniem, musi przede wszystkim niszczyć cele.

"Na szczęście, przynajmniej póki co, nie ma wdrożonych autonomicznych, śmiercionośnych systemów uzbrojenia" – komentuje płk dr inż. Kasprzyk. Pozostaje jednak wątpliwość, czy tak będzie w przyszłości. Być może któraś ze stron konfliktów zdecyduje się na taki krok, a może - w przypadku braku łączności z maszyną - ta sama podejmie decyzje.

W cyberprzestrzeni (czyli w internecie i wszędzie tam, gdzie występuje łączność) AI może rozpoznawać podatność infrastruktury teleinformatycznej przeciwnika. Wojska mogą też analizować z jej pomocą własne systemy, żeby je "utwardzać", czyli znajdować i zamykać wszystkie "tylne drzwi", którymi wróg mógłby się tam dostać – tzw. podatności.

WOJNY NA ALGORYTMY

Jak tłumaczy płk dr inż. Kasprzyk, wprowadzenie software’u na pole walki wzmacnia siły, ale zwiększa powierzchnię ataku. Luki powstają czasem w sposób niekontrolowany, ale bywa, że na etapie budowania inżynierowie specjalnie wprowadzają tylne wejście do systemu.

W przypadku algorytmów sztucznej inteligencji jest o skomplikowany - zauważa ekspert. "Ponieważ do końca nie rozumiemy najnowszych dużych modeli zbudowanych z wykorzystaniem chociażby architektur głębokich sieci neuronowych, to one mogą mieć podatności, które nie są dla nas widoczne. Również nie są widoczne dla przeciwnika, przynajmniej na początku. Natomiast mogą być wyszukiwane i znalezione z wykorzystaniem innych algorytmów uczenia maszynowego. I tu pojawia się coś, co można nazwać wojną maszyn" – mówi.

Wyjaśnia, że inteligentna maszyna może zostać zmanipulowana jak marionetka. W języku cybernetyków jest to "złośliwy antagonistyczny atak". Sztuczną inteligencję można oszukać innymi algorytmami, przygotować "szum", który pozwala złośliwe sterować maszyną, specjalne "łatki" do umieszczania na obiektach, które ona rozpoznaje. Na razie przewaga człowieka jest wciąż duża: to, co człowiek klasyfikuje bez problemu, dla urządzenia może być mylące, np. znak drogowy ze złośliwą naklejką lub pomalowany specjalną farbą. Zdaniem inżyniera, to właśnie dlatego po naszych drogach nie jeżdżą jeszcze powszechnie autonomiczne auta.

"Modele widzenia komputerowego są niezwykle odporne na ataki chuligańskie, jak losowe, przypadkowe niszczenie znaków drogowych, czy ich zamalowanie. Kiedy na taki znak zostanie spreparowana +łatka+, którą nazywa się +patchem+ (…), może to spowodować, że znak +stop+ autonomiczny samochód widzi jako +droga z pierwszeństwem przejazdu+, czyli aż tak może się mylić. Wyobraźmy sobie, co by było, gdybyśmy tego typu algorytmy wykorzystywali w wojsku. Takie łatki [przygotowane przez] przeciwnika mogłyby powodować, że nasze systemy zaczęłyby atakować nasze własne pododdziały. To niebezpieczne, tu zachować należy zdrowy rozsądek" – stwierdza badacz.

Naukowcy, również w Wojskowej Akademii Technicznej, prowadzą wiele badań m.in. w obszarze działań antagonistycznych. Zdaniem rozmówcy Studia PAP, który jest zastępcą dziekana Wydziału Cybernetyki WAT, w Polsce są dobre pespektywy rozwoju dla młodych osób zainteresowanych sztuczną inteligencją od strony konstrukcyjnej, naukowej. Dla najlepszych – tych, którzy przebrną "poligon intelektualny" i poradzą sobie z matematyką, statystyką, probabilistyką - są też gwarancje dobrej pracy.

"Jeśli ktoś chce rozwijać swoje umiejętności w obszarze sztucznej inteligencji i pracować w wojsku, to powinien przyjść na studia wojskowe. Tym bardziej, że teraz, w ramach Wojsk Obrony Cyberprzestrzeni, powstaje Centrum Implementacji Sztucznej Inteligencji (CISI), gdzie nasi absolwenci będą trafiali. A jeśli ktoś jest zainteresowany sztuczną inteligencją i chce pracować w korporacji czy w instytucjach państwowych, to powinien przyjść na studia cywilne" – mówi naukowiec. Jak podkreślił, absolwenci Wydziału Cybernetyki WAT dobrze zarabiają i mają szansę realizować projekty, łączące pracę w laboratorium i wdrożenia.

Wracając do kwestii wojskowości pułkownik wymienia prace naukowe nad wykorzystaniem AI w systemach dowodzenia i kontroli czy w autonomicznych dronach. Badania prowadzone są też nad operacjami w cyberprzestrzeni (Cyber ops) i w sferze informacyjnej (Info ops). Polscy młodzi badacze mogą uczestniczyć w tzw. wojnie informacyjnej i budować skuteczne metody przeciwdziałania tzw. deepfejkom, do których również wykorzystywana jest generatywna AI. Tworzy ona niemające pokrycia w faktach treści, które mogą być wykorzystywane do manipulowania osobami, grupą społeczną czy całym społeczeństwem. "Ale oczywiście mamy [w wojskowości – PAP]] zasadę: miecz-tarcza, czyli również powstają narzędzia oparte o algorytmy AI do identyfikacji treści syntetycznych mających znamiona dezinformacji" – uspokaja inżynier.

Wideo z rozmowy znajduje się tutaj. 

Karolina Duszczyk (PAP)

Nauka w Polsce

kol/ zan/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Kielce/ Wirtualne ćwiczenia dla seniorów opracowane na uniwersytecie

  •  10.03.2021. PAP/Marcin Bielecki

    Starlink - megakonstelacja, którą trudno zastąpić

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera