Skip to main content
Home » Cyberbezpieczeństwo » Jak AI może szkodzić cyberbezpieczeństwu?
Cyberbezpieczeństwo

Jak AI może szkodzić cyberbezpieczeństwu?

Marek Wierzbicki

Ekspert Polskiej Platformy Bezpieczeństwa Wewnętrznego w Obszarze Analizy i Wywiadu Kryminalnego

Przemysław Dobrzyński

Przemysław Dobrzyński, Polska Platforma Bezpieczeństwa Wewnętrznego

W ostatnim czasie bardzo popularny jest temat sztucznej inteligencji. Napisano już o nim tysiące artykułów, setki książek i przeprowadzono pewnie tyle samo szkoleń. Znamy zalety płynące z wykorzystania AI w cyberbezpieczeństwie, ale czy jesteśmy w pełni świadomi zagrożeń?

Techniki sztucznej inteligencji są rozwijane od lat. Skala jej zastosowań zaczęła rosnąć szczególnie w związku ze wzrostem mocy obliczeniowej komputerów oraz usprawnianiem komunikacji między urządzeniami. Autorzy prac naukowych z obszaru AI w swoich badaniach najczęściej poruszają tematykę związaną z algorytmem genetycznym, eksploracją danych, sztucznymi sieciami neuronowymi, a także uczeniem głębokim. Ale sztuczna inteligencja to też wyzwanie dla osób zajmujących się cyberbezpieczeństwem.

Wiele mówi i pisze się o roli i miejscu AI w walce z cyberzagrożeniami, a w szczególności wykorzystaniu jej do rozwiązywania złożonych problemów, z uwzględnieniem zagrożeń, ograniczeń i przygotowaniu organizacji do zastosowania nowych narzędzi. Mniej natomiast poświęca się uwagi słabym punktom bezpieczeństwa inteligentnych systemów, a w szczególności atakom na sztuczną inteligencję i niebezpiecznym posługiwaniem się nią.

Strzeż się swojego sprzętu domowego

Przykładem takich rozszerzonych zagrożeń AI jest używanie jej do ingerowania w sieci społecznościowe. Specjalnie zaprogramowane boty wykorzystujące sztuczną inteligencję infiltrują grupy i konta w mediach społecznościowych, aby wpływać na postrzeganie danego tematu lub wydobywać dane osobowe do celów przestępczych. Tego typu proceder obserwujemy w Polsce, szczególnie pod kątem rosyjskiej działalności w tej sferze. Istnieją chatboty, które potrafią naśladować ludzki dialog i prowadzić długą rozmowę, w ten sposób oszukując człowieka po drugiej stronie i próbując wydobyć od niego ważne dane osobowe. Nietrudno domyślić się, że pozyskane informacje mogą być podstawą do popełnienia oszustwa lub innych przestępstw.

Inny scenariusz zagrożenia w kontekście AI zakłada ustalenie przez nią priorytetów celów cyberataków przy użyciu uczenia maszynowego. Do tego wykorzystywane są duże zbiory danych pomagające skuteczniej identyfikować ofiary. Szacunkom mogą podlegać m.in. osobiste bogactwo i gotowość do płacenia na podstawie zachowania danej osoby w internecie. Pozwala to tym samym stworzyć kompleksowy profil ofiary.

W dzisiejszych czasach zakup urządzenia niepołączonego z internetem staje się bardzo trudną misją. Wszystko jest teraz inteligentne – zabawki, telewizory, lodówki, pralki, piekarniki… Oczywiście większość z nich może gromadzić nagrania dźwiękowe, integrować dane, parować się z wieloma sprzętami, a co najgorsze – stanowi wdzięczny cel złośliwych ataków.

Jakie są konkretne przykłady tego typu działań? Prawie każdy ze smartfonów ma wbudowane aplikacje asystentów głosowych o wysokich uprawnieniach, co umożliwia dostęp do zasobów systemowych i prywatnych informacji. Poza tym atakujący może wykorzystać odsłonięte inteligentne głośniki do wydawania poleceń dźwiękowych pobliskiemu inteligentnemu asystentowi. W końcu jeśli głośnik danego urządzenia jest podłączony do sieci, luki zabezpieczeń mogą zostać wykorzystane, powodując odtworzenie pliku audio hostowanego pod dowolnym adresem internetowym skonfigurowanym przez atakującego.

Hakerzy nie śpią

Hakerzy mogą wykorzystać postęp sztucznej inteligencji do cyberataków. Przykładami są ataki DDoS oraz MITM i tunelowanie DNS. Pierwsze z nich polegają na próbie uniemożliwienia działania wybranego systemu komputerowego lub usług sieciowych poprzez wysyłanie zapytań z wielu komputerów naraz. MITM opiera się na ingerencji w korespondencję online bez wiedzy nadawcy i odbiorcy, natomiast ostatnie z zagrożeń używa DNS do obejścia zabezpieczeń lub ukrycia ruchu sieciowego.

Najpoważniejszą obawą przed zastosowaniem AI w złośliwym oprogramowaniu jest to, że będzie ono się uczyć na podstawie wykrytych zdarzeń. Jeśli szczep takiego narzędzia dowie się, co spowodowało jego wykrycie, następnym razem może uniknąć tego samego schematu działania. Przykład stanowi 2015 rok i demonstracja tworzenia wiadomości e-mail w celu ominięcia filtrów antyspamowych. Ataki na pocztę elektroniczną są ukierunkowane i wymagają wysokiego poziomu umiejętności w obszarze inżynierii społecznej.

Przestępcy już teraz mają dostęp do więcej niż niezbędnej ilości danych nt. organizacji mogących być ich kolejnymi celami. Wystarczy uświadomić sobie, jak wiele informacji jest udostępnianych m.in. za pośrednictwem kont w mediach społecznościowych kadry kierowniczej wysokiego szczebla i odpowiedzialnych finansowo członków organizacji, oficjalnych stron internetowych, wiadomości, bieżących raportów, planów podróży, wycieków danych i osób z wewnątrz. Wszystko to można wykorzystać do budowania i trenowania algorytmów uczenia maszynowego.

Zagrożeń w kontekście cyberbezpieczeństwa i sztucznej inteligencji nie można ignorować. W 2017 roku zaprezentowano jedno z pierwszych narzędzi AI o otwartym kodzie źródłowym, które włamuje się do bazy danych aplikacji internetowej. Tego typu zbiory informacji pomagają w ulepszaniu algorytmów do odgadywania haseł. Tradycyjne narzędzia zwykle działają poprzez porównywanie wielu odmian skrótu wybranego kodu zabezpieczającego. Chociaż zasady te sprawdzają się w praktyce, rozszerzenie ich w celu modelowania kolejnych haseł jest pracochłonnym zadaniem dla specjalistów. Jednak poprzez wykorzystanie sieci neuronowych możliwość analizy takich danych i generowania ich odmian, uległa znacznemu przyśpieszeniu i poprawieniu skuteczności.

Sztuczna inteligencja może również odpowiadać za zagrożenia bezpieczeństwa fizycznego. Przykłady?  Posłużenie się nią do automatyzacji zadań związanych z przeprowadzaniem ataków lub powodowaniem awarii za pomocą autonomicznych pojazdów i innych systemów fizycznych z wykorzystaniem narzędzi zintegrowanych poprzez zarówno Internet Rzeczy, jak i jego podkategorię stanowiącą Przemysłowy Internet Rzeczy. Obie koncepcje mają za zadanie ułatwić przepływ i analizę danych w celu zwiększenia ogólnej efektywności usług. Jednak, niestety, mogą być również wykorzystane, aby szkodzić człowiekowi.  

Dzisiaj a jutro

Sztuczna inteligencja jest szczególnie skutecznym narzędziem dla cyberprzestępców ze względu na jej zdolność do uczenia się i przewidywania tego, co dzieje się teraz i co może się wydarzyć w przyszłości. Stąd pojawiły się  terminy „AI-Crime”, „szkodliwa sztuczna inteligencja”, „złośliwa sztuczna inteligencja” czy „złośliwe wykorzystanie i nadużycie” sztucznej inteligencji. Praktyki te niekoniecznie są obecnie uznawane za przestępstwa na mocy określonych przepisów, ale nadal zagrażają bezpieczeństwu osób, organizacji i instytucji publicznych. Przez złośliwe nadużycie rozumiane jest stosowanie AI w złych intencjach, a także ataki na same systemy z niej korzystające.

Stąd w lutym 2019 roku przedstawiciele środowisk akademickich, policji, instytucji zajmujących się obronnością, rządu i sektora prywatnego, w trakcie warsztatów pt. „AI & Future Crime”, zorganizowanych w londyńskim University College, podjęli się zadania identyfikacji przyszłych nadużyć używających sztuczną inteligencję. Wskazano, że możliwości opartej  na niej przestępczości istnieją zarówno w sferze pokrywającej się z tradycyjnymi pojęciami cyberbezpieczeństwa i cyberprzestępczości, jak i w szerszym znaczeniu. Niektóre z tych zagrożeń pojawiają się jako rozszerzenie istniejącej nielegalnej działalności, podczas gdy inne mogą być nowatorskie. Uczestnicy wydarzenia zauważyli przy tym, że sztuczną inteligencję można wykorzystywać do celów zabronionych na wiele sposobów, które wzajemnie się nie wykluczają.

Przede wszystkim AI może być narzędziem do popełnienia tradycyjnego przestępstwa, poprzez stosowanie jej do ułatwiania działań przeciwko rzeczywistym celom. Przykładami użycia są przewidywanie zachowań osób czy instytucji do wykrywania słabych punktów, a także generowanie fałszywych treści do szantażu lub zaszkodzeniu reputacji. Ponadto sztuczna inteligencja może być zaprogramowana do dokonania czynów, których ludzie nie chcą lub nie są w stanie zrobić sami, np. z powodu niebezpieczeństwa, swoich ograniczeń, czasu reakcji itd.

Dodatkowo, jak już wspomniano wcześniej, samo AI może znaleźć się na celowniku przestępców poprzez próbę obejścia przez nich zabezpieczeń, aby uniknąć wykrycia lub ścigania za popełniony występek. Zamiarem tego typu ataków może być również sprawienie, że systemy krytyczne zawodzą, co ma podważyć wiarę obywateli w ich niezawodność. Pośredni efekt tego to mniejsze poczucie bezpieczeństwa, a co za tym idzie słabsze zaufanie społeczeństwa i pogorszenie więzi między ludźmi.

Sztuczna inteligencja na tym etapie jeszcze nie potrafi wszystkiego. A to właśnie wiara w funkcje, których nie posiada, często jest podstawą powodzenia nieuczciwego działania. Hipotetycznie domorosły inwestor może zostać zmanipulowany, gdy uwierzy w możliwości AI pod kątem przewidywania zmian choćby na rynku akcji. Otrzeźwienie i wnioski mogą jednak przyjść za późno – gdy jest już po fakcie.

Przestępstwo AI jako usługa

Stopień, w jakim różnorodność czynów przestępczych może zostać zwiększona za pomocą sztucznej inteligencji, w znacznym stopniu zależy od tego, jak bardzo przedmiot zainteresowania oszustów osadzony jest w środowisku IT. Stąd, oczywiście, AI lepiej nadaje się do udziału w oszustwie bankowym niż w bójce w pubie. Zwłaszcza że współczesne społeczeństwo głęboko uzależniło się od złożonych sieci obliczeniowych, nie tylko w zakresie finansów i handlu, ale także wszystkich form komunikacji, polityki, wiadomości, pracy i relacji społecznych.

W przeciwieństwie do wielu tradycyjnych przestępstw, te dokonywane w sferze cyfrowej i ich schematy można łatwo udostępniać, powtarzać, a nawet sprzedawać. Umożliwia to wprowadzanie technik przestępczych na rynek i dostarczanie czynów zabronionych jako usługi. Oznacza to, że osoby chcące złamać prawo mogą być w stanie zlecić na zewnątrz trudniejsze aspekty swojej działalności opartej na sztucznej inteligencji.

Niestety, urynkowienie tego typu specjalizacji, a co za tym idzie powstanie przestępczości AI jako usługi, stało się już faktem. Na różnych darknetowych forach można znaleźć nie tylko coraz więcej dyskusji o możliwościach wykorzystania narzędzi przestępczych opartych o algorytmy AI, ale także konkretne oferty realizacji czynów karanych z ich użyciem. Jednak ta wojna nadal trwa i nie należy zapominać, że postęp technologiczny to także szansa dla organów ścigania, aby zrobić dwa kroki do przodu i być przed osobami działającymi poza prawem.

Next article