Dziennik Gazeta Prawana logo

Cyberbezpieczeństwo w erze AI: nowe sposoby ataku i obrony

Stefan Gągała (po prawej), dyrektor Departamentu Cyberbezpieczeństwa w LINK4
Stefan Gągała (po prawej), dyrektor Departamentu Cyberbezpieczeństwa w LINK4Materiały prasowe / Fot. Mat. prasowe
dzisiaj, 21:00

O rosnącej roli sztucznej inteligencji, zagrożeniach w sieci oraz rozwiązaniach związanych z cyberbezpieczeństwem mówi Stefan Gągała, dyrektor Departamentu Cyberbezpieczeństwa w LINK4.

Sztuczna inteligencja jest dziś jednym z najczęściej odmienianych pojęć, zarówno w biznesie, jak i w debacie publicznej. Coraz częściej mówi się jednak, że może być ona również nowym wektorem cyberataków. Jakie są dziś najważniejsze zagrożenia związane z wykorzystaniem AI przez cyberprzestępców?

91b026d0-b044-4108-a83b-938887dda25f-39097032.jpg

Warto zacząć od dość niewygodnej, ale realistycznej tezy – prędzej czy później każdy z nas stanie się celem cyberataku. Dotyczy to zarówno osób prywatnych, jak i organizacji. Sztuczna inteligencja nie zmienia tej rzeczywistości, ale znacznie zwiększa skalę i skuteczność działań cyberprzestępców. Stała się po prostu kolejnym narzędziem w ich arsenale.

Jeśli chodzi o konkretne przykłady, to do najważniejszych zagrożeń należą dziś deepfake’i i kradzież głosu, zatruwanie modeli, a także prompt injection, czyli manipulowanie zapytaniami kierowanymi do modeli AI. Możemy sobie wyobrazić sytuację, w której pracownik odbiera telefon od rzekomego przełożonego – głos brzmi identycznie, ton i sposób mówienia również. W takiej sytuacji bardzo trudno odróżnić atak od rzeczywistej komunikacji wewnątrz organizacji. W istocie mamy do czynienia z phishingiem, ale w znacznie bardziej zaawansowanej, trudniejszej do wykrycia formie. Te zagrożenia są dziś dość powszechne. Gromadzone są m.in. w ramach frameworków, takich jak MITRE czy jego rozszerzenie MITRE ATLAS, które opisują techniki ataków również w kontekście sztucznej inteligencji.

Framework MITRE to w uproszczeniu uporządkowana baza wiedzy o cyberatakach. Zawiera zestaw taktyk i technik stosowanych przez cyberprzestępców, od rekonesansu, przez uzyskanie dostępu, aż do działań po włamaniu. Dzięki temu specjaliści mogą się posługiwać wspólnym językiem i lepiej rozumieć, z jakim typem zagrożenia mają do czynienia. Co więcej, znajomość tych technik pozwala projektować skuteczniejsze mechanizmy obronne – bo najlepszą obroną jest znajomość przeciwnika.

Warto też dodać, że framework ten jest stale rozwijany. W kontekście sztucznej inteligencji powstało jego rozszerzenie, czyli MITRE ATLAS, które obejmuje już ok. 150 technik związanych z atakami na modele AI i z ich wykorzystaniem.

A zatem AI nie tyle tworzy nowe zagrożenia, ile wzmacnia istniejące mechanizmy ataku?

Dokładnie tak. Wiele technik, które dziś obserwujemy, było znanych już wcześniej, ale sztuczna inteligencja znacznie zwiększa ich skuteczność, skalę i automatyzację. To powoduje, że ataki są bardziej przekonujące, szybsze i trudniejsze do wykrycia.

Jednocześnie pojawiają się też zagrożenia bezpośrednio związane z samymi modelami AI. Jednym z nich jest zatruwanie modeli, czyli data poisoning. Polega ono na wprowadzaniu do zbiorów danych uczących AI niewielkiej liczby zmanipulowanych informacji, które wpływają na późniejsze działanie modelu. Co istotne, wcale nie potrzeba tu dużej skali, czasem wystarczy promil danych, aby model zaczął generować błędne lub niepożądane odpowiedzi.

To brzmi jak bardzo trudne do wykrycia zagrożenie.

Zdecydowanie tak. Tym bardziej że efekty nie zawsze są natychmiastowe i oczywiste. Model może działać poprawnie przez długi czas, a następnie w określonych warunkach zaczyna generować nieprawidłowe wyniki.

Kolejnym aspektem jest bezpieczeństwo samego modelu jako produktu. Tu sytuacja jest analogiczna do aplikacji mobilnych. Jeśli pobieramy dany produkt z niezaufanego źródła, istnieje ryzyko, że zawiera on złośliwe komponenty, np. backdoory (ukryte mechanizmy dostępu do systemu lub programu, które omijają standardowe zabezpieczenia, takie jak logowanie czy autoryzacja – red.).

Dlatego podstawowe zasady cyberhigieny pozostają niezmienne: korzystanie z zaufanych źródeł i ograniczone zaufanie do nowych narzędzi.

Wspomniał pan o prompt injection. Na czym dokładnie polega to zagrożenie?

Prompt injection to technika polegająca na takim konstruowaniu zapytań do modelu AI, aby uzyskać odpowiedzi, których w normalnych warunkach by nie udzielił. Często nie jest to jedno pytanie, ale cała sekwencja, odpowiednio zaprojektowana „rozmowa”, która prowadzi do uzyskania informacji potencjalnie niebezpiecznych.

Przykładowo, jeśli zapytamy model wprost o stworzenie złośliwego oprogramowania, prawdopodobnie odmówi. Jednak poprzez serię pośrednich pytań można uzyskać fragmenty informacji, które po złożeniu pozwalają osiągnąć ten efekt. To pokazuje, jak ważne jest rozumienie kontekstu i mechanizmów działania modeli.

Czyli mamy do czynienia z dynamicznie rozwijającym się „wyścigiem zbrojeń”. Jak pan ocenia jego obecny stan; kto jest dziś krok przed innymi?

To bardzo trudne pytanie, bo odpowiedź na nie wymagałaby jednoznacznych metryk, a takie nie zawsze mamy. Z mojej perspektywy sytuacja jest dość zrównoważona. Sztuczna inteligencja wzmacnia zarówno atakujących, jak i obrońców. Można to porównać z rozwojem broni i pancerza – pojawiają się coraz lepsze narzędzia ofensywne, ale jednocześnie są rozwijane coraz skuteczniejsze mechanizmy obronne. W efekcie żadna ze stron nie uzyskuje trwałej przewagi.

Niemniej jedno jest pewne: przegrywają ci, którzy nie nadążają za zmianą. Brak adaptacji do nowych technologii i zagrożeń to dziś największe ryzyko.

Jak w takim razie powinny się zmieniać zespoły odpowiedzialne za cyberbezpieczeństwo w firmach? Czy AI wpłynie na ich strukturę i kompetencje?

Zdecydowanie tak. Już obserwujemy zmianę podejścia do budowania zespołów. Kompetencje techniczne pozostają bardzo ważne, ale coraz większe znaczenie mają umiejętności miękkie – komunikacja, współpraca, zdolność do krytycznego myślenia i rozumienia kontekstu biznesowego.

Sztuczna inteligencja świetnie radzi sobie z analizą dużych zbiorów danych, przetwarzaniem logów czy generowaniem raportów. Dlatego powinna być wykorzystywana tam, gdzie przynosi największą wartość, w zadaniach powtarzalnych i analitycznych.

Z kolei ludzie powinni koncentrować się na tym, co wymaga kreatywności, intuicji i doświadczenia, czyli na analizie złożonych incydentów, podejmowaniu decyzji i współpracy między zespołami.

W praktyce oznacza to, że coraz częściej specjaliści od cyberbezpieczeństwa pracują z narzędziami AI jako asystentami czy agentami, którzy wspierają ich w codziennej pracy.

Czy jest możliwy scenariusz, w którym AI stanie się pełnoprawnym członkiem takiego zespołu, dotąd składającego się wyłącznie z ludzi?

Od strony technologicznej jest to możliwe, ale pojawiają się tu również istotne kwestie psychologiczne i organizacyjne. Zespół to nie tylko zbiór kompetencji, lecz także relacje, zaufanie i poczucie wartości jego członków.

Wyobraźmy sobie sytuację, w której system AI przejmuje większość zadań lub nawet sugeruje podział pracy. Może to wpływać na motywację i rolę człowieka w zespole. Dlatego dziś kluczowe jest zachowanie właściwej równowagi.

Najlepszym podejściem jest traktowanie AI jako narzędzia wspierającego, a nie zastępującego człowieka. To człowiek powinien zachować kontrolę nad procesem i podejmować ostateczne decyzje.

Jak pan widzi przyszłość cyberbezpieczeństwa w kontekście rozwoju AI?

Już dziś widzimy rosnącą automatyzację i to z pewnością będzie się pogłębiać. Coraz więcej zadań operacyjnych będzie realizowanych przez systemy oparte na AI. Jednocześnie za rozwojem tych technologii stoją duże organizacje i konkretne modele biznesowe, co również będzie miało wpływ na kierunek zmian.

Jeśli jednak miałbym wskazać pożądany kierunek, to jest nim synergia człowieka i maszyny. AI powinno wspierać, przyspieszać i zwiększać efektywność, ale to człowiek musi pozostać na szczycie – jako ostateczny decydent.

Rozmawiała Anna Piotrowska, not. KR

cyfrowa gospodarka belka
cyfrowa gospodarka belka

Partner relacji

d8e7ac3e-f21b-445f-be28-5decc4728a28-39097035.jpg

Dziękujemy za przeczytanie artykułu!
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.