Sztuczna inteligencja a cyberkonflikt – czy AI nas zaatakuje, czy obroni?

Następny artykuł

Rozwój i szerszy dostęp do AI to nowe, kreatywne możliwości nie tylko dla biznesu i zwykłych użytkowników. Sztuczna inteligencja okazuje się niestety także doskonałym narzędziem do planowania działań cyberprzestępczych oraz eskalacji konfliktów politycznych i zbrojnych. Fałszowanie przekazów audio i video dla celów propagandowych, duże kampanie phishingowe, wielowątkowe cyberataki – to tylko niektóre z możliwych scenariuszy. Czy odpowiedzią na nie będą systemy bezpieczeństwa, zbudowane również w oparciu o AI? Jak wygląda teraźniejszość i jak wyglądać może przyszłość konfliktów zasilanych sztuczną inteligencją?

AI wśród najważniejszych cyberzagrożeń?

O możliwościach i zagrożeniach z tym związanych, dyskutowali w połowie maja uczestnicy odbywającej się w Warszawie konferencji „ESET European Cybersecurity Day”. Znaleźli się wśród nich zarówno przedstawiciele zagranicznych instytucji rządowych (m.in. Victor Zhora, zastępca szefa Państwowej Służby Łączności Specjalnej i Ochrony Informacji Ukrainy; Rastislav Janota, przewodniczący Komitetu ds. Cyberbezpieczeństwa, Narodowy Urząd Bezpieczeństwa, Słowacja), dużych korporacji (m.in. Santander Bank czy Microsoft), a także sektora prawnego i naukowego.

– Rządy i instytucje odgrywają kluczową rolę w ustalaniu zasad oraz przepisów dotyczących cyberbezpieczeństwa. Działania na rzecz bezpieczeństwa wymagają jednak również współdziałania z prywatnymi organizacjami. Zapewnienie wolnej, otwartej, stabilnej i bezpiecznej cyberprzestrzeni to nie tylko wspólny interes. To także wspólna odpowiedzialność, zarówno sektora publicznego, jak i prywatnego – podkreślała otwierając konferencję Andrea Elscheková Matisová, Ambasador Republiki Słowackiej w RP.

Panel „AI i cyberkonflikt” po raz pierwszy dołączył do agendy wydarzenia, w ramach którego omawiano wszystkie najaktualniejsze wyzwania, związane z zabezpieczaniem cyberprzestrzeni takie jak m.in. ochrona krytycznych elementów infrastruktury państwowej, zabezpieczenia sektora bankowego i finansowego czy bieżące regulacje na poziomie europejskim. To pokazuje, jak szybko sztuczna inteligencja i wyzwania z nią związane wykroczyły poza etap technologicznych i akademickich rozważań. Rozmowa o wykorzystaniu AI na polu walki – zarówno cyfrowym, jak i realnym – to już teraz dyskusja o konkretnych wyzwaniach, a przyszłość może być jeszcze bardziej zaskakująca.

Nie tylko ChatGPT

Eksperci podkreślają, że sztuczna inteligencja to nie tylko Chat GPT, narzędzie umiejące szczegółowo odpowiadać na zapytania w języku naturalnym czy pisać kod, ale również technologie pozwalające na replikację głosu (VALL-E), edycję wideo (Runway Gen-2) i generowanie obrazu (DALL-E, Stable Diffusion, Midjourney itp.). To jednak nadal nie wszystko, rozwijane są także kolejne, specjalistyczne modele, które można wykorzystać w cyberprzestrzeni – zarówno z dobrymi, jak i złymi intencjami.

– Postęp związany z inżynierią AI i uczeniem maszynowym daje zarówno cyberprzestępcom, jak i osobom zajmującym się bezpieczeństwem, zupełnie nowe możliwości. Nie zapominajmy, że to nie tylko rozwój Chat GPT czy myślenia maszynowego. Inne, bardziej wyspecjalizowane modele i algorytmy także dynamicznie się rozbudowują. Wiele tego typu rozwiązań opracowanych w ostatnim czasie posiada funkcje bardzo przydatne zarówno dla osób, które będą je chciały wykorzystać do dobrych, jak i złych celów. Wciąż pozostało jednak do rozwiązania wiele kwestii, związanych z ich prawidłową implementacją. Pojawia się wiele wyzwań związanych z wdrażaniem ich, by działały zgodnie z oczekiwaniami – mówi Jakub Dębski, Chief Product Officer w ESET.

AI vs. AI?

Czy i kiedy na cyfrowym polu walki czeka nas zatem potyczka AI vs. AI? Na razie, zdaniem ekspertów, sztuczna inteligencja może być wykorzystywana w złych celach m.in. do częściowego generowania ataków opartych o złośliwe oprogramowanie malware, działań phishingowych, ataków ransomware czy scamów telefonicznych i video. Szerszych zastosowań cyberprzestępcy bez wątpienia także już próbują, ale być może napotykają takie same problemy, jak specjaliści z zakresu cyberbezpieczeństwa. To co ich różni, to bez wątpienia nastawienie do standardów etycznych. Dbałość o prawidłowy model działania także może nie stanowić dla nich wystarczającego hamulca. Jak wygląda perspektywa drugiej strony?

W zakresie bezpieczeństwa systemy AI mogą być i są już częściowo bez wątpienia pomocne m.in. przy monitoringu, segregowaniu alertów dotyczących potencjalnych ataków, identyfikowaniu wielokrotnych prób ataków będących częściami większych kampanii czy identyfikowaniu dróg, jakimi złośliwe oprogramowanie malware próbuje wniknąć do systemów, organizacji czy instytucji. Sztuczna inteligencja przyda się też wszędzie tam, gdzie trzeba przesiewać większe wolumeny danych i wykrywać w ich ramach rekordy, które mogą stanowić wartościowe informacje. Analiza i generowanie tekstów np. na potrzeby wsparcia użytkowników, poszukiwanie wartościowych informacji i podsumowywanie ich to także zadania, które spełni doskonale. Eksperci ds. cyberbezpieczeństwa zwracają jednak także uwagę na zastosowania, w ramach których zachować należy szeroko idącą ostrożność. Generatywne modele AI nie są np. przeznaczone do przetwarzania obliczeń liczbowych, informacji live i zastępowania zaawansowanych modeli kalkulacji ryzyka. Wnioski i porady generowane na ich podstawie powinny także być każdorazowo audytowane przez człowieka, nim staną się podstawą do podejmowania jakichkolwiek decyzji i aktywności. Do podejmowanie jakichkolwiek działań, związanych z fizycznym polem walki na podstawie rekomendacji AI zatem jeszcze daleka droga.

Systemy wciąż jeszcze niedoskonałe

Czy zastosowanie sztucznej inteligencji w wyższego rzędu zadania z zakresu cyberbezpieczeństwa to wobec tego pieśń przyszłości, czy kwestia szybkiego udoskonalenia istniejących już modeli, które – jak wiemy – dynamicznie się uczą i rozwijają?

– Sztuczna inteligencja to potężne narzędzie, o wiele potężniejsze niż wszystko, co widzieliśmy wcześniej. Z jednej strony to dobrze, bo istnieją nowe obszary, w których możemy je wykorzystać. Wiąże się z tym jednak odpowiedzialność, a aspekt etyczny jest niezwykle ważny. Możemy znaleźć wiele pól, na których warto wykorzystywać te modele, ale problemem jest to, że nie zachowują się one jeszcze tak, jak byśmy tego oczekiwali. Aktualnie takie narzędzia nie są jeszcze wystarczająco niezawodne, abyśmy mogli w pełni z nich korzystać w dziedzinie cyberbezpieczeństwa. Wynika to z faktu, że nie zostały jeszcze odpowiednio „wytrenowane”, nie rozwiązaliśmy wszystkich problemów, a rozmiar i potęga sztucznej inteligencji wcale nam w tym nie pomaga – wyjaśnia Katarína Mayer, Principal Researcher, ESET.

AI może już przetwarzać ogromne ilości danych i np. zdawać egzaminy medyczne, ale odpowiedzialne zadania z zakresu cyberbezpieczeństwa są wyjątkowe. Wymagają wzmocnienia funkcji związanych z wnioskowaniem, które teraz jeszcze często bywa błędne oraz pracy z ustrukturyzowanymi danymi – co nadal nie jest mocną stroną AI. Problemy, jakie dostrzegają specjaliści to także m.in. fakt, że modele sztucznej inteligencji nie uczą się w taki sposób jak my, wiec trzeba opracować efektywne schematy zasilania ich wiedzą, wykraczające poza nasze nawyki.

– Przed nami jeszcze dużo pracy, ale wierzę, że w przyszłości AI zmieni krajobraz cyberbezpieczeństwa. Pozwoli udoskonalić narzędzia, a eksperci otrzymają możliwości sprawniejszej analizy danych, co przełoży się na przyspieszenie pewnych procesów. Dopracowane systemy pozwolą też np. na lepszą ochronę mniejszych instytucji, które nie mają obecnie środków na utrzymywanie zespołów zajmujących się cyberbezpieczeństwem – podsumowuje Jakub Dębski.