Czasy mamy ciężkie, więc zaawansowane, a często też perfidne ataki wykorzystujące sztuczną inteligencję i uczenie maszynowe mnożą się jak grzyby po deszczu
Pandemia rozochociła cyberprzestępców. Nasiliły się ataki na firmy świadczące usługi i na konsumentów, na koncerny i instytucje publiczne. Żniwo jest obfite, bo mnóstwo osób pozostających w domach przeniosło swoje życie i pracę do sieci.
Phishing na WHO
Jeden z najbardziej spektakularnych i perfidnych ataków hakerzy przypuścili na Światową Organizację Zdrowia (WHO), której rola w globalnej walce z koronawirusem jest pierwszoplanowa. Wykorzystując powszechne zamieszanie i niepewność, przestępcy, by wyłudzić od ludzi dane, zastosowali phishing. W fałszywych mailach z logo WHO, które rozsyłali, informowali o najczęstszych objawach zarażenia koronawirusem i zachęcali do pobrania dokumentu na temat sugerowanych przez organizację środków bezpieczeństwa. Link przekierowywał użytkownika na stronę przypominającą serwis WHO, zawierającą m.in. prośbę o zweryfikowanie adresu e-mail oraz podanie hasła do skrzynki. W ten sposób przestępcy zyskiwali dostęp do danych logowania ofiary.
Sztuczna inteligencja mogłaby wykrywać słabe i subtelne sygnały dotyczące nieznanych dotąd niebezpieczeństw
Kilka dni temu firma Kaspersky poinformowała o serii ataków na organizacje przemysłowe w różnych regionach świata. Ich celem były systemy w Japonii, Włoszech, Niemczech oraz Wielkiej Brytanii, głównie należące do podwykonawców. Grozi to nie tylko utratą poufnych danych, lecz także atakami na przedsiębiorstwa za pośrednictwem używanych w firmach narzędzi zdalnej administracji.
Wyścig po bezpieczeństwo
Coraz częstsze są też akcje phishingowe skierowane na użytkowników popularnych usług VOD, firmy kurierskie czy sklepy internetowe. Atakujący podszywają się pod firmy i organizacje, wykorzystując, jak w przypadku WHO, niebezpieczne linki lub tzw. steganografię, czyli zaszywanie niebezpiecznych linków w metadanych obrazków.
Zażegnaniem problemu mogą być rozwiązania z obszaru SI. Jak wskazuje raport Capgemini z 2019 roku, firmy przyspieszają inwestowanie w systemy sztucznej inteligencji, by bronić się przed kolejną generacją cyberataków. Dwie trzecie z nich przyznaje, że bez SI nie będzie w stanie reagować na krytyczne zagrożenia. Rozwój technologii chmurowych, IoT i 5G oznacza większą liczbę urządzeń, sieci i interfejsów użytkownika końcowego, co wymusza na firmach używanie coraz lepszych systemów ochrony i szybkiego reagowania.
Eksperci stwierdzili w raporcie, iż unikalne możliwości tej technologii pozwalają organizacjom na ciągłe modyfikowanie parametrów wykrywania ataków. SI znajduje również zastosowanie w przewidywaniu zagrożeń, skanując ogromne ilości danych. Gorzej jest z automatyczną reakcją na te zagrożenia, choć i tu w najbliższych latach spodziewana jest poprawa.
Rój botów i inne metody
W kwietniu brytyjski think tank Royal United Services Institute for Defence and Security Studies (RUSI) opublikował raport o zagrożeniach dla bezpieczeństwa narodowego Wielkiej Brytanii, wynikających z cyberataków z użyciem sztucznej inteligencji. O przygotowanie opracowania zwrócił się do RUSI brytyjski wywiad elektroniczny. Jeden z kilku wniosków zawartych w raporcie mówił o konieczności wykorzystania SI na rzecz cyberbezpieczeństwa, bo przestępcy nie zawahają się użyć jej przeciw Brytyjczykom.
Jak twierdzą eksperci, liczba zaawansowanych ataków, które wykorzystują sztuczną inteligencję i uczenie maszynowe, wyraźnie rośnie. Wiele współczesnych narzędzi przestępczych zawiera już funkcje pozwalające inteligentnie omijać oprogramowanie antywirusowe lub inne narzędzia wykrywania zagrożeń.
Przykładem użycia przetwarzania kognitywnego jest np. Watson for Cyber Security – sztuczna inteligencja opracowana przez IBM
– W ciągu kilku ostatnich lat wykształciła się na przykład nowa technika ataku nazywana rojem botów. Do atakowania w ten sposób sieci oraz podłączonych do nich urządzeń wykorzystuje się uczenie maszynowe i sztuczną inteligencję, które pomagają infiltrować sieci, blokować pracę wewnętrznych mechanizmów obronnych oraz wyszukiwać i wykradać dane – zauważa Paweł Wojciechowski, Business Development Manager w Fortinet.
Czynnik ludzki pozostanie
Eksperci RUSI zaznaczają, że dotychczas wykorzystywane narzędzia identyfikują znane już zagrożenia, natomiast sztuczna inteligencja mogłaby wykrywać słabe i subtelne sygnały dotyczące nieznanych dotąd niebezpieczeństw. Wspominają także o skuteczności algorytmów przetwarzania kognitywnego. Stosowane są one m.in. w semantycznych bazach danych, które rozpoznają obrazy, przetwarzają język i same się uczą.
Przykładem użycia przetwarzania kognitywnego jest np. Watson for Cyber Security – sztuczna inteligencja opracowana przez IBM. Uczy się znajdować powiązania między zagrożeniami i dostarczać wartościowych informacji na ich temat. W rezultacie na zagrożenia można reagować szybciej, ponosząc przy tym mniejsze ryzyko.
Skuteczność sztucznej inteligencji w cyberbezpieczeństwie nie wynika jednak wyłącznie z jej zdolności do zastępowania człowieka. Czynnik ludzki, jego wiedza i nadzór, pozostaje kluczowy.
– SI jest naszym sprzymierzeńcem w walce z cyberzagrożeniami. Pozwala porządkować ogromną ilość danych, szybciej wykrywać nowe zagrożenia czy kolejne warianty złośliwego oprogramowania – zauważa Wojciechowski. – Już teraz pomaga m.in. w gromadzeniu i analizowaniu zdarzeń w sieci, dzięki czemu można wychwytywać zjawiska odbiegające od normy. Używana jest też w statycznej i dynamicznej analizie zagrożeń typu zero-day (to zagrożenia i ataki przeprowadzone zanim firmy zdążą przygotować odpowiednią aktualizację, czyt. załatają dziurę w systemie – red.) w automatycznej ochronie urządzeń końcowych czy aplikacjach webowych. Ważne, by takie rozwiązania miały zdolność samokształcenia, co poprawi skuteczność analizy danych i umożliwi lepsze reagowanie na anomalie w sieci.
Wetware, czyli dwa w jednym
– Sztuczna inteligencja jako przede wszystkim narzędzie (systemy eksperckie, analizatory czy sieci neuronowe) może zostać użyta i w dobrym, i w złym celu – podkreśla Łukasz Formas z firmy Sophos. – Skomplikowane systemy i algorytmy mogą budować zabezpieczenia, ale także je łamać. Obie strony barykady coraz lepiej rozwijają tę technologię.
Uczenie maszynowe pomaga dziś chronić systemy i sieci, wykrywać złośliwe aktywności, zagrożenia i anomalie. Cyberprzestępcy wykorzystują je z kolei np. do tworzenia przekonujących, lecz fałszywych treści w atakach opartych na socjotechnice.
– Algorytmy bazujące na sieciach neuronowych mogą udawać głos danej osoby czy generować sfałszowane wideo. Tego typu deep fakes mogą stwarzać coraz większe zagrożenie, bo odróżnienie ich od prawdziwych informacji będzie coraz trudniejsze. W przyszłości mogą też przyczyniać się do rozwijania bardziej zautomatyzowanych socjotechnik i ataków zwanych wetware, czyli łączących automatyczne tworzenie treści z działaniami człowieka. Systemy maszynowe świetnie sprawdzają się bowiem w analizie dużych ilości danych, ale ciężko wymagać od nich abstrakcyjnego myślenia. Ono nadal pozostaje domeną ludzi – dodaje Formas.