Hakerzy próbują oszukać sztuczną inteligencję, podsuwając jej „toksyczne” dane. Spece od bezpieczeństwa szukają antidotum
Według AV-TEST, niemieckiego instytutu zajmującego się bezpieczeństwem w sieci, tylko w 2018 roku w internecie zaczęło działać 845 milionów szkodliwych lub podejrzanych programów. Zagrożenia ze strony hakerów spędzają sen z powiek administratorom sieci i specom od bezpieczeństwa. Coraz częściej mówi się, że także na tym polu świetnie sprawdzą się rozwiązania oparte na sztucznej inteligencji.
Naprawdę inteligentny przeciwnik
Według Steve’a Grobmana z firmy McAfee zastosowanie SI w cyberbezpieczeństwie różni się zasadniczo od jej użycia w innych dziedzinach. Kluczowa różnica? Tu mamy do czynienia z przeciwnikiem, który robi wszystko, by obejść zabezpieczenia. Cały czas się rozwija, zmienia metody i techniki.
Grobman podaje przykład meteorologa zajmującego się przewidywaniem huraganów. Jeśli stworzy system komputerowy, który doskonale się w tym sprawdzi, to prawa fizyki nie zmienią się nagle, by ten system oszukać innym sposobem tworzenia huraganów. W cyberbezpieczeństwie nie ma tego luksusu – to niekończący się wyścig zbrojeń i gra bez reguł.
Twórcy zabezpieczeń szkolą SI na zestawach treningowych zawierających fragmenty złośliwego kodu i algorytmy. Przygotowany w ten sposób system skanuje aplikacje i pozwala wykryć zaszyte w nich niebezpieczeństwa.
Podobnych technik używa się w celu wykrywania zagrożeń online. Odpowiednio wyszkolony algorytm analizuje charakterystyki stron internetowych i wychwytuje wzorce, które wskazywałyby na to, że zostały stworzone w niecnych celach.
Sceptyczny spec
Według Grobmana im bardziej powszechne będzie korzystanie z SI w obronie systemów, tym więcej będzie powstawać metod służących obejściu zabezpieczeń. Można to zrobić na przykład przez „zatruwanie” zestawów, co sprawia, że system zaczyna błędnie klasyfikować analizowane dane, co zmniejsza jego skuteczność.
Ciekawym przykładem takiego ataku są spamerzy, którzy próbują oszukać system wykrywania spamu Gmaila. Rozsyłają śmieciowe wiadomości do fikcyjnych kont, po czym raportują je jako nie-spam w nadziei, że uczący się algorytm na tej podstawie zmieni swoje zachowanie.
Jak się przed tym bronić? Jedno z najskuteczniejszych rozwiązań działa trochę jak szczepionka. Twórcy systemów bezpieczeństwa SI badają metody stosowane do zakłócania działania SI i atakują nimi swój własny system. Rezultaty tych ataków są następnie włączane do zestawów treningowych i system staje się mniej podatny na tego typu ataki.
– Myślę, że jednym z wielkich problemów sztucznej inteligencji jest to, że ludzie ją przeceniają – mówił Grobman na konferencji AI World Conference w Bostonie. Jak zauważa, mamy tendencję do przedstawiania sztucznej inteligencji w dobrym świetle, często bezpodstawnie.
– Bardzo mnie martwi, że branża nie ma narzędzi do oceny, czy systemy bezpieczeństwa oparte na SI rzeczywiście mają wartość. Nietrudno zbudować rozwiązanie, które wygląda na doskonałe. Ale jeśli nie wiesz, jak szczegółowo zweryfikować jego działanie, to równie dobrze może ono być nic niewarte.