W cyberprzestrzeni trwa zacięta bitwa. Czy rozstrzygnie ją AI?

opublikowano: 16 maja 2023
W cyberprzestrzeni trwa zacięta bitwa. Czy rozstrzygnie ją AI? lupa lupa
fot. Pixabay

Hakerzy uzbrojeni w sztuczną inteligencję mogą obecnie doskonalić techniki ofensywne, co daje im możliwość inicjowania ataków na ogromną skalę, z lepszym skutkiem. Dzięki AI mogą wdrażać bardziej kompleksowe strategie, aby łamać zabezpieczenia systemów, przez co efekty ich działań są coraz bardziej spektakularne. Tradycyjne zabezpieczenia nie mają szans. Maszynę może pokonać tylko maszyna - jedyny skuteczny sposób na zwycięstwo w tym konflikcie to AI.

Sztuczna inteligencja w służbie zła

Techniki hakerów ewoluują. Już teraz sztuczna inteligencja wykorzystywana jest do wdrażania złośliwych algorytmów, które mogą się dostosowywać, uczyć i stale ulepszać, aby uniknąć wykrycia, sygnalizując zmianę paradygmatu w krajobrazie bezpieczeństwa cybernetycznego.

Zdaniem Christiana Putza, Country Managera w Vectra AI, „ofensywna sztuczna inteligencja” wykorzysta swoją zdolność do uczenia się i adaptacji, zapoczątkowując nową erę cyberzagrożeń, w której wysoce wyspecjalizowane ataki imitujące zachowania człowieka staną się skalowalne i będą odbywać się z prędkością maszyny. Po znalezieniu się w docelowej sieci, atakująca sztuczna inteligencja wykorzysta zdobywane na bieżąco informacje do kierowania atakiem, automatycznie ustalając, gdzie znajdują się najcenniejsze dane.

A najsłabszym ogniwem w łańcuchu bezpieczeństwa cybernetycznego pozostaje człowiek. Przy czym, podczas gdy zespół 15 cyberprzestępców może samodzielnie próbować sprowokować błąd ludzki i przeprowadzić dzięki temu 2 zaawansowane operacje równocześnie, sztuczna inteligencja pozwala przeprowadzić ich 200, osiągając lepsze wyniki. AI uskutecznia wszystkie techniki manipulacyjne, z których obecnie korzystają napastnicy. W oparciu o symulację zachowania użytkowników tworzone są chociażby e-maile phishingowe, których celem jest rozprzestrzenie złośliwego oprogramowania lub zbieranie cennych informacji. Wygenerowane przez AI wiadomości mają wyższe wskaźniki otwarcia niż te ręcznie spreparowane i pozwalają skuteczniej oszukać potencjalne ofiary, umożliwiając atak.

Oprócz fałszywych wiadomości e-mail istnieje wiele innych sposobów na znalezienie drogi wejścia do sieci przez oprogramowanie ransomware. Na pierwszy rzut oka innowacyjne technologie, takie jak NFC, wydają się wielkim krokiem naprzód, ale stanowią również kolejny punkt wejścia dla złośliwego oprogramowania. Wszystko to sprawia, że obecnie nie ma naprawdę skutecznego sposobu na zablokowanie dostępu przed ransomware. Zakładając jednak, że atak nastąpi możliwe jest odpowiednie reagowanie na naruszenie, i tutaj nieocenione są narzędzia oparte na AI – wyjaśnia Christian Putz.

Tylko sztuczna inteligencja jest w stanie pokonać sztuczną inteligencję

Odpowiedzią na pojawianie się coraz bardziej wyrafinowanych i nowatorskich cyberzagrożeń są systemy obronne wspomagane przez sztuczną inteligencję. Cyberwalkę wygra ten, kto zapewni sobie przewagę.

Informacje o wczorajszych atakach nie pozwalają na przewidzenie jutrzejszych zagrożeń – mówi Putz. – Tradycyjne bezpieczeństwo sieci opiera się na opracowywaniu polityki bezpieczeństwa cybernetycznego i znajomości topologii sieci organizacji. Wykorzystanie sztucznej inteligencji do zwiększenia bezpieczeństwa sieci poprzez zrozumienie zachowania ruchu sieciowego pomaga ustalić zarówno operacyjną agregację zadań, jak i politykę prywatności – zaznacza.

Sztuczna inteligencja nie tylko zwiększa ogólne bezpieczeństwo cybernetyczne, ale pozwala również zautomatyzować operacje identyfikacji zagrożeń i łagodzić ich skutki.

Atakujący stosują techniki dowodzenia i kontroli, aby uniknąć wykrycia przez zabezpieczenia sieciowe, na przykład, aby obejść zapory ogniowe i systemy IDS/IPS, informacje są osadzane w zapytaniach DNS. Ręcznej analizie i wykrywaniu brakuje skali i szybkości potrzebnych do skutecznego wykrywania dzisiejszych ataków i reagowania na nie. Tylko dzięki narzędziom opartym na sztucznej inteligencji możliwy jest ciągły wglądu w zabezpieczenia i monitorowanie sieci – wyjaśnia przedstawiciel Vectra AI.  

Ma to ogromne znaczenie zwłaszcza w obliczu nasilonych w ostatnim czasie działań cyberprzestępców, które przekładają się na przeciążenie nie tylko systemów, ale i zmęczenie specjalistów odpowiedzialnych za bezpieczeństwo.

Rosnące zmęczenie i rezygnacje analityków będą miały wpływ na zmianę podejścia do ochrony. W miejsce „nieprzekraczalnych” barier pojawi się wykrywanie i reakcja. Napastnicy nieprzerwanie uderzają w firmowe systemy, a ciągłe próby zablokowania niekończących się ataków wywołują zmęczenie i ostatecznie rezygnację wśród specjalistów ds. bezpieczeństwa cybernetycznego. Aby temu zapobiec należy przenieść ciężar działań na zmniejszenie skutków ataku. Oznacza to budowanie odporności w organizacji obejmującej ludzi, procesy i technologię oraz skupienie się na wczesnym wykrywaniu i właściwym reagowaniu, w przeciwieństwie do ochrony i zapobiegania. Kluczem stanie się zdolność wykrywania ataku nim przeniknie do wrażliwych danych i systemów – uważa Christian Putz.

Jakie działania można podjąć?

Przede wszystkim eksperci ds. bezpieczeństwa muszą zaplanować przyszłościowy system oprogramowania AI, który będzie w stanie ocenić wszystkie potencjalne wektory zagrożeń, wybrać odpowiednią strategię, skutecznie ją wdrożyć oraz zlokalizować złośliwe oprogramowanie.

Organizacje muszą z kolei ocenić, w jaki sposób ataki AI mogą zostać użyte przeciwko ich systemowi AI. Taka analiza jest niezbędna do opracowania strategii planu reagowania. Przetwarzanie języka naturalnego może służyć do gromadzenia danych o poprzednich i obecnych cyberatakach, zbierania danych o zagrożeniach i ulepszania funkcji prywatności.

Źródło: materiały prasowe Vectra AI

 

Zaloguj się, by uzyskać dostęp do unikatowych treści oraz cotygodniowego newslettera z informacjami na temat najnowszego wydania

Zarejestruj się | Zapomniałem hasła