Jak cyberprzestępcy wykorzystują sztuczną inteligencję?
REKLAMA
REKLAMA
Sposoby wykorzystywania sztucznej inteligencji przez hakerów
Sposobów wykorzystywania sztucznej inteligencji przez hakerów jest dużo więcej, te należą do najpopularniejszych.
REKLAMA
Phishing/spear phishing/spoofing
Automatyczne generowanie treści e-maili przez sztuczną inteligencję to jedno z najczęściej wykorzystywanych narzędzi. Tak stworzone wiadomości są bardzo przekonujące i trudne do odróżnienia od prawdziwych. AI jest w stanie spersonalizować e-maile i dostosować je do kontekstu, co zwiększa szansę na powodzenie ataku.
REKLAMA
Przestępcy chętnie korzystają również z tego, że sztuczna inteligencja potrafi doskonale podszywać się pod prawdziwe adresy e-mail oraz analizować publicznie dostępne informacje po to, by tworzyć ataki ukierunkowane, naśladować styl pisania i wzorce komunikacji nadawcy wiadomości.
- Oczywiście narzędzia takie jak ChatGPT czy Google Bard posiadają wiele zabezpieczeń, które nie pozwalają im na tworzenie treści do wykorzystania w trakcie cyberataku. Nie można im zatem wydać bezpośredniego polecenia przygotowania e-maila, który mógłby posłużyć do przeprowadzenia ataku Business Email Compromise. Jednak te ograniczenia można obejść, prosząc na przykład o wygenerowanie treści wiadomości od dyrektora zarządzającego do dyrektora finansowego z prośbą o pilne przeprocesowanie transakcji – tłumacz Mateusz Ossowski, CEE Channel Manager w firmie Barracuda Networks, która jest producentem rozwiązań z obszaru bezpieczeństwa IT.
Hakerzy wiedzą doskonale, jak działać. Znając ograniczenia oficjalnych narzędzi opartych na generatywnej sztucznej inteligencji, cyberprzestępcy stworzyli nową usługę WormGPT. To dostępny w Dark webie chatbot, który służy do pisania złośliwego oprogramowania do tworzenia cyberataków, w tym do pisania poprawnych gramatycznie i ortograficznie e-maili phishingowych.
Generowanie złośliwego oprogramowania
REKLAMA
Jak cyberprzestępcy wykorzystują takie narzędzia jak WormGPT i EvilGPT? Daje to im zupełnie nowe możliwości. Atakujący mogą używać ich do zautomatyzowania swoich działań, w tym wyszukiwania i wykorzystywania podatności, tworzenia złośliwego oprogramowania, które jest w stanie modyfikować swoje zachowanie lub kod w odpowiedzi na napotkane środki bezpieczeństwa. Dodatkowo, oparte na AI botnety mają potencjał do przeprowadzenia wyniszczających ataków rozproszonej odmowy dostępu do usługi (DDoS).
- Gdy ChatGPT zyskał na popularności, zauważyliśmy, że wiele osób prosi go o tworzenie skryptów automatyzacji za pomocą PowerShell lub podobnego narzędzia. Skrypty te często zawierały błędy, jednak nadal były pomocne i przyspieszały pracę administratorów. Tak samo ze sztucznej inteligencji korzystają dziś i w coraz większym stopniu korzystać będą cyberprzestępcy, tworząc złośliwe oprogramowanie. Jak wynika z wydanego niedawno raportu Barracuda Networks i Instytutu Ponemon, 48% specjalistów IT uważa, że użycie generatywnej sztucznej inteligencji skróci czas potrzebny cyberprzestępcom do przygotowania cyberataku – komentuje Mateusz Ossowski.
Deepfake
Sztuczna inteligencja pomaga też w generowaniu fałszywych treści wizualnych i dźwiękowych. Służą one do podszywania się i tworzenia bardziej przekonujących ataków.
- Atakujący mogą na przykład przygotować deepfake'owe nagranie audio lub wideo, w którym wykorzystują głos czy wizerunek pracownika lub osoby z kadry kierowniczej firmy. Taki materiał dołączają do e-maila phishingowego, podnosząc jego wiarygodność. Cyberprzestępcy są w stanie także stworzyć fałszywe wideo, aby rozpowszechniać nieprawdziwe informacje o organizacji lub jej kierownictwie. Wszystko po to, by zaszkodzić reputacji i manipulować opinią publiczną – mówi Mateusz Ossowski z Barracuda Networks.
Ale to nie wszystko. Kolejną rzeczą wykorzystywaną przez cyberprzestępców jest przygotowywanie fałszywych spotkań wideo. Atakujący tworzą deepfake'owe filmy symulujące spotkania online lub konferencje z udziałem kierownictwa firmy. Podszywają się pod osoby zarządzające, wykorzystując ich adresy e-mail, zdjęcia, a czasem też spreparowane nagrania audio, by wydawać polecenia autoryzacji przelewów lub udostępniania ekranów i przekazywania wrażliwych informacji.
Cyberprzestępcy uciekają się też do szantażów. Dzięki sztucznej inteligencji tworzą deepfake'owe filmy, w których ich ofiary biorą udział w kompromitujących lub niestosownych działaniach. Następnie atakujący próbują wymusić zapłatę okupu w zamian za niepublikowanie treści.
Lokalizacja treści
Dotychczas wiele ataków e-mailowych tworzonych było przez osoby, które nie znają języka swojej ofiary, co prowadziło do powstawania charakterystycznych błędów gramatycznych, które były sygnałami ostrzegawczymi potencjalnego ataku phishingowego. Teraz dzięki pomocy sztucznej inteligencji atakujący dostosowują wiadomości phishingowe do lingwistycznego i kulturowego kontekstu odbiorców.
- cyberprzestępcy mogą automatycznie tłumaczyć wiadomości phishingowe na różne języki i personalizować ich treść
- kampanie phishingowe są dostosowywane do różnych regionów i zawierają odniesienia do lokalnych wydarzeń kulturalnych, świąt, wiadomości lub zwyczajów
- e-maile pisane są branżowym językiem, z uwzględnieniem specyficznej terminologii i żargonu zrozumiałego dla atakowanej grupy osób
- w e-mailach phishingowych znajdują się informacje dotyczące lokalnych marek, instytucji lub organów rządowych, co podnosi ich wiarygodność
Kradzież danych dostępowych
Sztuczna inteligencja pomaga także hakerom przy kradzieży dostępu i poświadczeń.
Phishing i fałszywe strony logowania: Hakerzy tworzą fałszywe strony logowania, które przypominają prawdziwe. Sztuczna inteligencja sprawia, że są one bardziej przekonujące. Ułatwia również tworzenie wielu kopii witryn.
Uzupełnianie danych logowania: Hakerzy korzystają z automatycznych narzędzi, często zasilanych przez AI, aby systematycznie testować duże ilości kombinacji nazw użytkowników i haseł uzyskanych z poprzednich wycieków danych. Algorytmy sztucznej inteligencji mogą między innymi optymalizować proces uzupełniania danych logowania, wybierając najbardziej prawdopodobne kombinacje na podstawie obserwowanych wzorców w przeciekach danych.
Łamanie haseł: Narzędzia oparte na AI mogą łamać hasła na podstawie dźwięku naciśnięć klawiszy. Zainfekowane złośliwym oprogramowaniem urządzenie umożliwia atakującemu podsłuchiwanie pomieszczenia i przechwytywanie wpisywanych haseł.
Pokonywanie CAPTCHA: CAPTCHA często lepiej radzi sobie z zatrzymywaniem ludzi niż botów. Obecnie narzędzie to jest pokonywane za pomocą specjalnych farm CAPTCHA lub skryptów działających na zasadzie rozpoznawania optycznego znaków (OCR). Ze sztuczną inteligencją obejście tego zabezpieczenia jest jeszcze łatwiejsze.
Zobacz także: Dlaczego używanie systemu antywirusowego jest obecnie tak istotne?
Ależ cios Chin w koncerny technologiczne z USA. Takiego zakazu nikt się nie spodziewał
Więcej ważnych informacji znajdziesz na stronie głównej Infor.pl
REKLAMA
REKLAMA