5 najlepszych ataków socjotechnicznych opartych na sztucznej inteligencji
ARTYKUŁ - ATAKI SOCJOTECHNICZNE
Opis
5 najlepszych ataków socjotechnicznych opartych na sztucznej inteligencji
Socjotechnika to skuteczna technika, która opiera się na ludzkich słabościach. manipuluje emocjami takimi jak zaufanie, strach czy szacunek.
Deepfake audio, który mógł mieć wpływ na wybory na Słowacji
Przed wyborami parlamentarnymi na Słowacji w 2023 r. pojawiło się nagranie, na którym kandydat Michal Simecka rozmawiał ze znaną dziennikarką Moniką Todovą. Dwuminutowy fragment audio zawierał dyskusje na temat kupowania głosów i podnoszenia cen piwa.
Po rozpowszechnieniu w Internecie okazało się, że rozmowa była fałszywa, a słowa wypowiadała sztuczna inteligencja, która została wyszkolona na głosach mówców.
Jednak deepfake został opublikowany zaledwie kilka dni przed wyborami. To sprawiło, że wielu zastanawiało się, czy sztuczna inteligencja miała wpływ na wynik i przyczyniła się do zajęcia drugiego miejsca przez Postępową Słowację Michala Simeckiego.
Rozmowa wideo za 25 milionów dolarów, która nie była
W lutym 2024 r. pojawiły się doniesienia o ataku socjotechnicznym opartym na sztucznej inteligencji na pracownika finansowego w międzynarodowej firmie Arup. Uczestniczyli w spotkaniu online z osobą, którą uważali za swojego dyrektora finansowego i innych współpracowników.
Podczas rozmowy wideo pracownik finansowy został poproszony o wykonanie przelewu na kwotę 25 milionów dolarów. Wierząc, że prośba pochodziła od prawdziwego dyrektora finansowego, pracownik wykonał instrukcje i zakończył transakcję.
Początkowo podobno otrzymali zaproszenie na spotkanie pocztą elektroniczną, co wzbudziło podejrzenia, że są celem ataku phishingowego. Jednak po zobaczeniu osobiście tego, co wydawało się być dyrektorem finansowym i współpracownikami, zaufanie zostało przywrócone.
Jedynym problemem było to, że pracownik był jedyną obecną prawdziwą osobą. Wszyscy pozostali uczestnicy zostali stworzeni cyfrowo przy użyciu technologii deepfake, a pieniądze trafiły na konto oszustów.
Żądanie okupu na milion dolarów
Wielu z nas otrzymało losowe SMS-y zaczynające się od odmiany „Cześć mamo/tato, to mój nowy numer. Czy możesz przelać trochę pieniędzy na moje nowe konto?”. Kiedy wiadomość jest odbierana w formie tekstowej, łatwiej jest się zatrzymać i pomyśleć: „Czy ta wiadomość jest prawdziwa?”. Co jednak, jeśli otrzymasz połączenie i usłyszysz osobę, rozpoznając jej głos? A co, jeśli będzie brzmiało to tak, jakby została porwana?
To właśnie przydarzyło się matce, która zeznawała w Senacie USA w 2023 r. na temat ryzyka przestępstw generowanych przez sztuczną inteligencję. Otrzymała połączenie, które brzmiało, jakby pochodziło od jej 15-letniej córki. Po odebraniu usłyszała słowa: „Mamo, ci źli mężczyźni mnie dorwali”, po czym męski głos groził podjęciem działań w związku z serią strasznych gróźb, jeśli nie zostanie zapłacony okup w wysokości 1 miliona dolarów.
Przytłoczona paniką, szokiem i poczuciem pilności matka wierzyła w to, co słyszała, aż do momentu, gdy okazało się, że rozmowę przeprowadził głos sklonowany przez sztuczną inteligencję.
Fałszywy chatbot Facebooka zbierający nazwy użytkowników i hasła
Facebook mówi: „Jeśli otrzymasz podejrzany e-mail lub wiadomość, która rzekomo pochodzi z Facebooka, nie klikaj żadnych linków ani załączników”. Atakujący stosujący socjotechnikę nadal osiągają rezultaty, stosując tę taktykę.
Mogą grać na obawach ludzi przed utratą dostępu do konta, prosząc ich o kliknięcie złośliwego linku i odwołanie się od fałszywego bana. Mogą wysłać link z pytaniem „czy to ty jesteś na tym filmie?” i wywołać naturalne poczucie ciekawości, zaniepokojenia i chęci kliknięcia.
Atakujący dodają teraz kolejną warstwę do tego typu ataku socjotechnicznego w postaci chatbotów opartych na sztucznej inteligencji. Użytkownicy otrzymują e-mail, który udaje, że pochodzi z Facebooka, grożąc zamknięciem konta. Po kliknięciu przycisku „odwołaj się tutaj” otwiera się chatbot, który prosi o podanie nazwy użytkownika i hasła. Okno pomocy technicznej jest oznaczone marką Facebooka, a interakcja na żywo zawiera prośbę o „działanie teraz”, co dodaje atakowi pilności.
Odłóżcie broń - mówi deepfake prezydent Zełenski
Jak głosi przysłowie: Pierwszą ofiarą wojny jest prawda. Po prostu dzięki sztucznej inteligencji prawdę można teraz również odtworzyć cyfrowo. W 2022 r. pojawiło się sfałszowane wideo, na którym prezydent Zełenski wzywa Ukraińców do poddania się i zaprzestania walki w wojnie z Rosją. Nagranie trafiło na Ukraine24, stację telewizyjną, która została zhakowana, a następnie udostępniona online.
Ataki socjotechniczne
Kadr z deepfake wideo prezydenta Zełenskiego, z różnicami w odcieniu skóry twarzy i szyi
Wiele doniesień medialnych podkreślało, że wideo zawierało zbyt wiele błędów, aby można było w nie powszechnie uwierzyć. Należą do nich zbyt duża głowa prezydenta w stosunku do ciała i nienaturalny kąt.
Chociaż jesteśmy jeszcze na stosunkowo wczesnym etapie rozwoju sztucznej inteligencji w socjotechnice, tego typu filmy często wystarczają, aby przynajmniej sprawić, że ludzie zatrzymają się i pomyślą: „A co, jeśli to prawda?”. Czasami dodanie elementu wątpliwości do autentyczności przeciwnika to wszystko, czego potrzeba, aby wygrać.
Sztuczna inteligencja przenosi inżynierię społeczną na wyższy poziom: Jak reagować
Największym wyzwaniem dla organizacji jest to, że ataki inżynierii społecznej są ukierunkowane na emocje i wywołują myśli, które czynią nas ludźmi. W końcu przyzwyczailiśmy się ufać naszym oczom i uszom i chcemy wierzyć w to, co nam się mówi. To naturalne instynkty, których nie można po prostu dezaktywować, zdegradować ani umieścić za zaporą sieciową.
Dodajmy do tego rozwój sztucznej inteligencji, a stanie się jasne, że ataki te będą się pojawiać, ewoluować i zwiększać swoją objętość, różnorodność i szybkość.
Dlatego musimy przyjrzeć się edukowaniu pracowników, aby kontrolowali i zarządzali swoimi reakcjami po otrzymaniu nietypowego lub nieoczekiwanego żądania. Zachęcanie ludzi do zatrzymania się i zastanowienia przed wykonaniem tego, o co zostali poproszeni. Pokazywanie im, jak wygląda atak inżynierii społecznej oparty na sztucznej inteligencji i co najważniejsze, jak się go odczuwa w praktyce. Dzięki temu, niezależnie od tego, jak szybko rozwija się sztuczna inteligencja, możemy przekształcić siłę roboczą w pierwszą linię obrony.
2.02.2025
źródło: The Hacker News
atak inżynierii społecznej oparty na sztucznej inteligencji, socjotechnika, atak socjotechniczny oparty na AI, manipulacja emocjami, deepfake audio, fłszywa rozmowa wideo, fałszywy chatbot Facebooka, social engineering, AI-based social engineering attack, emotion manipulation, deepfake audio, fake video call, fake Facebook chatbot, Social Engineering, KI-basierter Social-Engineering-Angriff, Manipulation von Emotionen, Deepfake-Audio, gefälschter Videoanruf, gefälschter Facebook-Chatbot