Chatbot GhostGPT tworzy złośliwe oprogramowanie.
ARTYKUŁ - GHOSTGPT PRACUJE DLA HAKERÓW
Opis
Chatbot GhostGPT tworzy złośliwe oprogramowanie.
Cyberprzestępcy używają nieocenzurowanego Chatbota GhostGPT do tworzenia złośliwego oprogramowania.
Na nie legalnych forach badacze cyberbezpieczeństwa znaleźli reklamę GhostGPT. Bot oferuje szybkie prędkości przetwarzania, generuje złośliwe oprogramowanie i wspomaga wszelkie oszustwa związane z e-mailem. Ponadto nie rejestruje aktywności użytkownika w GhostGPT i można ją kupić za pośrednictwem komunikatora Telegram, który powszechnie wykorzystywany jest przez hakerów. Chatbota nie trzeba pobierać, nie trzeba tworzyć komunikatu jailbreak ani konfigurować modelu open source. Wystarczy zapłacić za dostęp i korzystać.
Badacze przetestowali jego możliwości, zadając mu polecenia napisania e-maila phishingowego z Docusign. Bot odpowiedział bardzo przekonywującym szablonem wraz z miejscem na fałszywy numer pomocy technicznej.
Reklama zgromadziła tysiące wyświetleń, co wskazuje na przydatność GhostGPT jak i na rosnące zainteresowanie cyberprzestępców LLM.
Materiały generowane przez AI mogą być tworzone i dystrybuowane szybciej i może to zrobić każdy, kto ma kartę kredytową, niezależnie od wiedzy technicznej. Badacze odkryli, że GPT-4 może autonomicznie wykorzystywać 87% luk „one-day”, jeśli zostanie wyposażony w niezbędne narzędzia.
Tego typu GPT pojawiają się i są aktywnie wykorzystywane od prawie dwóch lat
Prywatne modele GPT do niegodziwego użytku pojawiają się od jakiegoś czasu. W kwietniu 2024 r. raport firmy zajmującej się bezpieczeństwem Radware wymienił je jako jeden z największych wpływów AI na krajobraz cyberbezpieczeństwa w tym roku.
Twórcy prywatnych GPT oferują dostęp za miesięczną opłatą w wysokości od setek do tysięcy dolarów. Badania pokazują, że 20% ataków za pomocą nielegalnych Botów kończy się sukcesem. Średnio przeciwnicy potrzebują 42 sekund i pięciu interakcji, aby się przebić.
Inne przykłady takich modeli to WormGPT, WolfGPT, EscapeGPT, FraudGPT, DarkBard i Dark Gemini. W styczniu na Światowym Forum Ekonomicznym w którym uczestniczył Sekretarz Generalny INTERPOLU, podkreślił wyjątkowość FraudGPT i jego przydatność w świecie przestępczym.
Istnieją dowody na to, że przestępcy już wykorzystują sztuczną inteligencję do cyberataków. Liczba ataków na firmowe e-maile wykrytych przez firmę Vipre w drugim kwartale 2024 r. była o 20% wyższa niż w tym samym okresie w 2023 r., a dwie piąte z nich zostało wygenerowanych przez sztuczną inteligencję. W czerwcu HP przechwyciło kampanię e-mailową rozprzestrzeniającą złośliwe oprogramowanie w sieci za pomocą skryptu, który „był wysoce prawdopodobny, że został napisany przy pomocy GenAI”.
5.02.2025
źródło: TechRepaublic
Chatbot GhostGPT, złośliwe oprogramowanie, materiały generowane przez GhostGPT, prywatne modele GPT, cyberataki, ataki generowane przez AI, ataki hakerskie wspomagane przez sztuczną inteligencję, malware, GhostGPT generated materials, private GPT models, cyberattacks, AI generated attacks, AI assisted hacking attacks, Malware, GhostGPT-generierte Materialien, private GPT-Modelle, Cyberangriffe, KI-generierte Angriffe, KI-gestützte Hackerangriffe,