Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

W ciągu ostatniego roku generatywna sztuczna inteligencja i ChatGPT nadal zyskiwały na znaczeniu w toczącej się walce pomiędzy atakującymi i obrońcami. Chociaż wiele branż w wciąż bada możliwości wykorzystania sztucznej inteligencji w zakresie zwiększenia swoich możliwości, cyberprzestępcy dostrzegli również potężny potencjał AI w zakresie wykorzystywania luk w zabezpieczeniach i tworzenia nowych wektorów ataków.
Na początku 2023 r. Check Point Research ujawnił pierwsze sygnały świadczące o zainteresowaniu cyberprzestępców wykorzystaniem ChatGPT do tworzenia złośliwego oprogramowania, narzędzi szyfrujących i innych wektorów ataków. Rosyjscy cyberprzestępcy natychmiast rozpoczęli dyskusję na temat tego, jak ominąć wszelkie ograniczenia, aby rozpocząć korzystanie z ChatGPT w nielegalnych celach.
Rok po uruchomieniu ChatGPT obserwujemy, że wykorzystanie generatywnej sztucznej inteligencji stało się nową normą w przypadku wielu usług cyberprzestępczych, szczególnie w obszarze podszywania się i inżynierii społecznej. Część z nich zdała sobie sprawę z potencjału generatywnej sztucznej inteligencji jako wyróżnika umożliwiającego zwiększenie efektywności swoich usług i nawet się tym przechwala.
Analitycy firmy Check Point przedstawili cztery rosyjskie „undergroundowe” usługi oparte na sztucznej inteligencji, które wykorzystują wbudowaną generatywną sztuczną inteligencję jako część swoich nielegalnych narzędzi i platform. Są to:
Fałszywe konta w mediach społecznościowych stanowią poważne zagrożenie dla cyberbezpieczeństwa ze względu na ich potencjał do szkodliwych działań, podszywania się pod markę, szerzenia dezinformacji i wielu innych.
W grudniu 2023 r. doświadczone ugrupowanie cyberprzestępcze, posiadający oficjalny status sprzedawcy na „renomowanym” rosyjskim podziemnym forum, zaoferowało gotową platformę wykorzystującą sztuczną inteligencję jako podstawowy moduł do generowania treści dla platform mediów społecznościowych, takich jak Instagram, Facebook, Twitter i Telegram. Można ją wykorzystać do niemal całkowitej automatyzacji obsługi fałszywych kont w mediach społecznościowych.

W przykładach działania grupa pokazała wygenerowane treści fałszywych modelek. W innym przypadku wygenerowano serię fałszywych profili imitujących profile odnoszących sukcesy traderów finansowych.

Podmiot zagrażający wyjaśnił, że dopiero podczas pracy na swojej platformie zdał sobie sprawę, jak potężne są te narzędzia. W związku z czym zaoferował dwa modele biznesowe:

31 grudnia, w noc sylwestrową, na głównym rosyjskim forum podziemnym wprowadzono kolejną usługę do podszywania się. Koncentruje się ona na świadczeniu usług deepfake opartych na sztucznej inteligencji w trzech obszarach:

Korzystanie z usług opisanych w przypadkach 1 i 2, oddzielnie lub w połączeniu, może wywrzeć wpływ w dwóch istotnych obszarach:
Złośliwy spam to jedna z najstarszych nielegalnych usług dostępnych na nielegalnych forach poświęconych cyberprzestępczości. Spam jest najczęstszym wektorem początkowym dla różnych celów scenariuszy ataków, takich jak phishing i zbieranie danych uwierzytelniających, dystrybucja złośliwego oprogramowania, oszustwa itp.
Jedna z tego typu usług została uruchomiona w listopadzie 2023 r. przez renomowane ugrupowanie cyberprzestępcze, które może poszczycić się ponad 15-letnim doświadczeniem w swojej działalności. Po otrzymaniu pozytywnych opinii na temat swoich usług ugrupowanie zaczęło wykorzystywać sztuczną inteligencję, w szczególności ChatGPT, do swoich usług spamowych.
Korzystanie z ChatGPT pomogło w losowym generowaniu tekstu spamu i zapewniło wyższy wskaźnik powodzenia.
Jak powiedział jeden z klientów tej usługi, usługa spamowa oparta na sztucznej inteligencji pomogła mu ominąć kontrole antyspamowe i antyphishingowe popularnych usług poczty internetowej i osiągnęła 70% współczynnika pomyślnych dostaw na docelowy adres e-mail.
Ile przeciętny haker musi zainwestować, aby skutecznie dostarczyć 70 000 złośliwych e-maili? Pakiet 100 000 wiadomości spamowych kosztuje 1250 USD (można zapłacić w Bitcoinach, Monero lub USDT).

Procedury Know Your Customer (KYC) stały się standardową praktyką dla firm świadczących usługi finansowe ze względu na potrzebę zwiększonego bezpieczeństwa, ograniczania ryzyka i zgodności z przepisami.
KYC odgrywa również kluczową rolę w odzyskiwaniu dostępu do konta w przypadku, gdy prawowity właściciel nie jest w stanie skorzystać z tradycyjnych metod, takich jak resetowanie hasła. Firma zazwyczaj wymaga od klientów przejścia procesu KYC w celu potwierdzenia ich tożsamości i upewnienia się, że są legalnymi posiadaczami konta. Zwykle wiąże się to z przedstawieniem ważnych dokumentów tożsamości, takich jak dowód osobisty, paszport lub prawo jazdy, a także dodatkowymi etapami weryfikacji.
Istnieje cały podziemny rynek oferujący podejrzane usługi, takie jak tworzenie obrazów fałszywych dokumentów w celu weryfikacji. Wcześniej tego rodzaju cyberprzestępczość wykonywana była głównie poprzez ręczną manipulację odpowiednimi obrazami.
Teraz jednak jeden z dostawców usług KYC Darkweb zapewnił, że niedawno zintegrował technologię AI, która znacznie przyspieszyła proces tworzenia fałszywych dokumentów weryfikacyjnych bez utraty jakości.

Szybki rozwój technologii sztucznej inteligencji stwarza nowe możliwości i wyzwania w obszarze cyberbezpieczeństwa. Chociaż sztuczna inteligencja może nam pomagać, np. wykrywając złośliwe oprogramowanie czy zabezpieczając systemy, pozwala jednocześnie cyberprzestępcom na zwiększenie skali swoich działań.
Cyberprzestępcy mogą teraz wykorzystać moc sztucznej inteligencji do tworzenia bardziej wyrafinowanych schematów inżynierii społecznej, szybszego znajdowania luk w zabezpieczeniach sieci, tworzenia syntetycznych nośników do zastraszania lub kradzieży tożsamości oraz automatyzowania prób phishingu i tworzenia złośliwego oprogramowania.
źródło: Check Point