Wykorzystanie deepfake do „metody na wnuczka”

Choć oszustwo znane pod nazwą „metoda na wnuczka/policjanta” nie jest czymś nowym, działania cyberprzestępców nadal potrafią zaskoczyć! Ale po kolei…

Szybkie przypomnienie schematu działania

Oszuści kontaktując się telefonicznie z ofiarami przedstawiają się za członków rodziny bądź przedstawiciela organów ścigania. Podczas rozmowy informują o nagłych problemach i proszą o pomoc finansową. Najczęściej historia dotyczy rzekomo spowodowanego wypadku i konieczności wpłacenia kaucji, aby uniknąć więzienia.

Po co przestępcom deepfake w tym scenariuszu?

Początek jest taki sam: ofiara odbiera telefon, dowiaduje się o spowodowanym przez członka rodziny wypadku i możliwości wpłacenia kaucji. To historia, która przedstawia jej osoba przedstawiająca się jako policjant lub prokurator. Zmiana następuje w tym kroku, gdyż rozmówca informuje ofiarę przestępstwa, że przekaże do telefonu wspomnianego wcześniej członka rodziny. Wykorzystując narzędzie sztucznej inteligencji do generowania deepfake live, głosem podszywającym się pod członka rodziny przekazywana zostaje informacja o konieczności dokonania  pilnej wpłaty, pożyczenia pieniędzy w celu uniknięcia problemów. Rozmowa taka odbywa się bardzo płynnie, co może stwarzać poczucie wiarygodności osoby, która znajduje się po drugiej stronie telefonu.

Skąd przestępcy „mają głos” członka rodziny?

Źródeł pozyskiwania próbki głosu może być wiele. Zdarza się także, że osoba, pod której głos się podszywano może otrzymywać przed tym zdarzeniem połączenia telefoniczne od rzekomych ankieterów. Do wygenerowania takich materiałów mogą posłużyć im również publicznie dostępne nagrania wideo dotyczące ofiary.

W jaki sposób narzędzia sztucznej inteligencji wpływają na działania cyberprzestępców?

Działania te pokazują, że wykorzystanie technologii deepfake, mającej ogromne możliwości wynosi działania przestępcze na nowy poziom, dający atakującym pakiet, nieznanych do tej pory, możliwości. Z jednej strony mogą oni tworzyć nowe scenariusze działania, z drugiej udoskonalają te z których korzystają od lat, sprawiając, że manipulacja i stosowana socjotechnika będzie jeszcze trudniejsza do odkrycia, dla standardowego „użytkownika Internetu”.

Możliwości jakie dają narzędzia sztucznej inteligencji w znacznym stopniu przyczyniają się do obniżenia progu wejścia w świat cyberprzestępczości i pokazują, że przeprowadzenie opisywanego ataku nie wymaga posiadania zaawansowanych umiejętności technicznych. Oszuści przy wykorzystaniu metod socjotechnicznych manipulują ofiarą i wpływają na jej zachowania.

O konkretnym przypadku wystąpienia takie zdarzenia pisaliśmy a naszym podsumowaniu miesięcznym: https://cebrf.knf.gov.pl/komunikaty/artykuly-csirt-knf/362-ostrzezenia/885-przeglad-wybranych-oszustw-internetowych-listopad-2023