fałszywy policjant fałszywy policjant

Fałszywy policjant chciał oszukać kobietę klonując głos za pomocą AI

Sztuczna inteligencja to nie tylko generowanie obrazków, rozmowy z chatbotem, czy technologia, pomagająca ludzkości. To również fala fake-newsów, wspierana deep-fake’ami, czy próby przestępcze. O jednej z nich poinformowała w social mediach pewna kobieta.

Kaveri wykorzystując swoje konto na Twitterze (X) opowiedziała nieciekawą historię. Miała ona do czynienia z wielce podejrzanym połączeniem telefonicznym. Oszust wykorzystał sztuczną inteligencję, udając policjanta oraz twierdząc, że aresztował jej córkę.

Fałszywy policjant sklonował głos córki ofiary

Fałszywy policjant

Fałszywy policjant zadzwonił do Kaveri mówiąc, że jej córka została zatrzymana, ponieważ wraz z trzema przyjaciółmi rzekomo sfilmowała syna MLA w kompromitującej sytuacji i próbowała go szantażować. Kobieta poprosiła o rozmowę z zatrzymaną córką i faktycznie usłyszała jej głos w słuchawce. Dziewczyna krzyczała „Mamo, uratuj mnie, uratuj mnie”, jednak matka była czujna. Sztuczna inteligencja brzmiała jak jej córka, ale sama wypowiedź nie wydała się naturalna i na pewno dziewczyna nie wypowiedziałaby się w taki sposób.

W tym momencie oszust próbował znów przejąć rozmowę. Twierdził, że domniemana ofiara porzuci sprawę w zamian za odszkodowanie lub wizytę na posterunku policji. Keveri jednak nie uwierzyła w całą sytuację i domagała się ponownej rozmowy z córką. Oszust zaczął się śmiać i wiedząc, że próba oszustwa nie dojdzie do skutku – przerwał połączenie.

Ok, nie był to może najlepszy plan cyberprzestępcy i natrafił na czujną obywatelkę, ale sam fakt, że doszło do takiej sytuacji jest bardzo niepokojący. Kaveri opisała całą sytuację na Twitterze i okazało się, że wiele osób miało kontakt z takim oszustwem. Niestety nie wszyscy są czujni i kanciarzom udaje się uzyskać pieniądze.

Klonowanie głosów jest coraz częstszą metodą oszustw w Delphi. I na pewno nie tylko tam

Według policji, 24 października 2023 roku pan Chawla otrzymał wiadomość WhatsApp z nieznanego numeru, twierdząc, że syn jego kuzyna został porwany. Przestępcy odtworzyli nagranie głosowe dziecka, stworzone przy użyciu technologii klonowania głosu, prosząc o pomoc. Spanikowany i oszukany realistycznym głosem, Pan Chawla spełnił wymagania oszustów, wpłacając 50 000 ₹.

W Delphi, w 2023 roku doszło do szeregu oszustw w wykorzystaniem AI i klonowaniu głosu dziecka. Są to wygenerowane wcześniej gotowe wypowiedzi, więc oszuści opracowują scenariusz, aby ofiarom zostało puszczane właśnie takie nagranie. Jednak wcześniej musi dojść do jeszcze jednego oszustwa, czyli kradzieży danych.

Cyberprzestępcy są bardzo dobrze przygotowani – są bogaci w wiedzę na temat zależności rodzinnych, imion i oczywiście – potrafią sklonować dany głos. Jest on niezwykle naturalny, tylko forma wypowiedzi naprowadza ofiary, że są atakowani przez kryminalistów. Nikt nie może czuć się bezpieczny. Bądźmy czujni, tym bardziej, że nowoczesna technologia (a w szczególności AI) szybko się rozwija, a więc metody te mogą być coraz bardziej zaawansowane.

Źródło: News18

Subscribe
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments