Мошенники научили искусственный интеллект притворяться родственниками жертв, чтобы выманивать у них деньги.
Поделиться
Мошенники научились имитировать голоса родственников жертв
Мошенники научились имитировать голоса родственников жертв
"Известия"пишут, что для этого киберпреступники получают образцы голоса и манеры речи тех, кого намерены скопировать. Например, скачивают видео с личных страничек пользователей соцсетей. Или могут просто позвонить якобы с целью рекламы и записать голос на диктофон. После этого нейросеть создает новые фразы, якобы человек попал в беду и ему срочно нужны деньги.
В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями. Но на удочку аферистов, использующих и психологические приемы, может попасться кто угодно.