Телефонный звонок, на том конце провода родная тетя Александра Кабирова. Женщина взволнованно сообщила, что поцарапала чужой автомобиль, ей нужно срочно выслать 60 тысяч рублей. На самом деле это звонили мошенники. Используя технологию deep fake, они просто изменили речь, подменили голос близкого человека. Вышло максимально похоже.
"Вначале я поверил. Я, конечно, без проблем выслал бы деньги, причем номер карты она готова была прислать, но в какой-то момент я понимаю, что где-то нестыковка, почему не вызвать ГАИ. После того как я сказал, что я вышлю на ее номер карты, она сказала нет, на их карту сразу, причем настойчиво, я сразу понял, что что-то тут не так", – рассказал Александр Кабиров.
С развитием нейросетей, которые и берут на себя всю работу по подмене голоса или даже видеоизображения, у мошенников появился мощный инструмент для обмана жертвы. В Госдуме даже решили внести изменения в Уголовный кодекс – использование технологии deep fake предлагают приравнять к отягчающим обстоятельствам. Тогда преступники получат максимальное наказание, хотя все зависит от обстоятельств.
"Тут важна квалификация самого факта события: если розыгрыш безобидный, не нанес удар по чести и достоинства и деловой репутации человека. Если с помощью данного розыгрыша у граждан не вымогают деньги, не пытаются путем обмана похитить его имущество, приравнять данный дипфейк к уголовно правовому нарушению будет достаточно сложно", – рассказал юрист Никита Кулачкин.
Наши журналисты обратились к специалисту по кибербезопасности, чтобы разобраться, как рождаются дипфейки.
"Самое главное – рот, глаза, нос. Это те части, которые легко определять и которые часто двигаются", – рассказал специалист.
Чаще всего подделывают голос, это проще всего, хотя современная техника позволяет работать и с видео. Это требует больше ресурсов, поэтому для того, чтобы выдать себя за другого человека, нужна подготовка.
"Сейчас, насколько известно, мошенники заранее подготавливают эти видео. Условно говоря, за день снимают разные варианты, как эта история в какую сторону может передвинуться, снимают несколько вариантов видео, все это отдают нейросетке, та уже работает и выдает несколько вариантов", – расcказал специалист по кибербезопасности Роберт Симонян.