в удобном формате
На этой неделе Нобелевский комитет принимает решение отдать премию по физике двум ученым, Джону Хопфилду и Джеффри Хинтону, за открытия, которые помогали компьютерам обучаться так же, как это делает человеческий мозг. По сути, они сформулировали основу для создания искусственного интеллекта. Кстати, многие эксперты сравнивают этот научный прорыв с открытиями в области ядерной реакции. С одной стороны, человечество получает новые возможности и технологии для развития во благо цивилизации, с другой – открывается настоящий ящик Пандоры. Искусственный интеллект уже вовсю используется для совершения самых разных преступлений, раскрывать которые все сложнее хотя бы потому, что неожиданно для себя и помимо собственной воли каждый из нас может стать соучастником. Корреспондент РЕН ТВ Марина Кравцова рассказала о том, почему, например, свой голос теперь стоит беречь не хуже паспорта или кошелька.
Невидимая битва
Бой с тенью и цифровой фактчекинг становятся одной из самых прибыльных отраслей IT, ведь в защите нуждается каждый из нас. Одни нейросети помогают искать фальшивки, созданные другими. Невидимая битва, которая лишь набирает обороты.
Евгения и подумать не могла, что станет жертвой собственного телефона. Мошенники взломали ее мессенджеры, создали цифровую копию голоса и с помощью фейковых аудиосообщений стали выманивать деньги у близких.
"Голос правда очень сильно похож. Одна подруга поверила и перечислила им 30 тысяч", – сообщила пострадавшая Евгения Орлова.
"10 секунд аудиозаписей, десятки нейросетевых моделей, которые способны зафиксировать нашу гистограмму и на основе этой гистограммы уже в дальнейшем другому человеку позволять говорить нашим голосом", – сообщил общественный деятель и руководитель компании расследований Игорь Бедеров.
Проверяем, как это работает. Записываем небольшой ролик с бессмысленным текстом. Дальше отправляем его специалистам по нейросетям.
Технологии на шаг впереди
Дипфейки несут не только финансовые риски, но и финансовые и корпоративные. Разработчики из "Сколково" готовятся презентовать систему, которую смогут использовать не только банки и госструктуры, но и обычные пользователи. В основе передовой мультимодальный алгоритм, который способен с высокой точностью выявлять цифровые подделки.
"Мультимодальный трансформер может обобщить физику реального мира, понять, что такое 3D-объект. Если на видео изменится походка, еще что-то, такая более мощная система сможет это выявить", – сообщил основатель и технический директор IT-компании Антон Борисенко.
Одна из главных сложностей – технологии создания дипфейков всегда на шаг впереди. Существующие алгоритмы постоянно модернизируются, создаются новые.
Цифровой клон актрисы Валерии Ланской пытался нажиться на звездах российского театра и кино.
"Умные люди перезванивали и спрашивали напрямую: "Лера, правда тебе нужна помощь?". Это самое правильное действие – позвонить напрямую и узнать, правда ли то, что я написала, наговорила", – заявила Валерия Ланская.
Как определить дипфейки
Пока качественную подделку могут выявить только опытные спецы по кибербезопасности. В этот экспертный центр Следственного комитета России обычно не пускают журналистов. Подлинность речи здесь могут определить до микротона.
"Если отдельные звуки взять, они могут быть похожи, но, если взять целиком картинку, она уже будет отличаться. Как человек говорит, как он произносит конкретные звуки, какие у него паузы, заикается он, шепелявит", – объяснил старший эксперт отдела фоноскопических и лингвистических исследований СЭЦ Следственного комитета России Александр Бакин.
И это наше главное отличие. У нейросетей идеальная дикция и мелодичность речи. В разговоре мы чаще делаем паузы и меняем громкость, чем искусственный интеллект. А некоторые слоги мы не произносим чисто физически: гортань человека не способна передавать все звуки, которые может воспроизвести нейросеть.
Но именно в режиме реального времени цифровой фактчекинг возможен.
"Попросить его так вот помотать головой, поднять правую руку, поднять левую руку, нейросеть не успеет отреагировать на данный алгоритм, это будет выглядеть максимально неестественно", – отметил заместитель директора института высокотехнологичного права НИУ МИЭТ Генрих Девяткин.
Чтобы определить видео, которое было синтезировано, а не снято, придется присматриваться к каждому кадру: неестественные блики объектива, издаваемые звуки не соответствуют движению губ и даже отражение в глазах – нейросети не всегда сохраняют картинку на радужной оболочке человека.
ИИ как инструмент политических манипуляций
Цифровые технологии становится инструментом и для масштабных политических манипуляций.
"Так, скоро по соцсетям могут поползти видео, где весь Голливуд переметнулся на сторону республиканцев и во главе с Джулией Робертс выходит к Капитолию, скандируя своими известными голосами: "Трамп – лучший президент". Или того хуже, Камала Харрис будет раздавать печеньки на митинге против мигрантов, заявляя: "Мы тоже построим стену", – сообщила корреспондент.
И создать, например, убегающего от полиции Трампа сегодня может любой желающий.
"Раньше вам приходилось писать кодом, загружать отдельно файлы, прописывать какой-то алгоритм, сейчас же это все сконцентрировано на определенных платформах", – рассказал IT-специалист Илья Малахов.
Голосом Алены Андроновой теперь озвучивают порноролики и рекламу казино, и сама теперь не может отличить компьютерного клона от собственной речи.
"И сейчас уже даже мне гораздо тяжелее сказать, что это синтез, а не я, и в целом все новые синтезы все больше и больше похожи на людей, и они уже даже умеют дышать между репликами", – пояснила Андронова.
Профессиональные студии уже маркируют сгенерированные записи.
"Вся озвучка, которая получается в результате нейроозвучивания, этого синтеза, она маркирована, это скрытые вотемарки. На слух это невозможно определить, но при анализе можно понять", – объяснил генеральный директор студии локализации аудиовизуального контента Валерий Довбня.
Количество дипфейков в соцсетях увеличивается на 400 процентов каждый год. Наиболее сложными для распознавания остаются системы синтеза речи, поэтому самый действенный способ защиты – проверять все, что вызывает сомнение.