Как ИИ сделал из украинки россиянку и использовал ее для рекламы России в Китае

May 15, 2024 16:08

«Я увидела свое лицо».

Это сокращенный пересказ репортажа, опубликованного на англоязычном сайте Би-би-си

«Не хочу, чтобы кто-то подумал, что я могла говорить такие ужасные вещи. Как они только могли использовать лицо украинки для рекламы России? Это просто абсурд», - говорит Ольга Лоек, 21-летняя студентка из Украины, которая учится в Университете Пенсильвании в США.

Некоторое время назад она обнаружила, что ее лицо было использовано во множестве роликов в китайских социальных сетях. Это было сделано при помощи доступных в онлайне инструментов, генерирующих видео при помощи искусственного интеллекта.

«Я увидела свое лицо, услышала свой голос. Но для меня все это было крайне мерзко, потому что в мои уста вложили слова, которых я никогда не говорила», - рассказала Ольга в интервью Би-би-си.

На аккаунтах, которые публиковали такие видео, девушке давали разные имена - ее называли то Софией, то Наташей, то Эйприл, то Стейси. Все эти персонажи говорили на севернокитайском языке (или мандаринском), который Ольга совершенно не знает. Но самое главное - все они якобы были россиянками, хвалили российско-китайскую дружбу или рекламировали российские товары.

«Я поняла, что в примерно 90% этих видео шла речь о Китае и России, о дружбе между этими двумя странами, о том, что им нужно быть надежными союзниками. И еще там рекламировали пищевые продукты», - говорит Ольга.

Один из самых популярных аккаунтов назывался «Импортная еда от Наташи»: на него подписано более 300 тыс. пользователей. В числе прочего ведущая канала «Наташа» говорит примерно следующее: «Россия - это лучшая страна в мире. Грустно, что другие страны отворачиваются от России. Российские женщины хотят приехать в Китай». А затем начинает рекламировать российские сладости.

Для Ольги это было особенно оскорбительно, поскольку ее семья живет в Украине - и она всячески поддерживает свою страну, противостоящую полномасштабному вторжению российских войск.

Как такое стало возможным?
Говорящие по-китайски «клоны» Ольги начали появляться в 2023 году, вскоре после того, как украинка создала свой канал в YouTube (она обновляла его не очень часто). Примерно через месяц после появления канала ей начали писать различные люди, которые говорили, что увидели ее в китайских социальных сетях.

Когда Ольга решила выяснить, о чем идет речь, оказалось, что ее изображение, созданное при помощи ИИ, фигурирует в множестве роликов на платформе Xiaohongshu (с севернокитайского языка ее название переводится как «Маленькая красная книга», сайт часто называют китайским аналогом инстаграма), а также в Bilibili - аналоге YouTube.

«Таких аккаунтов оказалось очень много. На некоторых в биографии были российские флаги», - рассказывает Ольга. В общей сложности она обнаружила, что ее лицо используют 35 различных аккаунтов.

Ответ на вопрос, как это стало возможным, Ольга получила после того, как о ситуации написал в соцсетях ее жених. На его пост ответила компания HeyGen - основанный в Китае стартап, который сейчас работает в США и разрабатывает программное обеспечение для создания «аватаров» при помощи искусственного интеллекта.

В HeyGen рассказали, что с использованием ее лица было сгенерировано более 4,9 тыс. видео. И добавили, что теперь это сделать будет невозможно, поскольку компания блокирует новые ролики на основе ее изображения.

Официальный представитель HeyGen сообщил Би-би-си, что системы компании были взломаны для производства, как он выразился, «несанкционированного контента». По его данным, протоколы безопасности и верификации пользователей в фирме были немедленно обновлены, чтобы предотвратить подобные злоупотребления в будущем.

Партийная линия
Однако Анжела Чжан из Университета Гонконга говорит, что произошедшее с Ольгой «очень типично для Китая». В этой стране «есть огромный подпольный бизнес, который занимается подделкой и незаконным использованием личных данных, а также производством дипфейков», говорит эксперт.

И это несмотря на то, что Китай стал одним из первых государств в мире, которые пытаются регулировать использование ИИ в различных областях. Власти даже внесли специальные изменения в законы, чтобы предотвратить использование лиц людей без их согласия.

По данным китайских правоохранительных органов, в 2023 году за создание видеороликов с «чужими» лицами были арестованы 515 человек. Некоторые такие дела рассматривались в китайских судах.

Но случай Ольги может быть несколько иным, поскольку ролики с ее лицом были направлены на укрепление дружбы России и Китая - идею, которая пользуется всемерной поддержкой официального Пекина.

«Неясно, было ли появление этих аккаунтов скоординировано для поддержки определенной политики, но тот факт, что все они придерживаются официальной правительственной линии, несомненно им помогает», - считает Эмми Хайн, ученая из Университета Болоньи и Лёвенского католического университета.

«Даже если эти аккаунты и не имеют прямой связи с Коммунистической партией Китая, они продвигают ее нарративы - и в силу этого намного менее вероятно, что их посты будут удаляться», - считает эксперт.

Впрочем, неожиданно найти свое лицо в сгенерированных искусственным интеллектом видео можно не только в Китае.

Подобные незаконные ролики появляются по всему миру - и недавно Европейский парламент принял специальный закон об ИИ, призванный ограничить риски использования этой технологии. В прошлом году президент США Джо Байден подписал указ, согласно которому разработчики ИИ обязаны давать властям доступ к своим данным.

Ольга «на 100% уверена», что не станет последней жертвой незаконного использования искусственного интеллекта.

Однако она настаивает, что этот случай не заставит ее полностью уйти из интернета. Украинка рассказала о произошедшем в своем канале на YouTube - и многие из роликов с использованием ее лица уже удалены.

«Я хотела, чтобы о моей истории узнали люди. Чтобы люди понимали: не все, что появляется в онлайне, - это реальность. Я люблю делиться своими идеями с миром, и все эти мошенники не смогут мне помешать», - заключает Ольга.

ИИ, Китай, Украина

Previous post Next post
Up