Эпоха синтетических медиа: кого бояться на самом деле

Oct 03, 2022 20:48


На прошлой неделе Meta* продемонстрировала Make-a-Video, инструмент, который создает пятисекундные видеоролики на основе текстовых подсказок. На данный момент это всего лишь исследовательский проект, недоступный широкой публике, но эксперты по машинному обучению назвали его многообещающей разработкой. Но самая важная новость в области ИИ на прошлой неделе - о том, что OpenAI сделала DALL-E, генератор преобразования текста в изображение, доступным для всех.





Исследователи обеспокоены тем, что эти системы создают изображения, которые могут причинить вред, такой как усиление расовых и гендерных стереотипов или плагиат художников, чьи работы были использованы без их согласия. Исторически так сложилось, что люди доверяют тому, что они видят, рассказал Ваэль Абд-Альмагид, профессор инженерной школы Университета Южной Калифорнии: «Как только грань между правдой и фальшивкой будет стерта, все станет фальшивым».

У OpenAI правила гораздо строже, чем вы могли бы найти в таких инструментах для творчества, как Photoshop: они ограничивают использование DALL-E при изображении реальных людей, комментировании политики. Сервис построен на фиксированном наборе изображений; проще говоря, OpenAI знает все, что в нем есть. И несмотря на ограничения, справедливо назвать DALL-E хитом: 1,5 миллиона пользователей сейчас генерируют 2 миллиона изображений в день.

Но DALL-E - не единственная инструмент. Craiyon, Midjourney и Stable Diffusion также появились в последние месяцы с обещаниями более широкого доступа к общественности и меньшим количеством правил. На Midjourney были созданы материалы о стрельбе в школе, крови и сексуальном насилии над детьми, хотя его генеральный директор назвал такие инциденты редкими.

Некоторые из самых больших неприятностей, которые до сих пор причинял ИИ, исходили от людей, которые использовали его для создания дипфейк-порно. Люди тоже делают много ужасных вещей в Photoshop; по большей части стандарты компании не допускают этого в мейнстрим. Несмотря на относительно широкий доступ и большое внимание СМИ, эти инструменты до сих пор, по-видимому, не использовались успешно в кампаниях по дезинформации. Одна из причин заключается в том, что изображения в большинстве случаев недостаточно хороши, чтобы сойти за подлинные - лица имеют очевидные искажения, объекты перетекают друг в друга и так далее. Другое, однако, заключается в том, что у людей, которые хотят распространять дезинформацию, как правило, есть более простые и эффективные альтернативы.

На самом деле, воздействие синтетического текста может быть значительно больше, чем воздействие синтетических изображений. Возможно, вы слышали о GPT-3, генераторе синтетического текста от OpenAI (как и DALL-E, он также теперь доступен для всех, кто хочет его попробовать.) Количество задач, которые он уже может выполнять, даже в бета-версии, впечатляет. Он может обобщать заметки о встречах, писать обзоры для ресторанов, создавать рецепты, генерировать учебные материалы, писать страшилки и предлагать вопросы для интервью.

Исследователи определили вероятность того, что текстовые генераторы будут использоваться, среди прочего, для:

- спама всех видов;

- изощренных фишинговых атак;

- кампаний, предназначенных для распространения мистификаций;

- жульничества в академических кругах.

В среде, которая и без того напряжена из-за низкого доверия к институтам и между отдельными людьми, распространение синтетического текста грозит найти целый ряд новых переломных моментов. Картинка все еще может стоить тысячи слов, но когда искусственный интеллект сможет генерировать бесконечное количество слов и делать это бесконечно, мы можем обнаружить, что самые большие проблемы, связанные с синтетическими медиа, возникают не из-за картинок, а из-за слов ©️

* Meta признана в России экстремистской организацией
Previous post Next post
Up