Инстинктивная цензура

Jun 28, 2022 13:24


Как и во многих других странах, в Китае запрещена порнография. Партия считает это явление недостойным для морального облика настоящего коммуниста. Периодически - во время очередных обострений политической кампанейщины - Партия обрушивает на порноконтент всё новые меры борьбы.



Идеальной средой для порнографии является интернет, и со второй половины 2010-ых именно на этом поле китайские власти сосредотачивают основные усилия. Основная работа здесь ложится на плечи цензоров. Раньше они были государственными и состояли на службе в министерстве внутренних дел. Сейчас, с развитием социальных медиа, Партия всё больше аутсорсит эту «черную работу» самим платформам.

По международным меркам, в такой цензуре нет ничего необычного. Тот же «Фейсбук» в своё время развернул весьма масштабные центры по фильтрации нежелательного контента. Разница с Китаем была в том, что они пошли дальше по пути аутсорсинга и нанимали за копейки дешевую рабочую силу из стран третьего мира - Марокко, Филиппин и т. п. Благо в этих местах о правах трудящихся никто не беспокоился, и можно было не бояться проблем из-за того, что так называемые «контент-модераторы» часами напролет бомбардируются порнографией и насилием.

Начиная с 2015 года, нейросети стали демонстрировать большие практические успехи в автоматическом определении порнографии. Казалось бы, можно отказаться от «грязной» работы контент-модераторов? Увы, пример «Фейсбука» показывает, что потребность в человеческом надзоре за неподобающим контентом только растет. В середине 2017 на компанию работало 4,5 тысячи цензоров. В начале 2018 - 7,5 тысяч В 2021 - 15 тысяч.



Рост штата цензоров на фоне развивающихся технологий можно объяснить тем, что социальная сеть всё больше и больше ужесточала правила поведения на платформе и всё тщательнее следила за их исполнением. Если с определением порнографии алгоритмы справляются более-менее сносно, то риторика ненависти - гораздо более тонкая тема. Вероятно, именно на борьбу с ней сейчас уходят основные усилия аппарата цензуры.

Как и положено любой бюрократии, «Фэйсбук» создал и постоянно обновляет целые тома документации по контент-политике, в которой скрупулезно изложены правила модерации. Одной только разработкой этой документации в компании занимаются 60 человек. Принятие решений на основе свода правил - не самая сильная сторона сегодняшних алгоритмов, поэтому без цензоров-людей обойтись трудно.

Вероятно, те же самые предпосылки существуют и в Китае. В стране очень неохотно раскрывают подробности работы своих механизмов цензуры. Но мы можем с уверенностью сказать, что в Китае работает целая индустрия модерации неподобающего контента, размахом превосходящая все западные аналоги.



Профессия цензоров называется «цзянь хуан ши». Почти все они - замужние женщины. Считается, что у женщин более крепкая выдержка и психологическая выносливость. Кроме того, считается, что они более скрупулезны в своей работе.

А работа действительно очень тяжела для психологического благополучия. В день цензору надо просмотреть и оценить 600-800 видео, число фото может доходить до десятков тысяч в день. Зачастую ИТ-платформы создают «потогонные системы» микроменеджмента, грозящие моментальным увольнением за ошибочные решения и не дающие цензору ни на миг оторваться от бесконечного потока обнаженки, расчлененки и прочей мерзости, вылавливаемой на просторах социальных медиа. Контент, который платформы считают опасным для общества, скармливается цензорам в ударных дозах.

Контент не зря считается опасным. Информация по проблемам китайских контент-модераторов скупа, но их западные коллеги повсеместно жалуются на развитие депрессии, тревожности, паранойи, панических атак, посттравматического стрессового расстройства и суицидальных наклонностей - в общем, целого букета хронических психических проблем. Единственным утешением является достаточно высокая зарплата - например, ”Alibaba” предлагала цензорам 1000 юаней ($150) за день работы.



Высокие затраты на персонал побуждают к постоянному поиску технологических решений проблемы модерации. Казалось бы, работа, заключающаяся в непрерывном просмотре сексуальных актов и жестокости - это само по себе антиутопично. Но исследователи из пекинского университета Цзяотун в своей новой разработке умудрились повысить градус антиутопии до предела - так, что Оруэллу и в страшном сне не могло присниться.

Суть их разработки заключается в следующем. На голову цензора надевается шапочка с электродами. Она снимает электроэнцефалограмму (ЭЭГ), которая в режиме реального времени интерепретируется специально обученной нейросетью. Как только на экране перед цензором появляется обнаженка, нейросеть опознает характерные изменения в ЭЭГ и автоматически дает сигнал: контент - непристойный!

Исследователи хвалятся тем, что на «обработку» одного изображения в таком случае требуется только пол-секунды. Цензору не надо совершать никаких действий, никаких кликов: всё предельно автоматизировано. Нужно только смотреть прямо перед собой, на экран.


Это пугающе тесное слияние человека с машиной, в котором человеку отводится самая пассивная и бездумная роль. Система превращает человека в придаток по обработке визуальной информации - обработке, которая не требует от него ни малейшей ментальной работы. От человека нужна только его бессознательная реакция. Все решения примет за него алгоритм.

Трудно представить себе работу, которая бы больше пренебрегала человеческим разумом. И одновременно трудно представить себе работу, которая была бы более деструктивна для человеческой психики. Схема, предложенная инженерами университета Цзяотун, обрушивает на людей бесконечный поток непристойностей, отбирая у них любую возможность контроля своих действий.

Вопросы этики, как всегда, мало кого волнуют - но, к счастью, эффективность разработки даёт ей мало шансов на успех. Схема выглядит очень неудачной: мало того, что в классификации изображений нейросети превзошли человеческий уровень, так еще и интерефейс «мозг-ЭЭГ» отличается удручающе высокими помехами и искажениями.


Авторы разработки заявляют о «точности более 80%» - притом, что в бинарной классификации метрика точности считается неуместной. Для сравнения, в уже далеком 2018 в реальной работе (а не на тренировочном датасете) нейросети «Фейсбука» вылавливали 96% порно-изображений.

Результаты университета Цзяотун выглядят еще менее надежными, если мы учтем, что они были получены на добровольцах мужского пола от 20 до 25 лет - проще говоря, местных студентах. Узкой демографической и социальной группе, совершенно не совпадающая с демографическим профилем китайских «цзянь хуан ши».

Одним словом, идея выглядела бесперспективной, и пока ее бесперспективность подтверждается. Можно разве что выдать исследователям печеньки за вклад в науку по теме всё более изощренного расчеловечивания наемного труда. Впрочем, тема расшифровки мозговой активности в Китае хорошо финансируется. Печенек хватит на всех желающих - так что можно ожидать новых антиутопических креативов.

_______________________________________________________________
Друзья, я начал вести канал в Телеграм: Экономика знаний. Подписывайтесь!

медиа, Китай, технологии

Previous post Next post
Up