По мнению исследователей, сегодня нет реальных доказательств того, что какое-то выражение лица раскрывает истинные эмоции человека. Но крупные ИТ-гиганты хотят, чтобы Вы думали иначе. Ибо государство и бизнес готовы за эту технологию хорошо платить.
Сегодня инструменты распознавания эмоций можно найти в аэропортах, образовательных учреждениях, в ПО для выявления психических заболеваний и системах полиции. Однако утверждение о том, что внутреннее состояние человека можно точно оценить, проанализировав его лицо, основано на сомнительных доказательствах.
В 2019 г. психолог и нейробиолог Лиза Фельдман Барретт, показала, что нет реальных доказательств того, как можно точно предсказать эмоциональное состояние человека с помощью умных алгоритмов.
Более того, в области изучения человеческих эмоций исследователи до сих пор не пришли к единому мнению о том, что на самом деле представляет собой эмоция. Что такое эмоции, как они формулируются и выражаются внутри нас, какими могут быть их физиологические или нейробиологические функции, их отношение к стимулам - все это остается не изученным.
Почему же тогда идея о существовании набора универсальных эмоций, легко считываемых с лица человека, стала настолько востребованной для автоматизации при помощи искусственного интеллекта (ИИ)?
Чтобы понять это, необходимо проследить сложную историю и стимулы, лежащие в основе развития этих идей, задолго до того, как инструменты обнаружения эмоций ИИ были встроены в инфраструктуру повседневной жизни.
Идея распознавания эмоций, или чтения по лицу волнует умы человечества ещё с античности и начала набирать обороты ещё в 17-18 веке. В 19 веке уже появляются какие-то выстроенные теории, а с 60-х годов 20 века уже государства готовы вкладывать огромные деньги в исследования по рассматриваемому предмету. Так что для ученых и различных коммерческих структур распознавание эмоций сулит хорошие прибыли. ИТ-компании уже собрали огромные объемы фото человеческих эмоций среди ваших селфи в Instagram, фото в Pinterest, видео TikTok и фотографий Flickr. Как и распознавание лиц, распознавание эмоций стало частью базовой инфраструктуры многих платформ,в т.ч. стартапов.
В то время как технология распознавание лица идентифицирует человека, распознавание эмоций направлено на обнаружение и классификацию эмоций путем анализа любого лица. Эти системы уже влияют на поведение людей и функционирование социальных институтов, несмотря на отсутствие серьезных научных доказательств того, что они работают. В настоящее время широко используются автоматизированные системы обнаружения аффектов, особенно при приеме на работу.
Например, некая компания HireVue, клиентами которой являются такие монстры как Goldman Sachs, Intel и Unilever ещё в 2014 запустила систему на ИИ которая сравнивала кандидата по мимике лица, тону голоса и другим аналогичным параметрам с лучшими сотрудниками компании. После критики со стороны ученых и правозащитников, в 2021 году они отказались от анализа лиц, но сохранили голосовой тон в качестве критерия оценки. В январе 2016 года Apple приобрела стартап Emotient, который утверждал, что производит программное обеспечение, способное определять эмоции по фотографии лица. Возможно, крупнейшим из таких фирм является Affectiva, базирующаяся в Бостоне и выросшая из академической среды Массачусетского технологического института (MIT). Affectiva создала множество компьютерных программ, связанных с распознаванием человеческих эмоций, в основном с использованием методов глубокого обучения. Алгоритмы распознают отвлеченных и «рискованных» водителей на дорогах, измеряют эмоциональную реакцию потребителей на рекламу. Компания создала то, что она называет крупнейшей в мире базой данных эмоций, состоящей из более чем 10 миллионов выражений лица людей из 87 стран. К слову, все эти 10 миллионов фоток разметили вручную операторы из стран третьего мира.
Опасность автоматического распознавания эмоций состоит в том, что подобные инструменты могут вернуть нас в средневековое прошлое, когда ложные утверждения использовались для поддержки существующего порядка вещей. Десятилетия научных споров по поводу последовательного вывода эмоциональных состояний по лицу человека подчеркивают ключевой момент: универсальные алгоритмы - неправильный подход. Эмоции сложны, они развиваются и изменяются в зависимости от нашей культуры и истории - всех разнообразных контекстов, которые существуют вне рамок ИИ.
Но уже сейчас кандидатов на вакансию оценивают несправедливо, потому что их выражение лица или голосовой тон не соответствуют таковым у других сотрудников. Школьников записывают в хулиганы, потому что их лица выглядят сердитыми, а покупателей в магазинах обыскивают, потому что их облик указывают на то, что они могут быть ворами.
И поделать с этим скорее всего будет ничего нельзя до тех пор, пока сам по себе человек не перестанет быть объектом эксплуатации в самых широких смыслах и видеть друг в друге врага или конкурента за место под солнцем.
Источник