Лекция об ИИ и нейросетях

Jan 07, 2019 00:55


Нейросети - новая и интересная для меня тема. Поэтому когда я увидел анонс открытой лекции на эту тему, решил непременно сходить.





Полностью лекция называлась «Технологии искусственного интеллекта через призму новостных заголовков». Новостные заголовки здесь упомянуты в том контексте, что вокруг ИИ много слухов и домыслов, а журналисты лишь добавляют масла в огонь, специально составляя желтушные заголовки.

Мероприятие состоялось в «Центре Современной Культуры Смена». Оказалось отличное место как по интерьеру, так и по идее. Внутри лекционный зал, книжный магазин, кофейня, выставочный зал. В стенах заведения проводятся различные культурные мероприятия с частотой несколько штук в день. По крайней мере в первую неделю января так и было)

И про саму лекцию.



Началась она с разбора терминов, затем небольшого погружения в нейросети и сравнения новостных заголовков с реальным положением дел.



Вот несколько интересных моментов, которые я для себя отметил.

Уже есть рабочие варианты для зачитывания голоса с человеческой интонацией. Нам включали аудио, искусственный голос отличался от настоящего лишь чуть-чуть.

Есть готовые наработки для переноса мимики с актёра на заданного человека (ну или наоборот). В качестве примера показали видео, где Обама плохими словами отзывается о Трампе. Из минусов: голос остался актёрский. Но видеоряд неотличим от реальности.

Технология распознавания лиц порождает этические проблемы. Например, при разных настройках будут либо ложные срабатывания на фото приматов, либо не будет срабатываний на фото африканцев. Естественно, африканцев это обижает.

У азиатов тоже не всё гладко. Нейросети различает их лица хуже. К тому же в их шоу-бизнесе сейчас мода на одинаковость, реализующуюся с помощью пластики лица.



В некоторых случаях случаются казусы с лицами знаменитостей. Так, например, в Китае камеры выписывают штрафы пешеходам, переходящим на красный. Нам показали скриншот, где камера запечатлела автобус на зебре, а на нем реклама с звездой. Ей пришел штраф)

Нейросети уже сейчас умеют генерировать лица несуществующих людей. Нам показывали примеры - люди неотличимы от реальных, хотя их не существует в природе. Но бывают и ошибки генерации: глаза разного цвета, наличие щетины у женщин и прочие несостыковки.

Предполагается, что 2019 год станет последним годом для использования фото и видео в качестве доказательств. В дальнейшем их будет недостаточно из-за лёгкости фальсификации.

Использование нейросетей со злым умыслом: генерация фото и видео сюжетов с вымышленными персонажами или с реально существующими известными людьми.

Многие работы, требующие ранжирования или определения факта, будут со временем передаваться от людей к ИИ. Из уже существующих примеров: определение нарушения скорости, проезд на красный, поиск фото с людьми, определение туберкулёза по снимку.

Один из стартапов, написавший ИИ для поиска человека по фото в итоге был переформирован и начал тесное сотрудничество с МВД. Статистика: для каждой фотографии показывалось 20 двойников, в 75% случаев один из них и был искомым человеком.

Особенности реализации нейросети в медицине: не всегда нейросеть может выдать более точный результат по сравнению с врачом, но при этом она выдаёт его точно быстрее. В некоторых случаях скорость критична.

Как ИИ может коснуться «простого человека»: с вами может связаться несуществующий человек, обладающий уникальным голосом и внешностью. С вами могут сделать фото и видео, неотличимое от реального - да хоть порно. Почти невозможно будет опровергнуть.

мастер-класс, образование, казань

Previous post Next post
Up