Следи за собой, будь осторожен

Apr 24, 2019 17:02

Бельгийские исследователи придумали интересную схему, позволяющую обманывать камеры автоматического наблюдения и распознавания лиц и предметов. Сегодня существует несколько стандартных алгоритмов по распознаванию образов, основанных на работе нейросетей. Нейросеть наблюдает за картинкой или потоком видео и, например, обводит распознанный предмет рамкой, показывая его название и процент уверенности алгоритма в данном определении. Происходит это в процессе обучения нейросети, чем больше разных вариантов изображений она обработает, тем более уверенно сможет распознавать всевозможные типы объектов и их конфигурации.

Бельгийцы использовали тот же подход, только развернули его наоборот. Они взяли один из самых популярных алгоритмов по распознаванию образов YOLOv2, и стали добавлять в изображения распознанных людей случайные (псевдослучайные, конечно) помехи, пытаясь добиться такого исхода, чтобы нейросеть перестала определять данный объект как человека. При этом шел обратный процесс антиобучения, то есть разучения алгоритма таким образом, чтобы данная помеха была минимальной, компактной и по возможности не очень сложной для воспроизведения в реальности.



Короче говоря, они добились того, что при помощи картонки размерами 40х40см, содержащего некую абстрактную картину, алгоритм перестает распознавать человека в видеопотоке.




Исследование оформлено в виде научной статьи и доступно на сайте препринтов arxiv.org

Вангую дикий бум спроса на футболки с такими картинками в ближайшие пару лет, особенно когда власти начнут их запрещать. А то вы видели, что в Китае творится?



интернет, будущее сейчас

Previous post Next post
Up