Роботы и обучение

Oct 08, 2015 04:39

Основные успехи deep learning на текущий момент получены в так называемом supervised learning setting - то есть, модель обучается на наборе сэмплов, которые помечены какими-то метками, и учится предсказывать эти метки. Это может быть "объект, который находится на картинке", "следующее слово/символ в тексте", итд итп.

Отсюда возникает проблема создания большого размеченного датасета - для успешного обучения он должен быть огромный, а значит и затраты на его разметку тоже большие.

Одна из притягательных идей автоматизации этого процесса - сделать так, чтобы датасет пополнялся сам в результате взаимодействия с внешним миром (близкий термин - reinforcement learning). Один из ярких примеров - Deepmind, который был куплен Гуглом за пол-ярда долларов.

Еще более естественно - сделать робота, который двигается и пробует что-то сделать в мире, записывает результат, и таким образом генерирует себе данные для обучения. Если бы получилось, то можно просто выпускать робота в мир, он через какое-то время научится делать то что надо, это можно легко скопировать в большое количество роботов - счастье.

Идея крайне не нова и, я так понимаю, большинство попыток фейлилось на этапе "вообще сделать нормального робота".
Но вот постепенно улучшаются и алгоритмы обучения, и все больше появляется доступных хороших роботов, так что ждем, надеемся.
Ниже пара примеров из недавнего.

http://public.closedcircles.com/posts/robots-and-computer-vision

data

Previous post Next post
Up