Основные успехи deep learning на текущий момент получены в так называемом supervised learning setting - то есть, модель обучается на наборе сэмплов, которые помечены какими-то метками, и учится предсказывать эти метки. Это может быть "объект, который находится на картинке", "следующее слово/символ в тексте", итд итп.
Отсюда возникает проблема создания большого размеченного датасета - для успешного обучения он должен быть огромный, а значит и затраты на его разметку тоже большие.
Одна из притягательных идей автоматизации этого процесса - сделать так, чтобы датасет пополнялся сам в результате взаимодействия с внешним миром (близкий термин - reinforcement learning). Один из ярких примеров -
Deepmind, который был куплен Гуглом за пол-ярда долларов.
Еще более естественно - сделать робота, который двигается и пробует что-то сделать в мире, записывает результат, и таким образом генерирует себе данные для обучения. Если бы получилось, то можно просто выпускать робота в мир, он через какое-то время научится делать то что надо, это можно легко скопировать в большое количество роботов - счастье.
Идея крайне не нова и, я так понимаю, большинство попыток фейлилось на этапе "вообще сделать нормального робота".
Но вот постепенно улучшаются и алгоритмы обучения, и все больше появляется доступных хороших роботов, так что ждем, надеемся.
Ниже пара примеров из недавнего.
http://public.closedcircles.com/posts/robots-and-computer-vision