Вот тут можно установить слайдеры (от "кошачьи уши" и "нижнее бельё" до "чёрный фон" и "Сузумия Харухи") по вкусу, а затем нажатием кнопочки сгенерировать себе иконку уникального аниме-персонажа:
https://mattya.github.io/chainer-DCGAN/ (надеюсь, там сайт не упадёт -- все ведь сейчас туда кинутся!).
Вот такую
, или такую
. По положению всей сотни слайдеров они не сильно отличаются -- я там только поменял параметр "колдовская шляпа" и цвет волос и глаз на зелёный.
Это означает, что нейронная сетка не только разобралась с "морфологией японской визуальной сказки", но и может такие визуальные сказки генерить. Привет Проппу, в том числе его ненаписанным работам по визуальному нарративу. Привет также всем преподавателям художественного слова, краски и пляски. Привет и всем ученикам этих преподавателей.
Итак, генератор персонажа и фона к нему работает. Что дальше?
На следующем этапе нужно будет для вашей манги написать кратенький сюжет и задать число страниц. Можно сразу делать в цвете, всё одно не тушью рисунок. Это ведь просто обратная задача написания рассказа по видео, а такая задача уже потихоньку решается: Expressing an Image Stream with a Sequence of Natural Sentences,
http://gitxiv.com/posts/BckBiSmntPd2aQ6o4/expressing-an-image-stream-with-a-sequence-of-natural. Там взяли картинки из блогов, натренировали на них сетку, а потом попросили сетку писать текст по произвольно подобранным картинкам.
Можно делать и сразу аниме, почему бы и видео не сгенерировать?!
Юмор там тоже будет "слайдером", визуальный юмор ведь отлично выучивается -- см., например, из свеженького We Are Humor Beings: Understanding and Predicting Visual Humor,
http://arxiv.org/abs/1512.04407 Конечно, на литературную премию это не потянет ещё лет пять, так и я дома на пианинке когда играю -- явно не Рихтер. Технологиям этим всего пара-тройка месяцев, совершенствоваться-учиться эти технологии будут IMHO со скоростью человека (это у меня такая странная догадка, из общих соображений). То есть, если сегодня эти каля-маля и тексты как у семилетнего ребёнка, то в следующем году это будет как у восьмилетки, а через пять лет -- как у отрока в 12 лет. Через десять лет это будет творчество 17-летнего, причём такого, который усидчиво рисовал (писал рассказы, плясал и т.д.) с пяти лет. Поконкурируйте с таким!
Это всё цветочки пока. Например, автоматически раскрасить старый фильм (подглядев цвета предметов и одежды в окружающем мире,
https://youtu.be/_MJU8VK2PI4):
Click to view
Это вот --
http://tinyclouds.org/colorize/ Я боюсь, что большинство людей сегодня не понимают некоторых простых вещей об этих новых технологиях:
1. Чуйку человеческую моделировать оказалось легко, если не требовать дальше согласования выводов этой чуйки с законами физики, химии, экономики и т.д.. То есть гуманитария получить из нейронной сетки -- это раз плюнуть. С логикой и научной картиной мира, добавленной к "гуманитарщине" пока сложности, это в полной мере будет чуть попозже, через десяток лет. Так что инженерия, химия и физика будут автоматизироваться медленнее, чем рисование картинок или подбор правильных шрифтов.
2. Машинное обучение оказалось не слишком капиталоёмким. Никаких миллиардов долларов на закупку оборудования не нужно, хотя суперкомпьютеры бы не помешали. Но и $1000 на GPU позволяет получать результаты. Алгоритмы всё более и более доступны (например, библиотека, на которой сделан генератор персонажей, свободно лежит тут:
http://chainer.org/). Хотя профи в этой области уже дорогие, а новых людей учить-кормить нужно некоторое время и это тоже дорого. Но не дороже, чем в каких-нибудь блокчейнах. При этом приток новых кадров огромный, может даже побольше, чем в тех же блокчейнах. Я даже не могу себе представить, сколько любителей аниме и манги захотят освоить технологии машинного обучения после того, как увидят демонстрашку генерации персонажей и захотят "просто повторить", а затем "чуть-чуть улучшить".
3. Полученный вечером результат утром становится доступным через сеть всему миру, а вечером все, кому надо, его уже нагуглят. Структура хобби и структура занятости в сфере "гуманитарщиков" будет меняться быстрее, чем можно ожидать по темпам изменений последних пяти лет. Ах, и ещё нужно отметить, что контроль качества работы будет сильно "объективизирован" -- это ж элементарно выучить, что разные целевые аудитории будут лайкать. Качество компьютерного state-of-the-art будет довольно быстро расти, а человеческого остаётся более-менее постоянным. Можно будет строить графики исчезновения потребности во всяких "оформителях" и "криэйторах" -- оставаться-то на рынке будут только такие из них, у которых уровень профессионализма которых будет ниже потихоньку растущего звёздного, но выше быстро растущего компьютерного. Всё будет очень быстро, много быстрее, чем чем приходил интернет и мобильная телефония.
4. Потихоньку будет исчезать даже понятие "целевой аудитории", останутся отдельные люди -- компьютерам ведь не нужно будет целиться в "среднюю температуру по больнице" целевой аудитории. Точно так же, как вы получите сегодня своего уникального аниме-персонажа, сгенерированного по первой ссылке, точно так же гуманитарная продукция будет генерироваться и отгружаться целевому вам любимому (или целевой вам любимой. Компьютер-гуманитарщик обязательно разберётся и в различиях пола-гендера, и в предпочтениях по цветовой гамме и даже сколько процентов слов заменять на их матерные эквиваленты, чтобы вам понравилось). Всё, что вы пишете, будет изучаться (попробуйте, кстати, свеженький сервис от IBM -- психологические оценки ваших текстов:
https://watson-pi-demo.mybluemix.net/ -- пока тексты должны быть только на английском или испанском, но лиха беда начало! Зато в текстах вычислят и характеристики Personality, и Consumer needs, и Values. А вот тут твиты использовали, чтобы узнать реакцию зрителей на новый эпиздод "Звёздных войн". Реакция оказалась в целом положительная --
http://habrahabr.ru/company/dca/blog/274027/, но нам-то нужны индивидуальные реакции! И они там вполне автоматически вычисляются). А всё изученное будет использовано, чтобы угодить лично вам, ибо компьютерная "гуманитарщина" будет стоить копейки -- хоть художественная проза, хоть философские эссе, хоть аниме вкупе с мангой, хоть голые женщины или мужчины (самые разные параметры которых даже в порнофильмах вам аккуратненько подстроят под ваш вкус -- включая эмоции. Вот, эмоции режиссёры уже могут накладывать после съемок:
https://www.disneyresearch.com/publication/facedirector/. Дальше эти эмоции будут накладывать не режиссёры, а сами компьютеры -- да ещё и в реальном времени, отслеживая вашу реакцию в ходе просмотра и подстраиваясь под ваш вкус).
UPDATE: вот ещё одна игрушка -- сочинение стихов по картине,
https://github.com/rossgoodwin/neuralsnap и ещё одна -- обзор по переносу художественных стилей (Artificial Startup Style):
https://medium.com/data-engineering/artificial-startup-style-437f6090b1f7#.15m84u1qq, и даже генерация политических речей для заданной партии --
http://arxiv.org/abs/1601.03313