lytdybr

May 27, 2016 22:52

Всю неделю куда-то бегал, ничего не успевал. Общее впечатление от недели -- будущее имеет дикое инфраструктурное предложение, но людям нужны не инфраструктуры, а конечные сервисы. Не хватает "последней мили" во всех технологических сегментах -- кто дотащил бы наличные на сегодня инфраструктуры всех этих машинных интеллектов, блокчейнов, аддитивных ( Read more... )

Leave a comment

Comments 56

bobehobi May 27 2016, 22:41:13 UTC
1) Паттерны, задачи на моделирование физических объектов с произвольным типом данных
2) Структуры, алгоритмы с произвольным типом данных (templates, generics)

Reply

ailev May 27 2016, 22:58:58 UTC
Ну где, где эти задачи? Я ж не брошу всё и не сяду их сочинять! А олимпиадные задачи есть в сотнях штук, да с автоматической проверкой решения.

Задач по математике -- вообще завались, на любой вкус. Задач по физике уже в разы меньше. Задач по computer science (на постановку мышления) с гулькин нос, только головоломки олимпиадные в количестве.

Reply

sbobrovsky May 28 2016, 14:16:00 UTC
Для постановки мышления по computer science достаточно честно изучить "Лямбда-исчисление" Барендрегта.
Ну и по теории категорий что-нибудь, только нету к сожалению учебников для уровня школьников.

Вот кстати:)
http://ailev.livejournal.com/1148591.html

Reply


buriy May 28 2016, 04:20:44 UTC
> Он не понимает, зачем ему помнить все эти странные слова "из теории ( ... )

Reply


buriy May 28 2016, 04:51:26 UTC
По олимпиадным задачам -- ему должен подойти http://acm.timus.ru/ для начала. Там задачи попроще, чем на https://uva.onlinejudge.org/index.php?option=com_onlinejudge&Itemid=8&category=3
>Буду лечить его забывчивость,
Не поможет. Забывчивость всегда связана с отсутствием значимости запоминаемой информации. Учёные в очередной раз доказали, что информация, которая находится на пути к награде, запоминается в разы и десятки раз лучше, чем вся остальная информация. Пока код не пишется на бумажке без интернета, а награда маленькая или отсутствует -- API учить никто никогда не будет.

Reply

ailev May 28 2016, 08:34:34 UTC
Спасибо за ссылки, я не слишком-то и искал подобные сайты (в том числе по-английски вообще не искал -- а там их ой-ой сколько: http://uvatoolkit.com/links.php).

Проблема в том, что на этих сайтах именно олимпиадные "проблемы" во всевозрастающей сложности, тренировка ломать голову. А меня интересует тренировка в computer science, решение задач на понимание и обсуждение каких-то конкретных тем. Скажем, оценка сложности алгоритма. Или создание кучерявых структур данных (моделирование). Задач на эти темы нет. Есть дырка между "учебными задачами" (на понимание хотя бы структур языка -- в каждом языке ведь это своё), "олимпиадными проблемами" и "реальными проектами".

Насчёт значимости я всё понимаю. Вот это-то меня и напрягает, что нет таких задач, для которых запоминание основных положений computer science находилось на пути к победе.

Reply

buriy May 28 2016, 13:46:46 UTC
>Проблема в том, что на этих сайтах именно олимпиадные "проблемы" во всевозрастающей сложности ( ... )

Reply


buriy May 28 2016, 05:07:26 UTC
И вот ещё пост и комментарии по теме: https://habrahabr.ru/post/301674/
Особенно умиляет вполне себе неплохая классификация https://habrahabr.ru/post/301674/#comment_9625406

Reply

ailev May 28 2016, 08:39:53 UTC
Да, я тут именно об этом убиваюсь. Должна включиться очень специфическая думалка, думалка в определённых понятиях, а это можно сделать только путём закладывания в голову какой-то теории и решении на тему этой теории упражнений. Как в физике и математике: я такого же хочу для информатики, причём включая работу с данными (а не только алгоритмику).

Reply

buriy May 28 2016, 14:04:20 UTC
Для информатики фундамент для такой думалки -- теория сложности. Осваивается за день ( ... )

Reply


old_ufo May 28 2016, 07:12:34 UTC
>http://eplex.cs.ucf.edu/publications/2016/morse-gecco16, "these initial results suggest the possibility that EAs could be the first viable training alternative for deep learning outside of SGD, thereby opening up deep learning to all the tools of evolutionary computation". Круто, нет ( ... )

Reply

ailev May 28 2016, 08:42:26 UTC
Оно всё начинается с маленьких примеров "теории". А потом поспевает новый хард -- и могут быть разные неожиданности. Новые технологии всегда игрушечные по сравнению даже с игрушками старых технологий. Так что поглядим, что будет через несколько лет. Эволюция ведь очень мощный инструмент, разве что крайне затратный.

Reply

buriy May 28 2016, 14:12:01 UTC
Чушь. Некоторые технологии не скейлятся, сколько лет не жди.
Вы почитайте дальше комменты: https://www.reddit.com/r/MachineLearning/comments/4kc5hf/simple_evolutionary_optimization_can_rival/d3elsvd

Reply

ailev May 28 2016, 14:39:28 UTC
Ну, deep learning тоже считалась много лет тупиковой ветвью в AI. Потом прорвало. Как и в любой эволюции (pun intended), заранее неизвестно, какая из ветвей тупиковая.

Вообще-то говоря, использование стохастики в нейронных сетках тоже сработало довольно неожиданно -- много народу удивлялось, что "так, оказывается, тоже можно".

Я исхожу из no free lunch theorem: на каждый SGD успех найдётся свой SGD провал, и нужны будут какие-то способы его обхода. Тут и эволюция может пригодиться. Медленная она и неэффективная, но может и сработать. Ибо там не совсем сто тысяч обезьян, печатающих на машинках "Войну и мир", там алгоритмы чуток посложней и результаты чуток поинтересней.

Reply


Leave a comment

Up