Я испытываю похожие чувства. Действительно, ML выглядит куда как лучше. Классный движок, лабы на Octave. Но какой-то он уж очень подробный. Andrew Ng зацикливается на каждой мелочи, так что иногда невмноготу смотреть даже на 1.5х скорости. Потом, тесты и домашки - ну очень простые, а если зафейлил вопрос, то можно сколько угодно пересдавать, смотря на обьяснения, в итоге всегда имеешь 5.0.
Повторюсь, домашние задания рассчитаны на идиотов. Например в лекциях десять раз говорится о роли параметра α в методе градиентного спуска. В итоге в домашке встречаем вопрос: если значение стоимостной функции увеличивается на след итерациях, что нужно сделать с параметром: а) оставить как есть б) уменьшить в) увеличить. Не challenging ни разу. Хотя это может я тут такой умный :)
ai-class же построен на другом принципе - пока смотришь лекции, нужно отвечать на кучу вопросов, причем ответить правильно с первого раза получается далеко не всегда. Это провоцирует интерес, а где же я налажал. Домашние задания почти всегда с подвохом, так что решать их намного интереснее. Короче, вот если бы скрестить два курса, было бы вообще идеально.
Насчет содержания - не соглашусь. В ai-class есть и линейная регрессия и метод градиентного спуска и kNN, k-means, и expectation-maximization и много чего вкусного. Только практических заданий не хватает, да. Но это ж только введение...
Но какой-то он уж очень подробный. Andrew Ng зацикливается на каждой мелочи, так что иногда невмноготу смотреть даже на 1.5х скорости. Потом, тесты и домашки - ну очень простые, а если зафейлил вопрос, то можно сколько угодно пересдавать, смотря на обьяснения, в итоге всегда имеешь 5.0.
Повторюсь, домашние задания рассчитаны на идиотов. Например в лекциях десять раз говорится о роли параметра α в методе градиентного спуска. В итоге в домашке встречаем вопрос: если значение стоимостной функции увеличивается на след итерациях, что нужно сделать с параметром: а) оставить как есть б) уменьшить в) увеличить. Не challenging ни разу. Хотя это может я тут такой умный :)
ai-class же построен на другом принципе - пока смотришь лекции, нужно отвечать на кучу вопросов, причем ответить правильно с первого раза получается далеко не всегда. Это провоцирует интерес, а где же я налажал. Домашние задания почти всегда с подвохом, так что решать их намного интереснее.
Короче, вот если бы скрестить два курса, было бы вообще идеально.
Насчет содержания - не соглашусь. В ai-class есть и линейная регрессия и метод градиентного спуска и kNN, k-means, и expectation-maximization и много чего вкусного. Только практических заданий не хватает, да. Но это ж только введение...
Reply
Leave a comment