> случайная функция потерь Это значит, что она вычисляется экспериментально, и результат эксперимента может довольно сильно колебаться в зависимости от фазы луны. Так что надо что-нибудь из оперы robust stochastic optimization.
Но вообще, основной вопрос для меня стоит так: есть точка в пространстве A; как определить, с какими другими точками в этом пространстве она вообще сравнима для целей подбора оптимального P (у этого были бы и другие важные для меня применения, кроме собственно оптимизации P).
GRBT - я правильно понял, что их фишка в том, что они одновременно решают задачу и классификации/кластеризации, и регрессии/оптимизации внутри класса?
> Я не Коппенгаген в данном вопросе, но боюсь, что это тогда большая труба. Так вот именно поэтому и хочется кластеризовать наблюдения, чтобы было, что усреднять, например.
Но, когда много факторов - используют ту или иную "бритву окамма". Кластеризация - одна из них. Какую выбрать - это черная магия, каждый раз зависящая от конкретной задачи.
Машинное обучение - содержит пару простых и достоверных способов проверить что наша гипотеза об f верна (кроссвалидация), и миллион интуитивных заклинаний и трюков как подбирать f. Прежде всего, делаем тестовую/обучающую выборку. Второе, выбираем десяток алгоритмов, которые могут подогнать сотню-другую параметров под задачу. Кроссвалидацией - имеем право подогнать небольшое число параметров (один, два, три) в каждом алгоритме под оптимальную работу на тестовой выборке. Сотню - не имеем, надо создавать ещё одну тестовую выборку. Способов выбрать "бритву окамма" - много, так или иначе они "размывают" и "уменьшают" параметры или сильно их ограничивают.
Comments 11
(The comment has been removed)
Это значит, что она вычисляется экспериментально, и результат эксперимента может довольно сильно колебаться в зависимости от фазы луны. Так что надо что-нибудь из оперы robust stochastic optimization.
Но вообще, основной вопрос для меня стоит так: есть точка в пространстве A; как определить, с какими другими точками в этом пространстве она вообще сравнима для целей подбора оптимального P (у этого были бы и другие важные для меня применения, кроме собственно оптимизации P).
GRBT - я правильно понял, что их фишка в том, что они одновременно решают задачу и классификации/кластеризации, и регрессии/оптимизации внутри класса?
Reply
(The comment has been removed)
Так вот именно поэтому и хочется кластеризовать наблюдения, чтобы было, что усреднять, например.
Reply
Reply
Reply
Reply
Но, когда много факторов - используют ту или иную "бритву окамма". Кластеризация - одна из них. Какую выбрать - это черная магия, каждый раз зависящая от конкретной задачи.
Машинное обучение - содержит пару простых и достоверных способов проверить что наша гипотеза об f верна (кроссвалидация), и миллион интуитивных заклинаний и трюков как подбирать f.
Прежде всего, делаем тестовую/обучающую выборку.
Второе, выбираем десяток алгоритмов, которые могут подогнать сотню-другую параметров под задачу. Кроссвалидацией - имеем право подогнать небольшое число параметров (один, два, три) в каждом алгоритме под оптимальную работу на тестовой выборке. Сотню - не имеем, надо создавать ещё одну тестовую выборку.
Способов выбрать "бритву окамма" - много, так или иначе они "размывают" и "уменьшают" параметры или сильно их ограничивают.
Reply
Reply
Reply
Leave a comment