На самом деле то, что называется сейчас в светской науке "бритвой Оккама" не работает даже в математике (!): https://homes.cs.washington.edu/~pedrod/papers/cacm12.pdf , стр. 86 -- простой контрпример с ансамблем классификаторов.
In machine learning, this is often taken to mean that, given two classifiers with the same training error, the simpler of the two will likely have the lowest test error. Purported proofs of this claim appear regularly in the literature, but in fact there are many counterexamples to it, and the “no free lunch” theorems imply it can-not be true.
то здесь не говорится о том, что принцип Оккама неверен. Здесь лишь говорится о том, что его неверно интерпретируют. NFL теоремы не являются опровержением принципа парсимонии. Они лишь демонстрируют неверность интерпретаций этого принципа, согласно которым из двух классификаторов с одинаковой мерой качества следует выбирать более простой.
В чем Вы видите разницу: "методологический принцип , в кратком виде гласящий: «Не следует множить сущее без необходимости»[1] (либо «Не следует привлекать новые сущности без крайней на то необходимости»)" -- с: "из двух классификаторов с одинаковой мерой качества следует выбирать более простой"?
Comments 16
Reply
Reply
In machine learning, this is often taken to mean that, given two classifiers with the same training error, the simpler of the two will likely have the lowest test error. Purported proofs of this claim appear regularly in the literature, but in fact there are many counterexamples to it, and the “no free lunch” theorems imply it can-not be true.
то здесь не говорится о том, что принцип Оккама неверен. Здесь лишь говорится о том, что его неверно интерпретируют. NFL теоремы не являются опровержением принципа парсимонии. Они лишь демонстрируют неверность интерпретаций этого принципа, согласно которым из двух классификаторов с одинаковой мерой качества следует выбирать более простой.
Reply
Reply
Leave a comment