Математическое: квадратичные разделители

Feb 06, 2019 22:18

Некоторая мелкая философия без ответов, а так мысли вслух ( Read more... )

deep learning, math

Leave a comment

Comments 26

ticklish_frog February 6 2019, 19:48:37 UTC
Я думаю, линейные формы хороши тем, что они быстро считаются и распараллеливаются. Квадратичные формы опасны тем, что в полном случае (неразреженном) слишком много коэффициентов передавать туда-сюда, а если с разреженными коэффициентами, то нетривиальный эффект для скорости - это распаковка нужных пар коэффициентов. Поэтому практически делают линейный классификатор с вручную созданными квадратичными членами.

Reply

akor168 February 6 2019, 20:20:46 UTC
Ну да, это если с практической точки зрения то надо искусственно создавать квадратичные добавки к линейному(иначе там уже слишком много к-в и мороки). Но вопрос, насколько это мощно потенциально, чтобы этим начать заниматься.

Reply


russhatter February 6 2019, 20:12:05 UTC
Есть игры с ядрами, я так понимаю, они иногда работают, но никто ничего глубоко не знает. Это искажение пространства перед тем, как его резать плоскостями. И это - альтернатива квадратичным разрезам. Кажется, что она проще, если для практических целей. Но может и нет...

Reply

akor168 February 6 2019, 20:18:42 UTC
Что про линейные ядра почему-то никто не демонстрирует(или не имеет) глубокое знание, меня тоже сильно удивляет. Типа попробуйте несколько стандартных, несмотря что по идее их очень много и есть описания.

Reply

misha_b February 6 2019, 20:53:16 UTC
Что значит не знают? На эту тему много науки имеется.

Reply

russhatter February 6 2019, 21:00:15 UTC
Хорошо, раз так. А есть на что посмотреть в смысле ссылок?

Reply


akor168 February 7 2019, 07:24:26 UTC
А по конкретнее в контексте заданной темы. Если имеется ввиду VC размерность, то оно и в достаточно большой размерности линейный классификатор имеет достаточную размерность чтобы с этой точки зрения не было противоречия. Но дьявол в деталях. А квадратичный классификатор интуитивно должен иметь в квадрат больше эффективности в той же размерности.

Reply

vedroid February 7 2019, 10:13:51 UTC
Там излагаются ближе к концу машины опорных векторов, и нелинейные разделяющие поверхности там тоже есть.

Reply

vedroid February 7 2019, 10:15:10 UTC
Нелинейный классификатор он больше коэффициентов имеет, а размерность это размерность пространства классификаторов, в некотором приближении.

Reply


schloenski February 7 2019, 00:37:24 UTC
Ну вот бывает квадратичный дискриминантный анализ: https://en.wikipedia.org/wiki/Quadratic_classifier

Но он, кажется, особенно не нужен, т.к. сложную сепарацию можно кёрнелами сделать.

Reply

akor168 February 7 2019, 07:19:32 UTC
Гмм, а действительно с ядром

A(x,y)+B(x,y)^2

линейный классификатор вроде бы эквивалентен квадратичному в исходном пространстве.

Хотя вроде не совсем, для ядра надо накладывать условие положительности на к-ты A и B, а вообще-то квадратичный классификатор априори вовсе не обязан быть эллипсоидом.

Reply

zlyuk February 7 2019, 07:30:11 UTC
точнее, если добавить базис в котором есть x^2, y^2, xy и применить линейный сепаратор, это эквивалентно квадратичному разделению. и так с любым полиномиальным иди сколь угодно хитровверченным сепаратором. это просто частный случай ядра

Reply


deep_econom February 7 2019, 02:32:47 UTC
объединение линейных что угодно разделит, приблизить можно любую функцию

Reply

akor168 February 7 2019, 07:21:03 UTC
В достаточно большом надпространстве? Вполне верю, хотя не помню, чтобы это где-то явно отмечалось.

Reply

misha_b February 7 2019, 14:13:07 UTC
Of course it is well-known. A RKHS corresponding to, say, the Gaussian kernel is dense in the set of all functions (in L_2, say). You can search for universal kernels, for example.

Reply


Leave a comment

Up