В принципе выглядит интересно, но пока не попробуешь - не узнаешь. Чтобы это работало, нужно очень много данных. Боюсь большого количества false positives. На Fig.2A хорошо бы увидеть размеры dataset'а, при котором они для random'а получили 0.18, и как это число зависит от размеров dataset'а.
Куда бы это, например, у нас можно было применить, я так что-то сходу не соображу, это вам не ЦПТ и не machine learning. Обычно в жизни функциональные зависимости более-менее монотонные, их обычный коэффициент корреляции ловит неплохо.
Я вот тоже пока не понял, насколько широко приложим метод. Ведь он предложен только для двух переменных Хотя появилось пару идей как использовать его для feature-selection.
Не поверишь, только сегодня с коллегой на тему семантического Веба для life science общались. Но далеко это все до реалий. Тут, насколько я понял, основная фишка в том что данная мера позволяет определить зависимы ли две переменные, причем эта зависимость может быть какой угодно. Меня вот лично смущает слово "каой угодно", надо лезть в Supplementary разбираться в методе.
Мало ли чего можно придумать такого. Наверное, есть задачи, где это полезно. Стандартную корреляцию вычислить легко, а эту не очень. Всегда есть вопрос интерпретации, что привносит элемент научной фантастики. А так-то что --- в общем, хорошо, что люди над этим думают. Преувеличивать значение только не надо.
Юр, да вот я тоже задумался над преувеличением значения, особенно когда подкаст Науки послушал с участием первого автора. Как то нет ощущения прорыва, что обычно характерно для full paper в Науке. Не понял, короче.
Comments 6
Куда бы это, например, у нас можно было применить, я так что-то сходу не соображу, это вам не ЦПТ и не machine learning. Обычно в жизни функциональные зависимости более-менее монотонные, их обычный коэффициент корреляции ловит неплохо.
Такие вот нехитрые мысли.
Reply
Reply
Reply
Reply
Reply
Reply
Leave a comment