Real numbers vs. floating-point numbers

Oct 14, 2010 14:06

Постоянная ошибка в нынешних научно-популярных публикациях. Действительные числа даются сами по себе, без указания точности или доверительного интервала. Еще, часто сравниваются статистически расчитанные "средние значения" без упоминания какова дисперсия и т.д. (например, см.  запись о том, как красная рубашка влияет на вероятность выпадания орла).

Read more... )

programming

Leave a comment

Comments 6

morfizm October 14 2010, 21:42:13 UTC
Как будем представлять погрешность?
В виде матрицы с распределением вероятностей? :)
Распределение-то может быть очень разным.

Reply

raindog_2 October 14 2010, 22:06:26 UTC
Да, я об этом тоже думал. Окончетльно ничего не надумал. В-общем, есть целая наука о точности измерений (metrology), можно не изобретать велосипед. Но там в основном упор на инженерные измерения. Где нормальное распределение, насколько я помню, очень часто предполагается по умолчанию. Действительно, могут интересовать распределения далекие от нормального - тогда можно хранить эту информацию либо в виде (тип распределения, параметры), либо вообще в каком-то обобщенном виде.

Reply


morfizm October 14 2010, 21:48:48 UTC
Ну и, конечно, что будем делать с погрешностями в погрешностях?

Если всегда выбирать меньший confidence interval, чтобы хоть что-то "гарантировать", мы можем прийти к тому, что во многих задачах ответ вообще не будет вычисляться (confidence 0). Но это вполне может происходить не из-за реальных накопленных ошибок, а из-за округлений значений confidence interval-а.

Reply

raindog_2 October 15 2010, 01:37:16 UTC
Ну, я инженер, а не математик. К примеру, у меня на лазерном дальномере написано - точность измерения угла - 0.09 градуса, погрешность измерения дальности - +- 0.02 м. Никакой погрешности к погрешности в спецификациях к приборам не указывают, значит и мне не надо :)

Reply

morfizm October 15 2010, 08:56:50 UTC
Моя идея, конечно, же в том, что для конечного результата 0.09 градуса +/- 0.02 м - это отлично. А для промежуточного результата, может и нет. Что если мы возьмём 0.09 +/- 0.02 и в результате получим 856 +/- 100, а в случае 0.09 +/- 0.019 получим 856 +/- 10? Из-за того, что мы округлили 0.019 к 2, мы получили сумасшедший разброс в погрешностях конечного ответа, полученного в результате преобразований. Кроме того, что если исходных данных очень много? Небольшие погрешности в confidence interval каждого измерения могут дать огромное расхождение в конечном ответе.

Reply


spamsink October 14 2010, 21:59:14 UTC
На уровне процессора это должно быть достаточно легко.

Относительная погрешность при умножении-делении складывается, а при сложении -вычитании максимум из двух нормализованных погрешностей аргументов увеличивается на количество шагов нормализации влево после выполнения операции. Как только значение погрешности превышает длину мантиссы, число превращается в NaN.

Reply


Leave a comment

Up