gaperton (кстати, где он?) предлагал оценивать вероятности выполнения задачи, исходя из оценок "раньше никак не успеем" и "за это время справимся точно, что бы ни случилось". Он предлагал считать эти два срока, как несколько (2-3) среднеквадратичных отклонений меньше и, соответственно, больше, чем среднее.
Не то, чтобы проблема, но интересное наблюдение про сроки состоит в их положительности. Они ограничены снизу нулём. Если вам что-то надо сделать, вы не можете потратить на работу отрицательное количество времени.
Соответственно, надо оценивать сроки через
логнормальное распределение.
Первое, что это позволяет сделать, это предложить модель, в которой вероятность срыва сроков повышается. Мы оперируем в рассуждениях о сроках сложением (t+δt), а должны бы умножением (elog(t)+log(δt)). Сложение перестаёт работать уже после δt>0.1t, это всего 10%.
Из этого вытекает второе. Оцениваемые сроки должны быть пропущены через логарифм, с (взвешенное) среднее должно вычисляться через экспоненту от (взвешенного) среднего их логарифмов.
И добавляется третье. Суммы логнормальных распределений не сходятся к нормальному распределению. Откровенно говоря, мне неизвестно, сходятся ли они к логнормальному распределению, есть
мнение, что только в некотором приближении.
Поэтому правильная оценка сроков планирования должна это учитывать.
Давнишнее
evidence based scheduling господина Спольски это не учитывает.
Книга Талеба в том же году вышла, немудрено.