Самоконтроль Предположим, у нас есть конечное вероятностное пространство, состоящее из n элементов, каждому событию (точке) приписана вероятность 1/n
( Read more... )
В вашей задаче последовательность действий такая: сначала задали вероятностное пространство, потом ввели на нём вероятностную меру, а потом уже в этой мере какие-то события оказались независимыми. В реальных задачах всё идет в обратном порядке: начинаем с описания пар событий, которые должны оказаться независимыми в нашей модели (например, результаты бросания двух костей), потом пытаемся построить подходящее пространство и меру на нём, и в итоге получаем две независимые сигма-алгебры. В задачах для училок требуемое "большое" пространство всегда строится как декартово произведение маленьких, с вероятностью по Фубини, а для студентов можно сделать и поинтереснее, например, взять интервал [0,1), на котором все цифры позиционной записи числа (десятичной, двоичной, ...) суть независимые дискретные величины.
В который раз повторяя свой тезис - понятие независимости есть главное, но не единственное, достижение аксиоматики «лжеученого» Колмогорова, и не единственное, что выделяет теорвер из теории меры и анализа вообще. Также - идея условного матожидания как производной Радона-Никодима для ограничения меры, не обязательно вероятностной, на меньшую сигма-алгебру. При таком, казалось бы, парадоксальном определении - условная вероятность есть всего лишь частный случай, условное матожидание индикатора события - вся техническая часть падает на свои места, как фигурка в тетрисе. Эта идея ничуть не слабее определения независимости через произведение вероятностей.
Я воспринимаю (и описываю в лекциях, которые как раз сейчас пишу) условную вероятность как единственное осмысленное ограничение вероятностной меры на подпространство, обнуляющееся на дополнении к нему ("отбрасываются какие-то элементарные события). Если оставите мне свой емайл, я пришлю вам текущий черновик первого параграфа...
Для училок это сойдёт, потому что работает в случае, когда вероятность выполнения условия больше нуля. Но вообще-то сплошь и рядом приходится иметь дело с условными вероятностями типа P[X > x | Y = y], в которых справа стоит событие меры ноль, но не изолированное, а элемент континуума. Такие условные вероятности, конечно, можно объяснить как пределы условных P[X > x | Y in [y, y + dy) ], но это просто повторяет интерпретацию Радона-Никодима. «Правильное» определение - это композиция E[1{X > x} | sigma(Y)] • Y^{-1}(y), где внешняя функция есть условное матожидание по отношению к сигма-алгебре.
У тебя сомнения насчёт съедобности такой конструкции? Это же стандартный cutoff, он же truncation: там, где условие не выполнено, условная вероятность принудительно обнуляется, а там, где выполнено, мы стараемся не трогать исходную вероятность. Единственное препятствие - нормировка на единицу, но она делается просто.
Я просто стараюсь предложить мотивировки везде, где это легко сделать. Иначе условная вероятность становится вообще какой-то бессмысленной формулой.
Нет, и точно не возьмусь, остался школярский уровень сдавшего экзамен на мехмате и всё. Мой диапазон читать -- анализ в широком смысле, матан, функан; могу тфкп, тфдп, дифуры и урчп, остальное постарался бы избежать. Ну линейку ещё читал, это после функана читать можно.
Это верно. Я сейчас постепенно постигаю премудрость, - коммунистом пробабилем можно стать, лишь обогатив свою память всем богатством знаний, выработанных человечеством...
Вот на старости лет решил обогатиться. Прикольно, получаю удовольствие.
Reply
Reply
В который раз повторяя свой тезис - понятие независимости есть главное, но не единственное, достижение аксиоматики «лжеученого» Колмогорова, и не единственное, что выделяет теорвер из теории меры и анализа вообще. Также - идея условного матожидания как производной Радона-Никодима для ограничения меры, не обязательно вероятностной, на меньшую сигма-алгебру. При таком, казалось бы, парадоксальном определении - условная вероятность есть всего лишь частный случай, условное матожидание индикатора события - вся техническая часть падает на свои места, как фигурка в тетрисе. Эта идея ничуть не слабее определения независимости через произведение вероятностей.
Reply
Reply
Для училок это сойдёт, потому что работает в случае, когда вероятность выполнения условия больше нуля. Но вообще-то сплошь и рядом приходится иметь дело с условными вероятностями типа P[X > x | Y = y], в которых справа стоит событие меры ноль, но не изолированное, а элемент континуума. Такие условные вероятности, конечно, можно объяснить как пределы условных P[X > x | Y in [y, y + dy) ], но это просто повторяет интерпретацию Радона-Никодима. «Правильное» определение - это композиция E[1{X > x} | sigma(Y)] • Y^{-1}(y), где внешняя функция есть условное матожидание по отношению к сигма-алгебре.
Reply
--- это для училок не перебор? Хорошие училки
Reply
Я просто стараюсь предложить мотивировки везде, где это легко сделать. Иначе условная вероятность становится вообще какой-то бессмысленной формулой.
Reply
Reply
Reply
Reply
Вот на старости лет решил обогатиться. Прикольно, получаю удовольствие.
Reply
Leave a comment