Конечные вероятностные пространства

Всем нам интуитивно понятны выражения типа «Если подбросить монетку, то «орел» выпадет с вероятностью 1/2» или «При броске кубика вероятность выпадения 6 составляет 1/6». Начнем с описания математической инфраструктуры, которая позволяет точно анализировать подобные утверждения.

Эта инфраструктура хорошо подходит для систем с четко определенными наборами результатов, таких как броски монеток и кубиков; в то же время мы избежим длинных и непростых философских аспектов, возникающих при попытке моделирования утверждений вида «Вероятность того, что завтра пойдет дождь, равна 20 %».

К счастью, в большинстве алгоритмических задач ситуация определяется так же четко, как при бросках кубиков и монеток, — разве что масштабнее и сложнее.

Чтобы иметь возможность вычислять вероятности, введем понятие конечного вероятностного пространства. (Не забывайте, что пока речь идет только о конечных множествах.) Конечное вероятностное пространство определяется нижележащим пространством выборки, которое состоит из всех возможных результатов рассматриваемого процесса.

Каждой точке пространства выборки ставится в соответствие неотрицательная вероятностная мера p(i) ≥ 0; единственное ограничение для вероятностных мер заключается в том, что их сумма должна быть равна 1, то есть.

Событие определяется как произвольное подмножество Ω (то есть просто как множество результатов, образующих это событие), а вероятность события определяется как сумма вероятностных мер всех точек в, то есть.

Во многих ситуациях, которые мы будем рассматривать, все точки пространства выборки имеют одинаковую вероятностную меру, а вероятность события вычисляется как отношение его размера к размеру Ω; то есть в этом частном случае.

Таким образом, точки в пространстве выборки и соответствующие им вероятности образуют полное описание рассматриваемой системы; мы собираемся вычислять вероятности событий — подмножеств пространства выборки. Скажем, для представления одного броска «правильной» монетки можно определить пространство выборки Ω = {heads, tails} и присвоить p(heads) = p(tails) = 1/2.

Чтобы смоделировать несимметричную монетку, в которой «орел» выпадает вдвое чаще «решки», достаточно определить вероятностные меры p(heads) = 2/3 и p(tails) = 1/3.

Даже в этом простом примере важно заметить, что определение вероятностных мер является частью задачи; мы указываем, симметрична монетка или нет, при определении условий, а не выводим это из неких дополнительных данных.

Узнай цену консультации

"Да забей ты на эти дипломы и экзамены!” (дворник Кузьмич)