Новосибирский Государственный Университет
Опубликован: 07.04.2008 | Доступ: свободный | Студентов: 7236 / 1305 | Оценка: 4.56 / 4.32 | Длительность: 16:54:00
Специальности: Математик
Лекция 4:

Условная вероятность и независимость

< Лекция 3 || Лекция 4: 12 || Лекция 5 >
Аннотация: Условная вероятность. Независимость событий. Независимость в совокупности. Формула полной вероятности. Формула Байеса

Условная вероятность

Пример 29. Игральная кость подбрасывается один раз. Известно, что выпало более трех очков. Какова при этом вероятность того, что выпало нечетное число очков?

Пусть событие B= \{4,\,5,\,6\} означает, что выпало более трех очков, событие A=\{1,\,3,\,5\} - выпало нечетное число очков. Как понимать вероятность события A, если известно, что B случилось? Знаем, что произошло событие B, но все равно не знаем, что именно выпало на кости. Однако теперь возможностей осталось только три: могло выпасть 4, 5 или 6 очков. Событию A из этих равновозможных исходов благоприятен единственный исход: выпадение пяти очков. Поэтому искомая вероятность равна 1/ 3.

Итак, при вычислении условной вероятности события A при случившемся событии B мы ищем долю исходов, благоприятствующих A, среди всех исходов события B. Эту условную вероятность будем обозначать \Prob(A{\hspace{3pt}{\left|\right.}\mspace{1mu}} B).

Определение 12. Условной вероятностью события A при условии, что произошло событие B, называется число

\Prob(A{\hspace{3pt}{\left|\right.}\mspace{1mu}} B)=\frac{\Prob(A\cap B)}{\Prob(B)}.
Условная вероятность определена только в случае, когда \Prob(B)>0.

Следует отличать условную вероятность одного события при осуществлении другого от вероятности им одновременно произойти.

Это определение бывает полезно использовать не для вычисления условной вероятности, а для последовательного вычисления вероятности нескольким событиям случиться одновременно, если известны соответствующие условные вероятности. Справедливы следующие "теоремы умножения вероятностей".

Теорема 9. Если \Prob(B)>0 и \Prob(A)>0, то

\Prob(A\cap B)=\Prob(B)\,\Prob(A{\hspace{3pt}{\left|\right.}\mspace{1mu}}
	B)=\Prob(A)\,\Prob(B{\hspace{3pt}{\left|\right.}\mspace{1mu}} A).

Теорема 10. Для любых событий A_1,\, \ldots,\, A_n верно равенство:

\Prob(A_1 \ldots A_n)=
	\Prob(A_1)\,\Prob(A_2{\hspace{3pt}{\left|\right.}\mspace{1mu}} A_1)\,
	\Prob(A_3{\hspace{3pt}{\left|\right.}\mspace{1mu}} A_1 A_2)\cdot\ldots\cdot
	\Prob(A_n{\hspace{3pt}{\left|\right.}\mspace{1mu}} A_1\ldots A_{n-1}),
если все участвующие в нем условные вероятности определены.

Упражнение. Доказать теорему 10 методом математической индукции. Доказать, что все условные вероятности в теореме 10 определены тогда и только тогда, когда \Prob(A_1 \ldots A_{n-1})>0.

Независимость событий

Определение 13. События A и B называются независимыми, если \Prob(A\cap B)=\Prob(A)\Prob(B).

Пример 30. Из колоды в 36 карт наугад берут одну. Независимы ли события "вынут туз" и "вынута пиковая карта"?

Решение. Вероятность вытянуть туза равна \Prob(A)=\frac{4}{36}=\frac19\mspace{1mu}. Вероятность вытянуть пиковую карту равна \Prob(B)=\vphantom{\frac12}\smash{\frac14}\mspace{1mu}. Пересечение этих событий означает появление туза пик и имеет вероятность \Prob(AB)=\frac{1}{36}\mspace{1mu}. Cобытия A и B независимы, так как \Prob(AB)=\Prob(A)\Prob(B){\text.}

Естественно считать события A и B независимыми, когда условная вероятность A при условии, что B произошло, остается такой же, как и безусловная. Убедимся, что этим свойством обладают события, независимые согласно определению 13.

Свойство 4. Пусть \Prob(B)>0. Тогда события A и B независимы тогда и только тогда, когда \Prob(A{\hspace{3pt}{\left|\right.}\mspace{1mu}} B)=\Prob(A).

Упражнение. Доказать по определению условной вероятности.

Независимые события возникают, например, при повторении испытаний. Выпадение герба и выпадение решки при двух разных бросках монеты независимы. Любые события, относящиеся к двум разным подбрасываниям игральной кости, независимы.

Свойство 5. Пусть события A и B несовместны. Тогда независимыми они будут только в том случае, если \Prob(A)=0 или \Prob(B)=0.

Это свойство означает, что в невырожденном случае (когда вероятности событий положительны) несовместные события не могут быть независимыми. Зависимость между ними - просто причинно следственная: если A\cap B=\emptyset, то A\subseteq \overline B, т.е. при выполнении A событие B не происходит.

Упражнение. Доказать с помощью свойства монотонности вероятности, что событие A, вероятность которого равна нулю или единице, не зависит ни от какого события B, в том числе и от самого себя.

Свойство 6. Если события A и B независимы, то независимы и события A и \overline B, \overline A и B, \overline A и \overline B.

Доказательство. Так как A=(A \cap B)\cup(A \cap\overline B), и события A\cap B и A\cap\overline B несовместны, то \Prob(A)=\Prob(A\cap B)+\Prob(A\cap\overline B). Поэтому \Prob(A \cap\overline B)=\Prob(A)-\Prob(A\cap B)
		=\Prob(A)-\Prob(A)\Prob(B)=\\=\Prob(A)(1-\Prob(B))
		=\Prob(A)\Prob(\overline B). Остальные утверждения вытекают из первого.

Если у нас не два, а большее число событий, выполнение только одного равенства \Prob(A_1\cap\ldots\cap A_n)=\Prob(A_1)\cdot\ldots\cdot\Prob(A_n) вовсе не означает независимости этих событий. Например, при таком равенстве события A_1 и A_2 вполне могут оказаться зависимыми.

Пример 31. Пусть 0<\Prob(A)<1. События A_1=A_2=A,\,A_3=\emptyset обладают свойством

0=\Prob(A_1\cap A_2\cap
		A_3)=\Prob(A_1)\cdot\Prob(A_2)\cdot\Prob(A_3)=0,
что не мешает событиям A_1 и A_2 быть зависимыми:
\Prob(A_1\cap A_2)=\Prob(A)\neq
		\Prob(A_1)\cdot\Prob(A_2)=\bigl(\Prob(A)\bigr)^2.

Хотелось бы независимостью нескольких событий считать такое свойство, при котором любые комбинации этих событий будут независимы между собой: например, независимы A_1\cap A_2 и A_3\cup A_4\cup A_5.

Определение 14. События A_1,\,\ldots,\,A_n называются независимыми в совокупности, если для любого 1\le k\le n и любого набора различных меж собой индексов 1 \le i_1,\, \ldots,\, i_k\le n имеет место равенство

\begin{equation}\label{3.2}
		\Prob(A_{i_1}\cap\ldots\cap A_{i_k})=
		\Prob(A_{i_1})\cdot\ldots\cdot\Prob(A_{i_k}).
		\end{equation} ( 4.1)

Замечание. Если события A_1,\,\ldots,\,A_n независимы в совокупности, то они попарно независимы, т.е. любые два события A_i и A_j независимы. Достаточно в равенстве (4.1) взять k=2. Обратное, как показывает следующий пример, неверно: из попарной независимости не вытекает независимость в совокупности.

Пример 32(пример Бернштейна).

Рассмотрим правильный тетраэдр, три грани которого окрашены соответственно в красный, синий, зеленый цвета, а четвертая грань содержит все три цвета. Событие A ( B, C ) означает, что выпала грань, содержащая красный (соответственно синий, зеленый) цвета.

Вероятность каждого из этих событий равна \frac12\mspace{1mu}, так как каждый цвет есть на двух гранях из четырех. Вероятность пересечения любых двух событий равна \frac14\mspace{1mu}, так как только одна грань из четырех содержит два цвета. Поэтому любые два события из трех независимы, так как \vphantom{\frac1{2_2}}\smash{\frac14=\frac12 \cdot
		\frac12\mspace{1mu}}.

Но вероятность события ABC (на грани есть все три цвета) тоже равна \frac14\mspace{1mu}, а не \vphantom{\frac1{\sum_1}}\smash{\frac18}\mspace{1mu}, т.е. события не являются независимыми в совокупности.

Заметьте, что равенство (4.1) выполнено при k=2, но не при k=3.

< Лекция 3 || Лекция 4: 12 || Лекция 5 >
Виктория Монахова
Виктория Монахова
Ulmas Abdullaev
Ulmas Abdullaev

Случайные величины кси1 и кси2 независимы и имеют равномерное распределение на отрезке [0;1]. Найти плотности распределения величин а) кси1-кси2 б) кси1/кси2.