Опубликован: 09.11.2009 | Доступ: свободный | Студентов: 3659 / 734 | Оценка: 4.66 / 4.45 | Длительность: 54:13:00
Специальности: Экономист
Лекция 2:

Основы вероятностно-статистических методов описания неопределенностей

Дисперсия случайной величины. Математическое ожидание показывает, вокруг какой точки группируются значения случайной величины. Необходимо также уметь измерить изменчивость случайной величины относительно математического ожидания. Выше показано, что M[(X-a)^2] достигает минимума по a при a=M(X). Поэтому за показатель изменчивости случайной величины естественно взять именно M[(X-M(X))^2].

Определение 5. Дисперсией случайной величины X называется число \sigma^2=D(X)=M\left[(X-M(X))^2\right].

Установим ряд свойств дисперсии случайной величины, постоянно используемых в вероятностно-статистических методах принятия решений.

Утверждение 8. Пусть X - случайная величина, a и b - некоторые числа, Y = aX + b. Тогда D(Y) = a^2D(X).

Как следует из утверждений 3 и 5, M(Y) = aM(X) + b. Следовательно, D(Y)=M[(Y-M(Y))^2] = M[(aX + b - aM(X) - b)^2] = M[a^2(X - M(X))^2]. Поскольку постоянный множитель можно выносить за знак суммы, то M[a^2(X - M(X))^2] = a^2 M[(X - M(X))^2] = a^2 D(X).

Утверждение 8 показывает, в частности, как меняется дисперсия результата наблюдений при изменении начала отсчета и единицы измерения. Оно дает правило преобразования расчетных формул при переходе к другим значениям параметров сдвига и масштаба.

Утверждение 9. Если случайные величины X и Y независимы, то дисперсия их суммы X+Y равна сумме дисперсий: D(X+Y)=D(X)+D(Y).

Для доказательства воспользуемся тождеством

(X+Y- (M(X)+M(Y))^2 = (X-M(X))^2 + 2(X-M(X))(Y-M(Y)) + (Y-M(Y))^2,

которое вытекает из известной формулы элементарной алгебры (a+b)^2 = a^2 + 2ab + b^2 при подстановке a = X-M(X) и b=Y-M(Y). Из утверждений 3 и 5 и определения дисперсии следует, что

D(X+Y)=D(X)+D(Y)+2M\{(X-M(X))(Y-M(Y))\}.

Согласно утверждению 6 из независимости X и Y вытекает независимость X-M(X) и Y-M(Y). Из утверждения 7 следует, что

M\{(X-M(X))(Y-M(Y))\}= M(X-M(X))M(Y-M(Y)).

Поскольку M(X-M(X))=0 (см. утверждение 3), то правая часть последнего равенства равна 0, откуда с учетом двух предыдущих равенств и следует заключение утверждения 9.

Утверждение 10. Пусть X_1, X_2,..., X_k - попарно независимые случайные величины (т.е. X_i и X_j независимы, если i\ne j ). Пусть Y_k - их сумма, Y_k = X_1+X_2+...+X_k. Тогда математическое ожидание суммы равно сумме математических ожиданий слагаемых - M(Y_k)=M(X_1)+M(X_2)+...+M(X_k). Дисперсия суммы равна сумме дисперсий слагаемых, D(Y_k)=D(X_1)+D(X_2)+...+D(X_k).

Соотношения, сформулированные в утверждении 10, являются основными при изучении выборочных характеристик, поскольку результаты наблюдений или измерений, включенные в выборку, обычно рассматриваются в математической статистике, теории принятия решений и эконометрике как реализации независимых случайных величин.

Для любого набора числовых случайных величин (не только независимых) математическое ожидание их суммы равно сумме их математических ожиданий. Это утверждение является обобщением утверждения 5. Строгое доказательство легко проводится методом математической индукции.

При выводе формулы для дисперсии D(Y_k) воспользуемся следующим свойством символа суммирования:

\left(\sum_{1\le i\le k} a_i\right)^2=
\left(\sum_{1\le i\le k} a_i\right)\left(\sum_{1\le j\le k} a_i\right)=
\sum_{1\le i\le k,1\le j\le k}a_i a_j.

Положим a_i = X_i - M(X_i), получим

\begin{gathered}
(X_1+X_2+...+X_k-M(X_1)-M(X_2)-...-M(X_k))^2=\\
=\sum_{1\le i\le k,1\le j\le k}(X_i-M(X_i))(X_j-M(X_j)).
\end{gathered}

Воспользуемся теперь тем, что математическое ожидание суммы равно сумме математических ожиданий:

D(Y_k)=\sum_{1\le i\le k,1\le j\le k}M\{(X_i)-M(X_i)(X_j-M(X_j))\}. ( 8)

Как показано при доказательстве утверждения 9, из попарной независимости рассматриваемых случайных величин следует, что M\{(X_i - M(X_i))(X_i - M(X_i))\}=0 при i\ne j. Следовательно, в сумме (8) остаются только члены с i=j, а они равны как раз D(X_i).

Полученные в утверждениях 8-10 фундаментальные свойства таких характеристик случайных величин, как математическое ожидание и дисперсия, постоянно используются практически во всех вероятностно-статистических моделях реальных явлений и процессов.

Пример 9. Рассмотрим событие A и случайную величину X такую, что X(\omega)=1, если \omega\in A, и X(\omega)=0 в противном случае, т.е. если \omega\in\Omega\backslash A. Покажем, что M(X) = P(A), D(X)=P(A)(1 - P(A)).

Воспользуемся формулой (5) для математического ожидания. Случайная величина X принимает два значения - 0 и 1, значение 1 с вероятностью P(A) и значение 0 с вероятностью 1 - P(A), а потому M(X)=1\times P(A)+0\times(1-P(A))=P(A). Аналогично (X-M(X))^2=(1-P(A))^2 с вероятностью P(A) и (X-M(X))^2=(0-P(A))^2 с вероятностью 1-P(A), а потому D(A)=(1-P(A))^2 P(A)+(P(A))(1-P(A)). Вынося общий множитель, получаем, что D(A)=P(A)(1-P(A)).

Пример 10. Рассмотрим k независимых испытаний, в каждом из которых некоторое событие A может наступить, а может и не наступить. Введем случайные величины X_1, X_2,..,X_k следующим образом: X_i(\omega)=1, если в i -ом испытании событие A наступило, и X_i(\omega)=0 - в противном случае. Тогда случайные величины X_1, X_2, ..., X_k попарно независимы (см. пример 7). Как показано в примере 9, M(X_i)=p, D(X_i)=p(1–p), где p=P(A). Иногда p называют "вероятностью успеха" - в случае, если наступление события A рассматривается как "успех".

Случайная величина B=X_1+X_2+...+X_k называется биномиальной. Ясно, что 0\le B\le k при всех возможных исходах опытов. Чтобы найти распределение B, т.е. вероятности P(B=a) при a=0,1,...,k, достаточно знать p - вероятность наступления рассматриваемого события в каждом из опытов. Действительно, случайное событие B=a осуществляется тогда и только тогда, когда событие A наступает ровно при a испытаниях. Если известны номера всех этих испытаний (т.е. номера в последовательности испытаний), то вероятность одновременного осуществления в a опытах события A и в k-a опытах противоположного ему - это вероятность произведения k независимых событий. Вероятность произведения равна произведению вероятностей, т.е. p^a(1–p)^{k-a}. Сколькими способами можно задать номера a испытаний из k? Это {k\choose a} - число сочетаний из k элементов по a, рассматриваемое в комбинаторике. Как известно,

{k\choose a}=
\frac{k!}{a!(k-a)!},

где символом k! обозначено произведение всех натуральных чисел от 1 до k, т.е. k!=1\cdot 2\cdot ...\cdot k (дополнительно принимают, что 0! = 1). Из сказанного следует, что биномиальное распределение, т.е. распределение биномиальной случайной величины, имеет вид

P(B=a)={k\choose a}p^a(1-p)^{k-a}.

Название "биномиальное распределение" основано на том, что P(B=a) является членом с номером (а+1) в разложении по биному Ньютона

(A+C)^k=\sum_{0\le j\le k}
{k\choose j} A^{k-j}C^j,

если положить A=1–p,C=p. Тогда при j=a получим

{k\choose j}
A^{k-j}C^j=P(B=a).

Для числа сочетаний из k элементов по a, кроме \left(\begin{gathered}k\\a\end{gathered}\right), используют обозначение C_k^a.

Из утверждения 10 и расчетов примера 9 следует, что для случайной величины B, имеющей биномиальное распределение, математическое ожидание и дисперсия выражаются формулами

M(B)=kp,D(B)=kp(1-p),

поскольку B является суммой k независимых случайных величин с одинаковыми математическими ожиданиями и дисперсиями, найденными в примере 9.

Неравенства Чебышева. Выше обсуждалась задача проверки того, что доля дефектной продукции в партии равна определенному числу. Для демонстрации вероятностно-статистического подхода к проверке подобных утверждений являются полезными неравенства, впервые примененные в теории вероятностей великим русским математиком Пафнутием Львовичем Чебышевым (1821–1894) и потому носящие его имя. Эти неравенства широко используются в теории математической статистики, а также непосредственно применяются в ряде практических задач принятия решений. Например, в задачах статистического анализа технологических процессов и качества продукции в случаях, когда явный вид функции распределения результатов наблюдений неизвестен (см. ниже, где, в частности, они применяются в задаче исключения резко отклоняющихся результатов наблюдений).

Первое неравенство Чебышева. Пусть X - неотрицательная случайная величина (т.е. X(\omega)\ge 0 для любого \omega\in\Omega ). Тогда для любого положительного числа a справедливо неравенство

P(X\ge a)\le\frac{M(X)}{a}.

Доказательство. Все слагаемые в правой части формулы (4), определяющей математическое ожидание, в рассматриваемом случае неотрицательны. Поэтому при отбрасывании некоторых слагаемых сумма не увеличивается. Оставим в сумме только те члены, для которых X(\omega)\ge a. Получим, что

M(X)\ge\sum_{\omega:X(\omega)\ge a}X(\omega)P(\omega). ( 9)

Для всех слагаемых в правой части (9) – X(\omega)\ge a, поэтому

\sum_{\omega:X(\omega)\ge a}X(\omega)P(\omega)\ge a
\sum_{\omega:X(\omega)\ge a}P(\omega)=aP(X\ge a). ( 10)

Из (9) и (10) следует требуемое.

Второе неравенство Чебышева. Пусть Xслучайная величина. Для любого положительного числа a справедливо неравенство

P(|X-M(X)|\ge a)\le\frac{D(X)}{a^2}.

Это неравенство содержалось в работе П.Л.Чебышева "О средних величинах", доложенной Российской академии наук 17 декабря 1866 г. и опубликованной в следующем году.

Для доказательства второго неравенства Чебышева рассмотрим случайную величину Y=(X–M(X))^2. Она неотрицательна, и потому для любого положительного числа b, как следует из первого неравенства Чебышева, справедливо неравенство

P(Y\ge b)\le\frac{M(Y)}{b}=\frac{D(X)}{b}.

Положим b=a^2. Событие \{Y\ge b\} совпадает с событием \{|X-M(X)|\ge a\}, а потому

P(|X-M(X)|\ge a)=P(Y\gea^2)\le\frac{D(X)}{a^2},

что и требовалось доказать.

Пример 11. Можно указать неотрицательную случайную величину X и положительное число a такие, что первое неравенство Чебышева обращается в равенство.

Достаточно рассмотреть X(\omega)=a. Тогда M(X)=a, M(X)/a=1 и P(a\ge a)=1, т.е. P(X\ge a)=M(X)/a=1.

Следовательно, первое неравенство Чебышева в его общей формулировке не может быть усилено. Однако для подавляющего большинства случайных величин, используемых при вероятностно-статистическом моделировании процессов принятия решений, левые части неравенств Чебышева много меньше соответствующих правых частей.

Пример 12. Может ли первое неравенство Чебышева обращаться в равенство при всех a? Оказывается, нет. Покажем, что для любой неотрицательной случайной величины с ненулевым математическим ожиданием можно найти такое положительное число a, что первое неравенство Чебышева является строгим.

Действительно, математическое ожидание неотрицательной случайной величины либо положительно, либо равно 0. В первом случае возьмем положительное a, меньшее положительного числа M(X), например, положим a=M(X)/2. Тогда M(X)/a больше 1, в то время как вероятность события не может превышать 1, а потому первое неравенство Чебышева является для этого a строгим. Второй случай исключается условиями примера 11.

Отметим, что во втором случае равенство 0 математического ожидания влечет тождественное равенство 0 случайной величины. А для такой случайной величины при любом положительном a и левая и правая части первого неравенства Чебышева равны 0.

Можно ли в формулировке первого неравенства Чебышева отбросить требование неотрицательности случайной величины X? А требование положительности a? Легко видеть, что ни одно из двух требований не может быть отброшено, поскольку иначе правая часть первого неравенства Чебышева может стать отрицательной.

Закон больших чисел. Неравенство Чебышева позволяет доказать замечательный результат, лежащий в основе математической статистики – закон больших чисел. Из него вытекает, что выборочные характеристики при возрастании числа опытов приближаются к теоретическим, а это дает возможность оценивать параметры вероятностных моделей по опытным данным. Без закона больших чисел не было бы большей части прикладной математической статистики.

Теорема Чебышева. Пусть случайные величины X_1, X_2,..., X_k попарно независимы и существует число C такое, что D(X_i)\le C при всех i = 1, 2, ..., k. Тогда для любого положительного \varepsilon выполнено неравенство

P
\left\{
\left|
\frac{X_1+X_2+...+X_k}{k}-\frac{M(X_1)+M(X_2)+...+M(X_k)}{k}
\right|
\ge\varepsilon
\right\}
\le\frac{C}{k\varepsilon^2}. ( 11)

Доказательство. Рассмотрим случайные величины Y_k=X_1+X_2+...+Х_k и Z_k = Y_k/k. Тогда согласно утверждению 10

M(Y_k)=М(X_1)+M(X_2)+...+M(X_k), D(Y_k)=D(X_1)+D(X_2)+...+D(X_k).

Из свойств математического ожидания следует, что M(Z_k)=M(Y_k)/k, а из свойств дисперсии – D(Z_k)=D(Y_k)/k^2. Таким образом,

\begin{gathered}
M(Z_k)=\{M(X_1)+M(X_2)+...+M(X_k)\}/k, \\
D(Z-k)=\{D(X_1)+D(X_2)+...+D(X_k)\}/k^2.
\end{gathered}

Из условия теоремы Чебышева следует, что

D(Z_k)\le\frac{Ck}{k^2}=\frac{C}{k}.

Применим к Z_k второе неравенство Чебышева. Получим для стоящей в левой части неравенства (11) вероятности оценку

P\{|Z_k-M(Z_k)|\ge\varepsilon\}\le\frac{D(Z_k)}{\varepsilon^2}\le\frac{C}{k\varepsilon^2},

что и требовалось доказать.

Эта теорема была получена П.Л.Чебышевым в той же работе 1867 г. "О средних величинах", что и неравенства Чебышева.

Пример 13. Пусть C=1, \varepsilon=0,1. При каких k правая часть неравенства (11) не превосходит 0,1? 0,05? 0,00001?

В рассматриваемом случае правая часть неравенства (11) равна 100/k. Она не превосходит 0,1, если k не меньше 1000, не превосходит 0,05, если k не меньше 2000, не превосходит 0,00001, если k не меньше 10 000 000.

Правая часть неравенства (11), а вместе с ней и левая, при возрастании k и фиксированных C и \varepsilon убывает, приближаясь к 0. Следовательно, вероятность того, что среднее арифметическое независимых случайных величин отличается от своего математического ожидания менее чем на \varepsilon, приближается к 1 при возрастании числа случайных величин, причем при любом \varepsilon. Это утверждение называют ЗАКОНОМ БОЛЬШИХ ЧИСЕЛ.

Наиболее важен для вероятностно-статистических методов принятия решений (и для математической статистики в целом) случай, когда все X_i, i=1,2,..., имеют одно и то же математическое ожидание M(X_1) и одну и ту же дисперсию \sigma^2=D(X_1). В качестве замены (оценки) неизвестного исследователю математического ожидания используют выборочное среднее арифметическое

\overline{X}=\frac{X_1+X_2+...+X_k}{k}.

Из закона больших чисел следует, что \overline{X} при увеличении числа опытов (испытаний, измерений) сколь угодно близко приближается к M(X_1), что записывают так:

\overline{X}\stackrel{P}{\longrightarrow} M(X_1)

Здесь знак \stackrel{P}{\longrightarrow} означает "сходимость по вероятности". Обратим внимание, что понятие "сходимость по вероятности" отличается от понятия "переход к пределу" в математическом анализе. Напомним, что последовательность b_n имеет предел b при n\rightarrow\infty, если для любого сколь угодно малого \delta>0 существует число n(\delta) такое, что при любом n>n(\delta) справедливо утверждение: b_n\in(b-\delta;b+\delta). При использовании понятия "сходимость по вероятности" элементы последовательности предполагаются случайными, вводится еще одно сколь угодно малое число \varepsilon>0 и утверждение b_n\in(b-\delta;b+\delta) предполагается выполненным не наверняка, а с вероятностью не менее 1-\varepsilon.

В начале лекции отмечалось, что с точки зрения ряда естествоиспытателей вероятность события A – это число, к которому приближается отношение количества осуществлений события A к количеству всех опытов при безграничном увеличении числа опытов. Известный математик Якоб Бернулли (1654–1705), живший в городе Базель в Швейцарии, в самом конце XVII века доказал это утверждение в рамках математической модели (опубликовано доказательство было лишь после его смерти в 1713 году). Современная формулировка теоремы Бернулли такова.

Теорема Бернулли. Пусть m – число наступлений события A в k независимых (попарно) испытаниях и p есть вероятность наступления события A в каждом из испытаний. Тогда при любом \varepsilon>0 справедливо неравенство

P
\left\{
\left|
\frac{m}{k}-p
\right|
\ge\varepsilon
\right\}
\le\frac{p(1-p)}{k\varepsilon^2} ( 12)

Доказательство. Как показано в примере 10, случайная величина m имеет биномиальное распределение с вероятностью успеха p и является суммой k независимых случайных величин X_i, i=1,2...,k, каждое из которых равно 1 с вероятностью p и 0 с вероятностью 1–р, т.е. m=X_1+X_2+...+X_k. Применим к X_1,X_2,...,X_k теорему Чебышева с C=p(1–p) и получим требуемое неравенство (12).

Теорема Бернулли дает возможность связать математическое определение вероятности (по А.Н. Колмогорову) с определением ряда естествоиспытателей (по Р. Мизесу (1883–1953), согласно которому вероятность есть предел частоты в бесконечной последовательности испытаний). Продемонстрируем эту связь. Для этого сначала отметим, что

p(1-p)\le\frac14

при всех p. Действительно,

\frac14-p(1-p)=
\left(
p-\frac12
\right)^2
\ge 0.

Следовательно, в теореме Чебышева можно использовать C = 1/4. Тогда при любом p и фиксированном \varepsilon правая часть неравенства (12) при возрастании k приближается к 0, что и доказывает согласие математического определения в рамках вероятностной модели с мнением естествоиспытателей.

Есть и прямые экспериментальные подтверждения того, что частота осуществления определенных событий близка к вероятности, определенной из теоретических соображений. Рассмотрим бросания монеты. Поскольку и герб, и решетка имеют одинаковые шансы оказаться сверху, то вероятность выпадения герба равна 1/2 из соображений равновозможности. Французский естествоиспытатель XVIII века Бюффон бросил монету 4040 раз, герб выпал при этом 2048 раз. Частота появления герба в опыте Бюффона равна 0,507. Английский статистик К. Пирсон бросил монету 12000 раз и при этом наблюдал 6019 выпадений герба – частота 0,5016. В другой раз он бросил монету 24000 раз, герб выпал 12012 раз – частота 0,5005. Как видим, во всех этих случаях частоты лишь незначительно отличаются от теоретической вероятности 0,5 [ [ 2.3 ] , с.148].

О проверке статистических гипотез. С помощью неравенства (12) можно кое-что сказать по поводу проверки соответствия качества продукции заданным требованиям.

Пусть из 100000 единиц продукции 30000 оказались дефектными. Согласуется ли это с гипотезой о том, что вероятность дефектности равна 0,23? Прежде всего, какую вероятностную модель целесообразно использовать? Принимаем, что проводится сложный опыт, состоящий из 100000 испытаний 100000 единиц продукции на годность. Считаем, что испытания (попарно) независимы и что в каждом испытании вероятность того, что единица продукции является дефектной, равна p. В реальном опыте получено, что событие "единица продукции не является годной" осуществилось 30000 раз при 100000 испытаниях. Согласуется ли это с гипотезой о том, что вероятность дефектности p =0,23?

Для проверки гипотезы воспользуемся неравенством (12). В рассматриваемом случае k = 100000, m = 30000, m/k = 0,3, p = 0,23, m/k – p = 0,07. Для проверки гипотезы поступим так. Оценим вероятность того, что m/k отличается от p так же, как в рассматриваемом случае, или больше, т.е. оценим вероятность выполнения неравенства |m/k – 0,23| \ge 0,07. Положим в неравенстве (12) р = 0,23, \varepsilon= 0,07. Тогда

P
\left\{
\left|
\frac{m}{k}-0,23
\right|
\ge 0,07
\right\}\le
\frac{0,23\cdot 0,77}{0,0049k}\approx\frac{36,11}{k}. ( 13)

При k = 100000 правая часть (13) меньше 1/2500. Значит, вероятность того, что отклонение будет не меньше наблюдаемого, весьма мала. Следовательно, если исходная гипотеза верна, то в рассматриваемом опыте осуществилось событие, вероятность которого меньше 1/2500. Поскольку 1/2500 – очень маленькое число, то исходную гипотезу надо отвергнуть.

Подробнее методы проверки статистических гипотез будут рассмотрены ниже. Здесь отметим, что одна из основных характеристик метода проверки гипотезы – уровень значимости, т.е. вероятность отвергнуть проверяемую гипотезу (ее в математической статистике называют нулевой и обозначают H_0 ), когда она верна. Для проверки статистической гипотезы часто поступают так. Выбирают уровень значимости – малое число \alpha. Если описанная в предыдущем абзаце вероятность меньше \alpha, то гипотезу отвергают, как говорят, на уровне значимости \alpha. Если эта вероятность больше или равна \alpha, то гипотезу принимают. Обычно в вероятностно-статистических методах принятия решений выбирают \alpha =0,05, значительно реже \alpha =0,01 или \alpha =0,1, в зависимости от конкретной практической ситуации. В рассматриваемом случае \alpha, напомним, та доля опытов (т.е. проверок партий по 100000 единиц продукции), в которой мы отвергаем гипотезу H_0:p=0,23, хотя она верна.

Насколько результат проверки гипотезы H_0 зависит от числа испытаний k? Пусть при k = 100, k = 1000, k = 10000 оказалось, что m = 30, m = 300, m = 3000 соответственно, так что во всех случаях m/k = 0,3. Какие значения принимает вероятность

P_k=P
\left\{
\left|
\frac{m}{k}-0,23
\right|\ge 0,07
\right\}

и ее оценка – правая часть формулы (13)?

При k = 100 правая часть (13) равна приблизительно 0,36, что не дает оснований отвергнуть гипотезу. При k = 1000 правая часть (13) равна примерно 0,036. Гипотеза отвергается на уровне значимости \alpha = 0,05 (и \alpha = 0,1), но на основе оценки вероятности с помощью правой части формулы (13) не удается отвергнуть гипотезу на уровне значимости \alpha = 0,01. При k = 10000 правая часть (13) меньше 1/250, и гипотеза отвергается на всех обычно используемых уровнях значимости.

Более точные расчеты, основанные на применении центральной предельной теоремы теории вероятностей (см. ниже), дают Р_{100} = 0,095, Р_{1000} = 0,0000005, так что оценка (13) является в рассматриваемом случае весьма завышенной. Причина в том, что получена она из наиболее общих соображений, применительно ко всем возможным случайным величинам улучшить ее нельзя (см. пример 11 выше), но применительно к биномиальному распределению – можно.

Ясно, что без введения уровня значимости не обойтись, ибо даже очень большие отклонения m/k от р имеют положительную вероятность осуществления. Так, при справедливости гипотезы H_0 событие "все 100000 единиц продукции являются дефектными" отнюдь не является невозможным с математической точки зрения, оно имеет положительную вероятность осуществления, равную 0,23100000, хотя эта вероятность и невообразимо мала.

Аналогично разберем проверку гипотезы о симметричности монеты.

Пример 14. Если монета симметрична, то p = 1/2, где pвероятность выпадения герба. Согласуется ли с этой гипотезой результат эксперимента, в котором при 10000 бросаниях выпало 4000 гербов?

В рассматриваемом случае m/k = 0,4. Положим в неравенстве (12) р = 0,5, \varepsilon = 0,1:

P
\left\{
\left|
\frac{m}{k}-0,5
\right|\ge 0,1
\right\}
\le\frac{0,5\cdot 0,5}{0,01k}=\frac{25}{k}.

При k = 10000 правая часть последнего неравенства равна 1/400. Значит, если исходная гипотеза верна, то в нашем единственном эксперименте осуществилось событие, вероятность которого весьма мала – меньше 1/400. Поэтому исходную гипотезу необходимо отвергнуть.

Если из 1000 бросаний монеты гербы выпали в 400 случаях, то правая часть выписанного выше неравенства равна 1/40. Гипотеза симметричности отклоняется на уровне значимости 0,05 (и 0,1), но рассматриваемые методы не дают возможности отвергнуть ее на уровне значимости 0,01.

Если k = 100, а m = 40, то правая часть неравенства равна 1/4. Оснований для отклонения гипотезы нет. С помощью более тонких методов, основанных на центральной предельной теореме теории вероятностей, можно показать, что левая часть неравенства равна приблизительно 0,05. Это показывает, как важно правильно выбрать метод проверки гипотезы или оценивания параметров. Следовательно, целесообразна стандартизация подобных методов, позволяющая сэкономить усилия, необходимые для сравнения и выбора наилучшего метода, а также избежать устаревших, неверных или неэффективных методов.

Ясно, что даже по нескольким сотням опытов нельзя достоверно отличить абсолютно симметричную монету ( p = 1/2) от несколько несимметричной (для которой, скажем, p = 0,49). Более того, любая реальная монета несколько несимметрична, так что монета с p = 1/2 - математическая абстракция. Между тем в ряде управленческих и производственных ситуаций необходимо осуществить справедливую жеребьевку, а для этого требуется абсолютно симметричная монета. Например, речь может идти об очередности рассмотрения инвестиционных проектов комиссией экспертов, о порядке вызова для собеседования кандидатов на должность, об отборе единиц продукции из партии в выборку для контроля и т.п.

Пример 15. Можно ли с помощью несимметричной монеты получить последовательность испытаний с двумя исходами, каждый из которых имеет вероятность 1/2?

Ответ: да, можно. Приведем способ, предложенный видным польским математиком Гуго Штейнгаузом (1887–1972).

Будем бросать монету два раза подряд и записывать исходы бросаний так (Г – герб, Р – решетка, на первом месте стоит результат первого бросания, на втором – второго): ГР запишем как Г, в то время РГ запишем как Р, а ГГ и РР вообще не станем записывать. Например, если исходы бросаний окажутся такими –

ГР, РГ, ГР, РР, ГР, РГ, ГГ, РГ, РР, РГ,

то запишем их в виде:

Г, Р, Г, Г, Р, Р, Р.

Сконструированная таким образом последовательность обладает теми же свойствами, что и полученная при бросании идеально симметричной монеты, поскольку даже у несимметричной монеты последовательность ГР встречается столь же часто, как и последовательность РГ.

Применим теорему Бернулли и неравенство (12) к обработке реальных данных.

Пример 16. С 1871 г. по 1900 г. в Швейцарии родились 1359671 мальчиков и 1285086 девочек. Совместимы ли эти данные с предположением о том, что вероятность рождения мальчика равна 0,5? А с предположением, что она равна 0,515? Другими словами, требуется проверить нулевые гипотезы H_0:р=0,5 и H_0:р=0,515 с помощью неравенства (12).

Число испытаний равно общему числу рождений, т.е. 1359671 + 1285086 = 2644757. Есть все основания считать испытания независимыми. Число рождений мальчиков составляет приблизительно 0,514 всех рождений. В случае р=1/2 имеем \varepsilon= 0,014, и правая часть неравенства (12) имеет вид

\frac{0,5\times 0,5}{0,014\times 0,014\times 2644757}\approx 0,00001.

Таким образом, гипотезу p=0,5 следует считать несовместимой с приведенными в условии данными. В случае р=0,515 имеем \varepsilon=0,001, и правая часть (12) равна приблизительно 0,1, так что с помощью неравенства (12) отклонить гипотезу H_0:p=0,515 нельзя.

Итак, здесь на основе элементарной теории вероятностей (с конечным пространством элементарных событий) мы сумели построить вероятностные модели для описания проверки качества деталей (единиц продукции) и бросания монет и предложить методы проверки гипотез, относящихся к этим явлениям. В математической статистике есть более тонкие и сложные методы проверки описанных выше гипотез, которыми и пользуются в практических расчетах.

Можно спросить: "В рассмотренных выше моделях вероятности были известны заранее – со слов Струкова или же из-за того, что мы предположили симметричность монеты. А как строить модели, если вероятности неизвестны? Как оценить неизвестные вероятности?" Теорема Бернулли – результат, с помощью которого дается ответ на этот вопрос. Именно, оценкой неизвестной вероятности p является число m/k, поскольку доказано, что при возрастании k вероятность того, что m/k отличается от p более чем на какое-либо фиксированное число, приближается к 0. Оценка будет тем точнее, чем больше k. Более того, можно доказать, что с некоторой точки зрения (см. далее) оценка m/k для вероятности p является наилучшей из возможных (в терминах математической статистики – состоятельной, несмещенной и эффективной).