Опубликован: 09.11.2009 | Доступ: свободный | Студентов: 4080 / 1033 | Оценка: 4.66 / 4.45 | Длительность: 54:13:00
Специальности: Экономист
Лекция 2:

Основы вероятностно-статистических методов описания неопределенностей

Понятие эффективности вводится для несмещенных оценок, для которых M(\theta_n) = \theta для всех возможных значений параметра \theta. Если не требовать несмещенности, то можно указать оценки, при некоторых \theta имеющие меньшую дисперсию и средний квадрат ошибки, чем эффективные.

Пример 8. Рассмотрим "оценку" математического ожидания m_1\equiv 0. Тогда D(m_1)=0, т.е. всегда меньше дисперсии D(\overline{x}) эффективной оценки \overline{x}. Математическое ожидание среднего квадрата ошибки d_n(m_1)=m_2, т.е. при |m|<\sigma/\sqrt{n} имеем d_n(m_1)<d_n(\overline{x}). Ясно, однако, что статистику m_1\equiv 0 бессмысленно рассматривать в качестве оценки математического ожидания m.

Пример 9. Более интересный пример рассмотрен американским математиком Дж. Ходжесом:

T_n=
\left\{
\begin{aligned}
&\overline{x},|\overline{x}|> n^{-\frac14},\\
&0,5\overline{x},|\overline{x}|\le n^{-\frac14}.
\end{aligned}
\right.

Ясно, что T_n - состоятельная, асимптотически несмещенная оценка математического ожидания m, при этом, как нетрудно вычислить,

\lim_{n\rightarrow\infty}nd_n(T_n)=
\left\{
\begin{aligned}
&\sigma^2,m\ne 0,\\
&\frac{\sigma^2}{4},m=0.
\end{aligned}
\right.

Последняя формула показывает, что при m\ne 0 оценка T_n не хуже \overline{x} (при сравнении по среднему квадрату ошибки d_n ), а при m = 0 - в четыре раза лучше.

Подавляющее большинство оценок \theta_n, используемых в вероятностно-статистических методах принятия решений, являются асимптотически нормальными, т.е. для них справедливы предельные соотношения:

\lim_{n\rightarrow\infty}P
\left\{
\frac{\theta_n-M(\theta_n)}{\sqrt{D(\theta_n)}}<x
\right\}
=\Phi(x)
для любого x, где \Phi(x) - функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1. Это означает, что для больших объемов выборок (практически - несколько десятков или сотен наблюдений) распределения оценок полностью описываются их математическими ожиданиями и дисперсиями, а качество оценок - значениями средних квадратов ошибок d_n(\theta_n).

Наилучшими асимптотически нормальными оценками, сокращенно НАН-оценками, называются те, для которых средний квадрат ошибки d_n(\theta_n) принимает при больших объемах выборки наименьшее возможное значение, т.е. величина с=с(\theta_n,\theta) в формуле (4) минимальна. Ряд видов оценок - так называемые одношаговые оценки и оценки максимального правдоподобия - являются НАН-оценками, именно они обычно используются в вероятностно-статистических методах принятия решений.

Какова точность оценки параметра? В каких границах он может лежать? В нормативно-технической и инструктивно-методической документации, в таблицах и программных продуктах наряду с алгоритмами расчетов точечных оценок даются правила нахождения доверительных границ. Они и указывают точность точечной оценки. При этом используются такие термины, как доверительная вероятность, доверительный интервал. Если речь идет об оценивании нескольких числовых параметров, или же функции, упорядочения и т.п., то говорят об оценивании с помощью доверительной области.

Доверительная область - это область в пространстве параметров, в которую с заданной вероятностью входит неизвестное значение оцениваемого параметра распределения. "Заданная вероятность" называется доверительной вероятностью и обычно обозначается \gamma. Пусть \Theta - пространство параметров. Рассмотрим статистику \Theta_1 = \Theta_1(x_1, x_2,..., x_n) - функцию от результатов наблюдений x_1, x_2,..., x_n, значениями которой являются подмножества пространства параметров \Theta. Так как результаты наблюдений - случайные величины, то \Theta_1 - также случайная величина, значения которой - подмножества множества \Theta, т.е. \Theta_1 - случайное множество. Напомним, что множество - один из видов объектов нечисловой природы, случайные множества изучают в теории вероятностей и статистике объектов нечисловой природы.

В ряде литературных источников, к настоящему времени во многом устаревших, под случайными величинами понимают только те из них, которые в качестве значений принимают действительные числа. Согласно справочнику академика РАН Ю.В.Прохорова и проф. Ю.А.Розанова [ [ 2.17 ] ] случайные величины могут принимать значения из любого множества. Так, случайные вектора, случайные функции, случайные множества, случайные ранжировки (упорядочения) - это отдельные виды случайных величин. Используется и иная терминология: термин "случайная величина" сохраняется только за числовыми функциями, определенными на пространстве элементарных событий, а в случае иных областей значений используется термин "случайный элемент". (Замечание для математиков: все рассматриваемые функции, определенные на пространстве элементарных событий, предполагаются измеримыми.)

Статистика \Theta_1 называется доверительной областью, соответствующей доверительной вероятности \gamma, если

P\{\theta\in\Theta_1(x_1,x_2,...,x_n)\}=\gamma. ( 5)

Ясно, что этому условию удовлетворяет, как правило, не одна, а много доверительных областей. Из них выбирают для практического применения какую-либо одну, исходя из дополнительных соображений, например, из соображений симметрии или минимизируя объем доверительной области, т.е. меру множества \Theta_1.

При оценке одного числового параметра в качестве доверительных областей обычно применяют доверительные интервалы (в том числе лучи), а не иные типа подмножеств прямой. Более того, для многих двухпараметрических и трехпараметрических распределений (нормальных, логарифмически нормальных, Вейбулла-Гнеденко, гамма-распределений и др.) обычно используют точечные оценки и построенные на их основе доверительные границы для каждого из двух или трех параметров отдельно. Это делают для удобства пользования результатами расчетов: доверительные интервалы легче применять, чем фигуры на плоскости или тела в трехмерном пространстве.

Как следует из сказанного выше, доверительный интервал - это интервал, который с заданной вероятностью накроет неизвестное значение оцениваемого параметра распределения. Границы доверительного интервала называют доверительными границами. Доверительная вероятность \gamma - вероятность того, что доверительный интервал накроет действительное значение параметра, оцениваемого по выборочным данным. Оцениванием с помощью доверительного интервала называют способ оценки, при котором с заданной доверительной вероятностью устанавливают границы доверительного интервала.

Для числового параметра \theta рассматривают верхнюю доверительную границу \theta_В, нижнюю доверительную границу \theta_H и двусторонние доверительные границы - верхнюю \theta_{1В} и нижнюю \theta_{1H}. Все четыре доверительные границы - функции от результатов наблюдений x_1, x_2,..., x_n и доверительной вероятности \gamma.

Верхняя доверительная граница \theta_B - случайная величина \theta_B = \theta_B(x_1, x_2,..., x_n; \gamma), для которой Р(\theta\le\theta_B)=\gamma, где \theta - истинное значение оцениваемого параметра. Доверительный интервал в этом случае имеет вид (-\infty; \theta_B].

Нижняя доверительная граница \theta_H - случайная величина \theta_H = \theta_H(x_1, x_2,..., x_n; \gamma), для которой P(\theta\ge\theta_H)=\gamma, где \theta - истинное значение оцениваемого параметра. Доверительный интервал в этом случае имеет вид [\theta_H; +\infty).

Двусторонние доверительные границы - верхняя \theta_{1B} и нижняя \theta_{1H} - это случайные величины \theta_{1B} = \theta_{1B}(x_1, x_2,..., x_n; \gamma) и \theta_{1H} = \theta_{1H}(x_1, x_2,..., x_n; \gamma), такие, что P(\theta_{1H}\le\theta\le\theta_{1B})=\gamma, где \theta - истинное значение оцениваемого параметра. Доверительный интервал в этом случае имеет вид [\theta_{1H}; \theta_{1B}].

Вероятности, связанные с доверительными границами, можно записать в виде частных случаев формулы (5):

P\{\theta\in(-\infty;\theta_B]\}=\gamma,P\{\theta\in[\theta_H;+\infty)\}
=\gamma,P\{\theta\in[\theta_{1H};\theta_{1B}]\}=\gamma.

В нормативно-технической и инструктивно-методической документации, научной и учебной литературе используют два типа правил определения доверительных границ - построенных на основе точного распределения и построенных на основе асимптотического распределения некоторой точечной оценки \theta_n параметра \theta. Рассмотрим примеры.

Пример 10. Пусть x_1, x_2,..., x_n - выборка из нормального закона N(m,\sigma), параметры m и \sigma неизвестны. Укажем доверительные границы для m.

Известно [ [ 2.10 ] ], что случайная величина

Y=\sqrt{n}\frac{\overline{x}-m}{s_0}
имеет распределение Стьюдента с (n-1) степенью свободы, где \overline{x} - выборочное среднее арифметическое и s_0 - выборочное среднее квадратическое отклонение. Пусть t_{\gamma}(n-1) и t_{1-\gamma}(n-1) - квантили указанного распределения порядка \gamma и 1-\gamma соответственно. Тогда
P\{Y\t_{\gamma}(n-1)\}=\gamma,P\{Y\ge t_{1-\gamma}(n-1)\}=\gamma.

Следовательно,

P\left\{m\ge\overline{x}-t_{\gamma}(n-1)\frac{s_0}{\sqrt{n}}\right\}=\gamma,
т.е. в качестве нижней доверительной границы \theta_H, соответствующей доверительной вероятности \gamma, следует взять
\theta_H(x_1,x_2,...,x_n;\gamma)=\overline{x}-t_{\gamma}(n-1)\frac{s_0}{\sqrt{n}}. ( 6)

Аналогично получаем, что

P\left\{m\le\overline{x}-t_{1-\gamma}(n-1)\frac{s_0}{\sqrt{n}}\right\}=\gamma,

Поскольку распределение Стьюдента симметрично относительно 0, то t_{1-\gamma}(n-1)=-t_{\gamma}(n-1). Следовательно, в качестве верхней доверительной границы \theta_B для m, соответствующей доверительной вероятности \gamma, следует взять

\theta_B(x_1,x_2,...,x_n;\gamma)=\overline{x}+t_{\gamma}(n-1)\frac{s_0}{\sqrt{n}}. ( 7)

Как построить двусторонние доверительные границы? Положим

\theta_{1H}=\theta_H(x_1,x_2,...,x_n;\gamma),\theta_{1B}=\theta_B(x_1,x_2,...,x_n;\gamma_2),
где \theta_{1H} и \theta_{1B} заданы формулами (6) и (7) соответственно. Поскольку неравенство \theta_{1H}\le m\le \theta_{1B} выполнено тогда и только тогда, когда
t_{\gamma_2}(n-1)\ge Y\ge t_{1-\gamma_1}(n-1),\;\text{то}\; P\{\theta_{1H}\le m\le\theta_{1B}\}=\gamma_1+\gamma_2 -1,
(в предположении, что \gamma_1 > 0,5; \gamma_2 > 0,5 ). Следовательно, если \gamma = \gamma_1 + \gamma_2 - 1, то \theta_{1H} и \theta_{1B} - двусторонние доверительные границы для m, соответствующие доверительной вероятности \gamma. Обычно полагают \gamma_1 = \gamma_2, т.е. в качестве двусторонних доверительных границ \theta_{1H} и \theta_{1B}, соответствующих доверительной вероятности \gamma, используют односторонние доверительные границы \theta_H и \theta_B, соответствующие доверительной вероятности (1+\gamma)/2.

Другой вид правил построения доверительных границ для параметра \theta основан на асимптотической нормальности некоторой точечной оценки \theta_n этого параметра. В вероятностно-статистических методах принятия решений используют, как уже отмечалось, несмещенные или асимптотически несмещенные оценки \theta_n, для которых смещение либо равно 0, либо при больших объемах выборки пренебрежимо мало по сравнению со средним квадратическим отклонением оценки \theta_n. Для таких оценок при всех x

\lim_{n\rightarrow\infty}P
\left\{
\frac{\theta_n-\theta}{\sqrt{D(\theta_n)}}\le x
\right\}
\Phi(x),
где \Phi(x) - функция нормального распределения N(0;1). Пусть u_{\gamma} - квантиль порядка \gamma распределения N(0;1). Тогда
\lim_{n\rightarrow\infty}P
\left\{
\frac{\theta_n-\theta}{\sqrt{D(\theta_n)}}\le u_{\gamma}
\right\}=\gamma ( 8)

Поскольку неравенство

\frac{\theta_n-\theta}{\sqrt{D(\theta_n)}}\le u_{\gamma}
равносильно неравенству
\theta_n-u_{\gamma}\sqrt{D(\theta_n)}\le\theta,
то в качестве \theta_H можно было бы взять левую часть последнего неравенства. Однако точное значение дисперсии D(\theta_n) обычно неизвестно. Зато часто удается доказать, что дисперсия оценки имеет вид
D(\theta_n)=\frac{h(\theta)}{n}
(с точностью до пренебрежимо малых при росте n слагаемых), где h(\theta) - некоторая функция от неизвестного параметра \theta. Справедлива (см. 4.3) теорема о наследовании сходимости [ 12, \S 2.4], согласно которой при подстановке в h(\theta) оценки \theta_n вместо \theta соотношение (8) остается справедливым, т.е.
\lim_{n\rightarrow\infty}P
\left\{
\theta_n-u_{\gamma}\frac{\sqrt{h(\theta_n)}}{\sqrt{n}}\le\theta
\right\}
=\gamma.

Следовательно, в качестве приближенной нижней доверительной границы следует взять

\theta_H=\theta_n-u_{\gamma}\frac{\sqrt{h(\theta_n)}}{\sqrt{n}},
а в качестве приближенной верхней доверительной границы -
\theta_B=\theta_n+u_{\gamma}\frac{\sqrt{h(\theta_n)}}{\sqrt{n}}.

С ростом объема выборки качество приближенных доверительных границ улучшается, так как вероятности событий \{\theta\ge\theta_H\} и \{\theta\le\theta_B\} стремятся к \gamma. Для построения двусторонних доверительных границ поступают аналогично правилу, указанному выше в примере 10 для интервального оценивания параметра m нормального распределения. А именно, используют односторонние доверительные границы, соответствующие доверительной вероятности (1+\gamma)/2.

При обработке экономических, управленческих или технических статистических данных обычно используют значение доверительной вероятности \gamma=0,95. Применяют также значения \gamma=0,99 или \gamma=0,90. Иногда встречаются значения \gamma=0,80, \gamma=0,975, \gamma=0,98 и др.

Для дискретных распределений, таких, как биномиальное, гипергеометрическое или распределение Пуассона (а также распределения статистики Колмогорова

D_n=\sqrt{n}\sup_x|F_n(x)-F_0(x)|
и других непараметрических статистик), функции распределения имеют скачки. Поэтому для заданного заранее значения \gamma, например, \gamma=0,95, нельзя указать доверительные границы, поскольку уравнения, с помощью которых вводятся доверительные границы, не имеют ни одного решения. Так, рассмотрим биномиальное распределение
P(Y=y|p,n)={n\choose y}p^y(1-p)^{n-y}, y=0,1,2,...,n,
где Y - число осуществлений события, n - объем выборки. Для него нельзя указать статистику K(Y,n) такую, что
P\{p\le K(Y,n)\}=\gamma,
поскольку K(Y,n) - функция от Y и может принимать не больше значений, чем принимает Y, т.е. n+1, а для \gamma имеется бесконечно много возможных значений - столько, сколько точек на отрезке. Сказанное означает, что верхней доверительной границы в случае биномиального распределения не существует.

Для дискретных распределений приходится изменить определения доверительных границ. Покажем изменения на примере биномиального распределения. Так, в качестве верхней доверительной границы \theta_B используют наименьшее K(Y,n) такое, что

P\{p\le K(Y,n)\}\ge\gamma.

Аналогичным образом поступают для других доверительных границ и других распределений. Необходимо иметь в виду, что при небольших n и p истинная доверительная вероятность P\{p\le K(Y,n)\} может существенно отличаться от номинальной \gamma, как это подробно продемонстрировано в работе [ [ 2.4 ] ]. Поэтому наряду с величинами типа K(Y,n) (т.е. доверительных границ) при разработке таблиц и компьютерных программ необходимо предусматривать возможность получения и величин типа P\{p\le K(Y,n)\} (т.е. достигаемых доверительных вероятностей).

Основные понятия, используемые при проверке гипотез. Статистическая гипотеза - любое предположение, касающееся неизвестного распределения случайных величин (элементов). Приведем формулировки нескольких статистических гипотез:

  1. Результаты наблюдений имеют нормальное распределение с нулевым математическим ожиданием.
  2. Результаты наблюдений имеют функцию распределения N(0,1).
  3. Результаты наблюдений имеют нормальное распределение.
  4. Результаты наблюдений в двух независимых выборках имеют одно и то же нормальное распределение.
  5. Результаты наблюдений в двух независимых выборках имеют одно и то же распределение.

Различают нулевую и альтернативную гипотезы. Нулевая - гипотеза, подлежащая проверке. Альтернативная - каждая допустимая гипотеза, отличная от нулевой. Нулевую гипотезу обозначают H_0, альтернативную - H_1 (от англ. Hypothesis - "гипотеза").

Выбор тех или иных нулевых или альтернативных гипотез определяется стоящими перед менеджером, экономистом, инженером, исследователем прикладными задачами. Рассмотрим примеры.

Пример 11. Пусть нулевая гипотеза - гипотеза 2 из приведенного выше списка, а альтернативная - гипотеза 1. Сказанное означает, что реальная ситуация описывается вероятностной моделью, согласно которой результаты наблюдений рассматриваются как реализации независимых одинаково распределенных случайных величин с функцией распределения N(0,\sigma), где параметр \sigma неизвестен статистику. В рамках этой модели нулевую гипотезу записывают так:

H_0:\sigma=1,\;\text{а альтернативную: }H_1:\sigma\ne 1.

Пример 12. Пусть нулевая гипотеза - по-прежнему гипотеза 2 из приведенного выше списка, а альтернативная - гипотеза 3 из того же списка. Тогда в вероятностной модели управленческой, экономической или производственной ситуации предполагается, что результаты наблюдений образуют выборку из нормального распределения N(m,\sigma) при некоторых значениях m и \sigma. Гипотезы записываются так:

H_0:m=0,\sigma=1
(оба параметра принимают фиксированные значения);

H_1:m\ne 0\;\textit{и/или }\sigma\ne 1 (т.е. либо m\ne 0, либо \sigma\ne 1, либо и m\ne 0, и \sigma\ne 1 ).

Пример 13. Пусть H_0 - гипотеза 1 из приведенного выше списка, а H_1 - гипотеза 3 из того же списка. Тогда вероятностная модель - та же, что в примере 12,

\begin{aligned}
&H_0:m=0,\sigma\text{ произвольно};\\
&H_1:m\ne 0,\sigma\text{ произвольно}.
\end{aligned}

Пример 14. Пусть H_0 - гипотеза 2 из приведенного выше списка, а согласно H_1 результаты наблюдений имеют функцию распределения F(x), не совпадающую с функцией стандартного нормального распределения \Phi(x). Тогда H_0:F(x)=\Phi(x) при всех x (записывается как F(х)\equiv\Phi(x) ); H_1:F(x_0)\ne \Phi(x_0) при некотором x_0 (т.е. неверно, что F(x)\equiv\Phi(x) ).

Примечание. Здесь \equiv - знак тождественного совпадения функций (т.е. совпадения при всех возможных значениях аргумента x ).

Пример 15. Пусть H_0 - гипотеза 3 из приведенного выше списка, а согласно H_1 результаты наблюдений имеют функцию распределения F(x), не являющуюся нормальной. Тогда

H_0:F(x)\equiv\Phi\left(\frac{x-m}{\sigma}\right)\text{ при некоторых } m,\sigma;
H_1:F(x) такова, что для любых m,\sigma найдется x_0=x_0(m,\sigma) такое, что F(x_0)\ne\Phi\left(\frac{x_0-m}{\sigma}\right).

Пример 16. Пусть H_0 - гипотеза 4 из приведенного выше списка, согласно вероятностной модели две выборки извлечены из совокупностей с функциями распределения F(x) и G(x), являющихся нормальными с параметрами m_1,\sigma_1 и m_2,\sigma_2 соответственно, а H_1 - отрицание H_0. Тогда H_0:m_1=m_2,\sigma_1=\sigma_2, причем m_1 и \sigma_1 произвольны; H_1:m_1\ne m_2 и/или \sigma_1\ne\sigma_2.

Пример 17. Пусть в условиях примера 16 дополнительно известно, что \sigma_1=\sigma_2. Тогда H_0:m_1=m_2, \sigma>0, причем m_1 и \sigma произвольны; H_1: m_1 \ne m_2, \sigma > 0.

Пример 18. Пусть H_0 - гипотеза 5 из приведенного выше списка, согласно вероятностной модели две выборки извлечены из совокупностей с функциями распределения F(x) и G(x) соответственно, а H_1 - отрицание H_0. Тогда Н0:F(x)\equiv G(x), где F(x) - произвольная функция распределения; H_1:F(x) и G(x) - произвольные функции распределения, причем F(x)\ne G(x) при некоторых x.

Пример 19. Пусть в условиях примера 17 дополнительно предполагается, что функции распределения F(x) и G(x) отличаются только сдвигом, т.е. G(x)=F(x-a) при некотором a. Тогда H_0:F(x)\equiv G(x), где F(x) - произвольная функция распределения; H_1:G(x)=F(x-a), a\ne 0, где F(x) - произвольная функция распределения.

Пример 20. Пусть в условиях примера 14 дополнительно известно, что согласно вероятностной модели ситуации F(x) - функция нормального распределения с единичной дисперсией, т.е. имеет вид N(m,1). Тогда H_0:m=0 (т.е. F(x)=\Phi(x) при всех x ; записывается как F(x)\equiv\Phi(x)); H_1:m\ne 0 (т.е. неверно, что F(x)\equiv \Phi(x) ).

Пример 21. При статистическом регулировании технологических, экономических, управленческих или иных процессов [ [ 2.16 ] ] рассматривают выборку, извлеченную из совокупности с нормальным распределением и известной дисперсией, и гипотезы

H_0:m=m_0,\;H_1:m=m_1,
где значение параметра m = m_0 соответствует налаженному ходу процесса, а переход к m = m_1 свидетельствует о разладке.

Пример 22. При статистическом приемочном контроле [ [ 2.16 ] ] число дефектных единиц продукции в выборке подчиняется гипергеометрическому распределению, неизвестным параметром является p = D/N - уровень дефектности, где N - объем партии продукции, D - общее число дефектных единиц продукции в партии. Используемые в нормативно-технической и коммерческой документации (стандартах, договорах на поставку и др.) планы контроля часто нацелены на проверку гипотезы

H_0:p\le AQL\text{ против альтернативной гипотезы }H_1:p\ge LQ,
где AQL - приемочный уровень дефектности, LQ - браковочный уровень дефектности (очевидно, что AQL<LQ ).

Пример 23. В качестве показателей стабильности технологического, экономического, управленческого или иного процесса используют ряд характеристик распределений контролируемых показателей, в частности, коэффициент вариации \nu=\sigma/M(X). Требуется проверить нулевую гипотезу

H_0:\nu\le\nu_0\text{ при альтернативной гипотезе }H_1:\nu>\nu_0,
где \nu_0 - некоторое заранее заданное граничное значение.

Пример 24. Пусть вероятностная модель двух выборок - та же, что в примере 18, математические ожидания результатов наблюдений в первой и второй выборках обозначим M(X) и M(Y) соответственно. В ряде ситуаций проверяют нулевую гипотезу

H_0:M(X)=M(Y)
против альтернативной гипотезы
H_1:M(X)\ne M(Y)

Пример 25. Выше отмечалось большое значение в математической статистике функций распределения, симметричных относительно 0. При проверке симметричности H_0:F(-x)=1-F(x) при всех x, в остальном F произвольна; H_1: F(-x+_0) \ne 1 - F(x0) при некотором x_0, в остальном F произвольна.

В вероятностно-статистических методах принятия решений используются и многие другие постановки задач проверки статистических гипотез. Некоторые из них рассматриваются ниже.

Конкретная задача проверки статистической гипотезы полностью описана, если заданы нулевая и альтернативная гипотезы. Выбор метода проверки статистической гипотезы, свойства и характеристики методов определяются как нулевой, так и альтернативной гипотезами. Для проверки одной и той же нулевой гипотезы при различных альтернативных гипотезах следует использовать, вообще говоря, различные методы. Так, в примерах 14 и 20 нулевая гипотеза одна и та же, а альтернативные - различны. Поэтому в условиях примера 14 следует применять методы проверки согласия с фиксированным распределением (например, критерии Колмогорова или омега-квадрат), а в условиях примера 20 - критерий Стьюдента. Если в условиях примера 14 использовать критерий Стьюдента, то он не будет решать поставленных задач (не сможет обнаружить все варианты альтернативных гипотез). Если в условиях примера 20 использовать критерий согласия Колмогорова, то он, напротив, будет решать поставленные задачи, хотя, возможно, и хуже, чем специально приспособленный для этого случая критерий Стьюдента.

При обработке реальных данных большое значение имеет правильный выбор гипотез H_0 и H_1. Принимаемые предположения, например, нормальность распределения, должны быть тщательно обоснованы, в частности, статистическими методами. Отметим, что в подавляющем большинстве конкретных прикладных постановок распределение результатов наблюдений отлично от нормального [ [ 2.16 ] ].

Часто возникает ситуация, когда вид нулевой гипотезы вытекает из постановки прикладной задачи, а вид альтернативной гипотезы не ясен. В таких случаях следует рассматривать альтернативную гипотезу наиболее общего вида и использовать методы, решающие поставленную задачу при всех возможных H_1. В частности при проверке гипотезы 2 (из приведенного выше списка) как нулевой следует в качестве альтернативной гипотезы использовать H_1 из примера 14, а не из примера 20, если нет специальных обоснований нормальности распределения результатов наблюдений при альтернативной гипотезе.

Статистические гипотезы бывают параметрические и непараметрические. Предположение, которое касается неизвестного значения параметра распределения, входящего в некоторое параметрическое семейство распределений, называется параметрической гипотезой (напомним, что параметр может быть и многомерным). Предположение, при котором вид распределения неизвестен (т.е. не предполагается, что оно входит в некоторое параметрическое семейство распределений), называется непараметрической гипотезой. Таким образом, если распределение F(x) результатов наблюдений в выборке согласно принятой вероятностной модели входит в некоторое параметрическое семейство \{F(x;\theta), \theta\in\Theta\}, т.е. F(x) = F(x;\theta_0) при некотором \theta_0\in\Theta, то рассматриваемая гипотеза - параметрическая, в противном случае - непараметрическая.

Если и H_0 и H_1 - параметрические гипотезы, то задача проверки статистической гипотезы - параметрическая. Если хотя бы одна из гипотез H_0 и H_1 - непараметрическая, то задача проверки статистической гипотезы - непараметрическая. Другими словами, если вероятностная модель ситуации - параметрическая, т.е. полностью описывается в терминах того или иного параметрического семейства распределений вероятностей, то и задача проверки статистической гипотезы - параметрическая. Если же вероятностная модель ситуации - непараметрическая, т.е. ее нельзя полностью описать в терминах какого-либо параметрического семейства распределений вероятностей, то и задача проверки статистической гипотезы - непараметрическая. В примерах 11-13, 16, 17, 20-22 даны постановки параметрических задач проверки гипотез, а в примерах 14, 15, 18, 19, 23-25 - непараметрических. Непараметрические задачи делятся на два класса: в одном из них речь идет о проверке утверждений, касающихся функций распределения (примеры 14, 15, 18, 19, 25), во втором - о проверке утверждений, касающихся характеристик распределений (примеры 23, 24).

Статистическая гипотеза называется простой, если она однозначно задает распределение результатов наблюдений, вошедших в выборку. В противном случае статистическая гипотеза называется сложной. Гипотеза 2 из приведенного выше списка, нулевые гипотезы в примерах 11, 12, 14, 20, нулевая и альтернативная гипотезы в примере 21 - простые, все остальные упомянутые выше гипотезы - сложные.

Однозначно определенный способ проверки статистических гипотез называется статистическим критерием. Статистический критерий строится с помощью статистики U(x_1, x_2, ..., x_n) - функции от результатов наблюдений x_1, x_2, ..., x_n. В пространстве значений статистики U выделяют критическую область \Psi, т.е. область со следующим свойством: если значения применяемой статистики принадлежат данной области, то отклоняют (иногда говорят - отвергают) нулевую гипотезу, в противном случае - не отвергают (т.е. принимают).

Статистику U, используемую при построении определенного статистического критерия, называют статистикой этого критерия. Например, в задаче проверки статистической гипотезы, приведенной в примере 14, применяют критерий Колмогорова, основанный на статистике

D_n=\sqrt{n}\sup_{x}|F_n(x)-F_0(x)|.

При этом D_n называют статистикой критерия Колмогорова.

Частным случаем статистики U является векторзначная функция результатов наблюдений U_0(x_1, x_2, ..., x_n) = (x_1, x_2, ..., x_n), значения которой - набор результатов наблюдений. Если x_i - числа, то U_0 - набор n чисел, т.е. точка n -мерного пространства. Ясно, что статистика критерия U является функцией от U_0, т.е. U = f(U_0). Поэтому можно считать, что \Psi - область в том же n -мерном пространстве, нулевая гипотеза отвергается, если (x_1, x_2, ..., x_n)\in\Psi, и принимается в противном случае.

В вероятностно-статистических методах принятия решений, статистические критерии, как правило, основаны на статистиках U, принимающих числовые значения, и критические области имеют вид

\Psi=\{U(x_1,x_2,...,x_n)>C\}, ( 9)
где С - некоторые числа.

Статистические критерии делятся на параметрические и непараметрические. Параметрические критерии используются в параметрических задачах проверки статистических гипотез, а непараметрические - в непараметрических задачах.

При проверке статистической гипотезы возможны ошибки. Есть два рода ошибок. Ошибка первого рода заключается в том, что отвергают нулевую гипотезу, в то время как в действительности эта гипотеза верна. Ошибка второго рода состоит в том, что принимают нулевую гипотезу, в то время как в действительности эта гипотеза неверна.

Вероятность ошибки первого рода называется уровнем значимости и обозначается \alpha. Таким образом, \alpha=P\{U\in\Psi|H_0\}, т.е. уровень значимости \alpha - это вероятность события \{U\in\Psi\}, вычисленная в предположении, что верна нулевая гипотеза H_0.

Уровень значимости однозначно определен, если H_0 - простая гипотеза. Если же H_0 - сложная гипотеза, то уровень значимости, вообще говоря, зависит от функции распределения результатов наблюдений, удовлетворяющей H_0. Статистику критерия U обычно строят так, чтобы вероятность события \{U\in\Psi\} не зависела от того, какое именно распределение (из удовлетворяющих нулевой гипотезе H_0 ) имеют результаты наблюдений. Для статистик критерия U общего вида под уровнем значимости понимают максимально возможную ошибку первого рода. Максимум (точнее, супремум) берется по всем возможным распределениям, удовлетворяющим нулевой гипотезе H_0, т.е. \alpha=\sup P\{U\in\Psi|H_0\}.

Если критическая область имеет вид, указанный в формуле (9), то

P\{U>C|H_0\}=\alpha.

Если C задано, то из последнего соотношения определяют \alpha. Часто поступают по иному - задавая \alpha (обычно \alpha = 0,05, иногда \alpha = 0,01 или \alpha = 0,1, другие значения \alpha используются гораздо реже), определяют C из уравнения (10), обозначая его C_{\alpha}, и используют критическую область \Psi=\{U>C_{\alpha}\} с заданным уровнем значимости \alpha.

Вероятность ошибки второго рода есть P\{U\notin\Psi|H_1\}. Обычно используют не эту вероятность, а ее дополнение до 1, т.е. P\{U\in\Psi|H_1}=1-P\{U\notin\Psi|H_1\}. Эта величина носит название мощности критерия. Итак, мощность критерия - это вероятность того, что нулевая гипотеза будет отвергнута, когда альтернативная гипотеза верна.

Понятия уровня значимости и мощности критерия объединяются в понятии функции мощности критерия - функции, определяющей вероятность того, что нулевая гипотеза будет отвергнута. Функция мощности зависит от критической области \Psi и действительного распределения результатов наблюдений. В параметрической задаче проверки гипотез распределение результатов наблюдений задается параметром \theta. В этом случае функция мощности обозначается M(\Psi,\theta) и зависит от критической области \Psi и действительного значения исследуемого параметра \theta. Если

H_0:\theta=\theta_0,H_1:\theta=\theta_1,
то
M(\Psi,\theta_0)=\alpha,M(\Psi,\theta_1)=1-\beta,
где \alpha - вероятность ошибки первого рода, \beta - вероятность ошибки второго рода. В статистическом приемочном контроле \alpha - риск изготовителя, \beta - риск потребителя. При статистическом регулировании технологического процесса \alpha - риск излишней наладки, \beta - риск незамеченной разладки.

Функция мощности M(\Psi,\theta) в случае одномерного параметра \theta обычно достигает минимума, равного \alpha, при \theta = \theta_0, монотонно возрастает при удалении от \theta_0 и приближается к 1 при |\theta-\theta_0|\rightarrow\infty.

В ряде вероятностно-статистических методов принятия решений используется оперативная характеристика L(\Psi,\theta) - вероятность принятия нулевой гипотезы в зависимости от критической области \Psi и действительного значения исследуемого параметра \theta. Ясно, что

L(\Psi,\theta)=1-M(\Psi,\theta).

Основной характеристикой статистического критерия является функция мощности. Для многих задач проверки статистических гипотез разработан не один статистический критерий, а целый ряд. Чтобы выбрать из них определенный критерий для использования в конкретной практической ситуации, проводят сравнение критериев по различным показателям качества [ [ 2.16 ] , прил. 3], прежде всего с помощью их функций мощности. В качестве примера рассмотрим лишь два показателя качества критерия проверки статистической гипотезы - состоятельность и несмещенность.

Пусть объем выборки n растет, а U_n и \Psi_n - статистики критерия и критические области соответственно. Критерий называется состоятельным, если

\lim_{n\rightarrow\infty}P\{U_n\in\Psi_n|H_1\}=1,
т.е. вероятность отвергнуть нулевую гипотезу стремится к 1, если верна альтернативная гипотеза.

Статистический критерий называется несмещенным, если для любого \theta_0, удовлетворяющего H_0, и любого \theta_1, удовлетворяющего H_1, справедливо неравенство

P\{U\in\Psi|\theta_0\}<P\{U\in\Psi|\theta_1\},
т.е. при справедливости H_0 вероятность отвергнуть H_0 меньше, чем при справедливости H_1.

При наличии нескольких статистических критериев в одной и той же задаче проверки статистических гипотез следует использовать состоятельные и несмещенные критерии.

Анастасия Маркова
Анастасия Маркова

Здравствуйте!

4 июня я записалась на курс Прикладная статистика. Заплатила за получение сертификата. Изучала лекции, прошла Тест 1.

Сегодня вижу, что я вне курса! Почему так произошло?