Опубликован: 09.11.2009 | Доступ: свободный | Студентов: 3662 / 736 | Оценка: 4.66 / 4.45 | Длительность: 54:13:00
Специальности: Экономист
Лекция 2:

Основы вероятностно-статистических методов описания неопределенностей

2.4. Случайные величины и их распределения

Распределения случайных величин и функции распределения. Распределение числовой случайной величины – это функция, которая однозначно определяет вероятность того, что случайная величина принимает заданное значение или принадлежит к некоторому заданному интервалу.

Первое – если случайная величина принимает конечное число значений. Тогда распределение задается функцией P(X = x), ставящей в соответствие каждому возможному значению x случайной величины X вероятность того, что X=x.

Второе – если случайная величина принимает бесконечно много значений. Это возможно лишь тогда, когда вероятностное пространство, на котором определена случайная величина, состоит из бесконечного числа элементарных событий. Тогда распределение задается набором вероятностей P(a \le X<b) для всех пар чисел a, b таких, что a<b. Распределение может быть задано с помощью так называемой функции распределения F(x)=P(X<x), определяющей для всех действительных х вероятность того, что случайная величина X принимает значения, меньшие x. Ясно, что

P(a\le X < b)=F(b)-F(a)

Это соотношение показывает, что как распределение может быть рассчитано по функции распределения, так и наоборот, функция распределения – по распределению.

Используемые в вероятностно-статистических методах принятия решений и других прикладных исследованиях функции распределения бывают либо дискретными, либо непрерывными, либо их комбинациями.

Дискретные функции распределения соответствуют дискретным случайным величинам, принимающим конечное число значений или же значения из множества, элементы которого можно перенумеровать натуральными числами (такие множества в математике называют счетными). Их график имеет вид ступенчатой лестницы ( рис. 2.1).

Пример 1. Число X дефектных изделий в партии принимает значение 0 с вероятностью 0,3, значение 1 – с вероятностью 0,4, значение 2 – с вероятностью 0,2 и значение 3 – с вероятностью 0,1. График функции распределения случайной величины X изображен на рис. 2.1.

График функции распределения числа дефектных изделий

Рис. 2.1. График функции распределения числа дефектных изделий

Непрерывные функции распределения не имеют скачков. Они монотонно возрастают1В некоторых случаях, например, при изучении цен, объемов выпуска или суммарной наработки на отказ в задачах надежности, функции распределения постоянны на некоторых интервалах, в которые значения исследуемых случайных величин не могут попасть. при увеличении аргумента – от 0 при x\rightarrow -\infty до 1 при x\rightarrow +\infty. Случайные величины, имеющие непрерывные функции распределения, называют непрерывными.

Непрерывные функции распределения, используемые в вероятностно-статистических методах принятия решений, имеют производные. Первая производная f(x) функции распределения F(x) называется плотностью вероятности,

f(x)=\frac{dF(x)}{dx}.

По плотности вероятности можно определить функцию распределения:

F(x)=\int\limits_{-\infty}^x f(y)dy

Для любой функции распределения

\lim_{x\rightarrow -\infty} F(x)=0,\;\lim_{x\rightarrow +\infty}F(x)=1,

а потому

\int\limits_{+\infty}f(x)dx=1

Перечисленные свойства функций распределения постоянно используются в вероятностно-статистических методах принятия решений. В частности, из последнего равенства вытекает конкретный вид констант в формулах для плотностей вероятностей, рассматриваемых ниже.

Пример 2. Часто используется следующая функция распределения:

F(x)=
\left\{
\begin{gathered}
0, x<a, \\
\frac{x-a}{b-a}, a\le x\le b, \\
1, x>b.
\end{gathered}
\right. ( 1)

где a и b – некоторые числа, a<b. Найдем плотность вероятности этой функции распределения:

f(x)=
\left\{
\begin{gathered}
0, x<a, \\
\frac{1}{b-a}, a<x<b, \\
0, x>b.
\end{gathered}
\right.

(в точках x = a и x = b производная функции F(x) не существует).

Случайная величина с функцией распределения (1) называется "равномерно распределенной на отрезке [a; b] ".

Смешанные функции распределения встречаются, в частности, тогда, когда наблюдения в какой-то момент прекращаются. Например, при анализе статистических данных, полученных при использовании планов испытаний на надежность, предусматривающих прекращение испытаний по истечении некоторого срока. Или при анализе данных о технических изделиях, потребовавших гарантийного ремонта.

Пример 3. Пусть, например, срок службы электрической лампочки – случайная величина с функцией распределения F(t), а испытание проводится до выхода лампочки из строя, если это произойдет менее чем за 100 часов от начала испытаний, или до момента t_0 = 100 часов. Пусть G(t)функция распределения времени эксплуатации лампочки в исправном состоянии при этом испытании. Тогда

G(t)=
\left\{
F(t), t\le 100 \\
1, t>100.
\right.

Функция G(t) имеет скачок в точке t_0, поскольку соответствующая случайная величина принимает значение t_0 с вероятностью 1-F(t_0)>0.

Характеристики случайных величин. В вероятностно-статистических методах принятия решений используется ряд характеристик случайных величин, выражающихся через функции распределения и плотности вероятностей.

При описании дифференциации доходов, при нахождении доверительных границ для параметров распределений случайных величин и во многих иных случаях используется такое понятие, как "квантиль порядка p ", где 0<p<1 (обозначается x_p ). Квантиль порядка pзначение случайной величины, для которого функция распределения принимает значение p или имеет место "скачок" со значения меньше p до значения больше p ( рис. 2.2). Может случиться, что это условие выполняется для всех значений x, принадлежащих этому интервалу (т.е. функция распределения постоянна на этом интервале и равна p ). Тогда каждое такое значение называется "квантилью порядка p ". Для непрерывных функций распределения, как правило, существует единственная квантиль x_p порядка p ( рис. 2.2), причем

F(x_p)=p. ( 2)

Рис. 2.2.

Пример 4. Найдем квантиль x_p порядка p для функции распределения F(x) из (1).

При 0<p<1 квантиль x_p находится из уравнения

\frac{x-a}{b-a}=p,

т.е. x_p=a+p(b–a)=a(1–p)+bp. При p=0 любое x<a является квантилью порядка p=0. Квантилью порядка p=1 является любое число x^gt;b.

Для дискретных распределений, как правило, не существует x_p, удовлетворяющих уравнению (2). Точнее, если распределение случайной величины задается табл.2.2, где x_1<x_2^lt;...<x_k, то равенство (2), рассматриваемое как уравнение относительно x_p, имеет решения только для k значений p, а именно,

\begin{aligned}
&p=p_1, \\
&p=p_1+p_2, \\
&p=p_1+p_2+p_3, \\
&... \\
&p=p_1+p_2+...+p_m, \; 3<m<k, \\
&... \\
&p=p_1+p_2+...+p_k.
\end{aligned}
Таблица 2.2. Распределение дискретной случайной величины
Значения x случайной величины X x_1 x_2 ... x_k
Вероятности P(X=x) p_1 p_2 ... p_k

Для перечисленных k значений вероятности p решение x_p уравнения (2) неединственно, а именно,

F(x)=p_1+p_2+...+p_m

для всех x таких, что x_m<x\le x_m+1. То есть x_p – любое число из интервала (x_m; x_m+1]. Для всех остальных p из промежутка (0;1), не входящих в перечень (3), имеет место "скачок" со значения меньше p до значения больше p. А именно, если

p_1+p_2+...+p_m<p<p_1+p_2+...+p_m+p_{m+1},

то x_p=x_{m+1}.

Рассмотренное свойство дискретных распределений создает значительные трудности при табулировании и использовании подобных распределений, поскольку невозможно точно выдержать типовые численные значения характеристик распределения. В частности, это так для критических значений и уровней значимости непараметрических статистических критериев (см. ниже), поскольку распределения статистик этих критериев дискретны.

Большое значение в статистике имеет квантиль порядка p = 1/2. Он называется медианой (случайной величины X или ее функции распределения F(x) ) и обозначается Me(X). В геометрии есть понятие "медиана" – прямая, проходящая через вершину треугольника и делящая противоположную его сторону пополам. В математической статистике медиана делит пополам не сторону треугольника, а распределение случайной величины: равенство F(x_{0,5}) = 0,5 означает, что вероятность попасть левее x_{0,5} и вероятность попасть правее x_{0,5} (или непосредственно в x_{0,5} ) равны между собой и равны 1/2, т.е.

P(X<x_{0,5})=P(X\ge x_{0,5})=1/2.

Медиана указывает "центр" распределения. С точки зрения одной из современных концепций – теории устойчивых статистических процедур – медиана является более хорошей характеристикой случайной величины, чем математическое ожидание [ [ 1.15 ] , [ 2.16 ] ]. При обработке результатов измерений в порядковой шкале (см. лекцию о теории измерений) медианой можно пользоваться, а математическим ожиданием – нет.

Ясный смысл имеет такая характеристика случайной величины, как мода – значение (или значения) случайной величины, соответствующее локальному максимуму плотности вероятности для непрерывной случайной величины или локальному максимуму вероятности для дискретной случайной величины.

Если x_0 – мода случайной величины с плотностью f(x), то, как известно из дифференциального исчисления, \frac{df(x_0)}{dx}=0.

У случайной величины может быть много мод. Так, для равномерного распределения (1) каждая точка x такая, что a<x<b, является модой. Однако это исключение. Большинство случайных величин, используемых в вероятностно-статистических методах принятия решений и других прикладных исследованиях, имеют одну моду. Случайные величины, плотности, распределения, имеющие одну моду, называются унимодальными.

Математическое ожидание для дискретных случайных величин с конечным числом значений рассмотрено в 2.2. Для непрерывной случайной величины X математическое ожидание M(X) удовлетворяет равенству

M(X)=\int\limits_{-\infty}^{+\infty}xf(x)dx

являющемуся аналогом формулы (5) из утверждения 2 \S 2.2.

Пример 5. Математическое ожидание для равномерно распределенной случайной величины X равно

M(X)=
\left.
\int\limits_a^b\frac{x}{b-a}dx=\frac{1}{b-a}\frac{x^2}{2}
\right|_a^b
=\frac{1}{b-a}
\left(
\frac{b^2}{2}-\frac{a^2}{2}=\frac{a+b}{2}.
\right)

Для рассматриваемых в настоящем параграфе случайных величин верны все те свойства математических ожиданий и дисперсий, которые были рассмотрены ранее в 2.2 для дискретных случайных величин с конечным числом значений. Однако доказательства этих свойств не приводим, поскольку они требуют углубления в математические тонкости, не являющиеся необходимыми для понимания и квалифицированного применения вероятностно-статистических методов принятия решений.

Замечание. В настоящем учебнике сознательно обходятся математические тонкости, связанные, в частности, с понятиями измеримых множеств и измеримых функций, \sigma -алгебры событий и т.п. Желающим освоить эти понятия необходимо обратиться к специальной литературе, в частности, к энциклопедии [ [ 2.2 ] ].

Каждая из трех характеристик – математическое ожидание, медиана, мода – описывает "центр" распределения вероятностей. Понятие "центр" можно определять разными способами – отсюда три разные характеристики. Однако для важного класса распределений – симметричных унимодальных – все три характеристики совпадают.

Плотность распределения f(x) – плотность симметричного распределения, если найдется число x_0 такое, что

f(x)=f(2x_0 -x). ( 3)

Равенство (3) означает, что график функции y = f(x) симметричен относительно вертикальной прямой, проходящей через центр симметрии x = x_0. Из (3) следует, что функция симметричного распределения удовлетворяет соотношению

F(x)=1-F(1x_0 -x). ( 4)

Для симметричного распределения с одной модой математическое ожидание, медиана и мода совпадают и равны x_0.

Наиболее важен случай симметрии относительно 0, т.е. x_0=0. Тогда (3) и (4) переходят в равенства

f(x)=f(-x) ( 5)

и

F(x)=1-F(-x) ( 6)

соответственно. Приведенные соотношения показывают, что симметричные распределения нет необходимости табулировать при всех x, достаточно иметь таблицы при x>x_0.

Отметим еще одно свойство симметричных распределений, постоянно используемое в вероятностно-статистических методах принятия решений и других прикладных исследованиях. Для непрерывной функции распределения

P(|X|\le a)=P(-a\le X\le a)=F(a)-F(-a),

где Fфункция распределения случайной величины Х. Если функция распределения F симметрична относительно 0, т.е. для нее справедлива формула (6), то

P(|X|\le a)=2F(a)-1.

Часто используют другую формулировку рассматриваемого утверждения: если

1-F(a)=\alpha,\;\text{то}\;P(|X|>a)=2\alpha.

Если x_{\alpha} и x_{1-\alpha} – квантили порядка \alpha и 1-\alpha соответственно (см. (2)) функции распределения, симметричной относительно 0, то из (6) следует, что

x_{\alpha}=-x_{1-\alpha}.

От характеристик положения – математического ожидания, медианы, моды – перейдем к характеристикам разброса случайной величины X: дисперсии D(X)=\sigma^2, среднему квадратическому отклонению \sigma и коэффициенту вариации \nu. Определение и свойства дисперсии для дискретных случайных величин рассмотрены в "Различные виды статистических данных" . Для непрерывных случайных величин

D(X)=M[(X-M(X))^2]=\int\limits_{-\infty}^{+\infty}(x-M(X))^2 f(x)dx.

Среднее квадратическое отклонение – это неотрицательное значение квадратного корня из дисперсии:

\sigma=+\sqrt{D(X)}.

Коэффициент вариации – это отношение среднего квадратического отклонения к математическому ожиданию:

\nu=\frac{\sigma}{M(X)}.

Коэффициент вариации применяется при M(X)>0. Он измеряет разброс в относительных единицах, в то время как среднее квадратическое отклонение – в абсолютных.

Пример 6. Для равномерно распределенной случайной величины Х найдем дисперсию, среднеквадратическое отклонение и коэффициент вариации. Дисперсия равна:

D(X)=\int\limits_a^b\frac{1}{b-a}
\left(
x-\frac{a+b}{2}
\right)^2 dx

Замена переменной y=x-\frac{a+b}{2} дает возможность записать:

D(X)=
\left.
\frac{1}{b-a}\int\limits_{-c}^c y^2 dy=\frac{1}{b-a}\frac{y^3}{3}
\right|_{-c}^c
=\frac{2c^3}{3(b-a)}=\frac{(b-a)^2}{12},

где c=(b–a)/2. Следовательно, среднее квадратическое отклонение равно \sigma=\frac{b-a}{2\sqrt{3}}, а коэффициент вариации таков: \nu=\frac{b-a}{\sqrt{3}(a+b)}.

По каждой случайной величине X определяют еще три величины – центрированную Y, нормированную V и приведенную U. Центрированная случайная величина Y – это разность между данной случайной величиной X и ее математическим ожиданием M(X), т.е. Y=X–M(X). Математическое ожидание центрированной случайной величины Y равно 0, а дисперсия – дисперсии данной случайной величины: M(Y)=0,D(Y)=D(X). Функция распределения F_Y(x) центрированной случайной величины Y связана с функцией распределения F(x) исходной случайной величины X соотношением:

FF_Y(x)=F(x+M(X)).

Для плотностей этих случайных величин справедливо равенство

f_Y(x)=f(x+M(X)).

Нормированная случайная величина V – это отношение данной случайной величины X к ее среднему квадратическому отклонению \sigma, т.е. V=X/\sigma. Математическое ожидание и дисперсия нормированной случайной величины V выражаются через характеристики X так:

M(V)=\frac{M(X)}{\sigma}=\frac{1}{\nu},D(V)=1,

где \nuкоэффициент вариации исходной случайной величины X. Для функции распределения F_V(x) и плотности f_V(x) нормированной случайной величины V имеем:

F_V(x)=F(\sigma x), f_V(x)=\sigma f(\sigma x),

где F(x)функция распределения исходной случайной величины X, а f(x) – ее плотность вероятности.

Приведенная случайная величина U – это центрированная и нормированная случайная величина:

U=\frac{X-M(X)}{\sigma}

Для приведенной случайной величины

M(U)=0,D(U)=1,F_U(x)=F(\sigma x+M(X)), f_U(x)=\sigma f(\sigma x+M(X)). ( 7)

Нормированные, центрированные и приведенные случайные величины постоянно используются как в теоретических исследованиях, так и в алгоритмах, программных продуктах, нормативно-технической и инструктивно-методической документации. В частности потому, что равенства M(U)=0,D(U)=1 позволяют упростить обоснования методов, формулировки теорем и расчетные формулы.

Используются преобразования случайных величин и более общего плана. Так, если Y=aX+b, где a и b – некоторые числа, то

M(Y)=aM(X)+b,D(Y)=\sigma^2 D(X),F_Y(x)=F
\left(\frac{x-b}{a}\right),
f_Y(x)=\frac{1}{a}f
\left(\frac{x-b}{a}\right). ( 8)

Пример 7. Если a=1/\sigma,b=-M(X)/\sigma то Y – приведенная случайная величина, и формулы (8) переходят в формулы (7).

С каждой случайной величиной X можно связать множество случайных величин Y, заданных формулой Y=aX+b при различных a>0 и b. Это множество называют масштабно-сдвиговым семейством, порожденным случайной величиной X. Функции распределения F_Y(x) составляют масштабно-сдвиговое семейство распределений, порожденное функцией распределения F(x). Вместо Y=aX+b часто используют запись

Y=\frac{X-c}{d}, ( 9)

где

d=\frac{1}{a}>0,c=-\frac{b}{a}.

Число c называют параметром сдвига, а число d – параметром масштаба. Формула (9) показывает, что X – результат измерения некоторой величины – переходит в Y – результат измерения той же величины, если начало измерения перенести в точку c, а затем использовать новую единицу измерения, в d раз большую старой.

Для масштабно-сдвигового семейства (9) распределение X называют стандартным. В вероятностно-статистических методах принятия решений и других прикладных исследованиях используют стандартное нормальное распределение, стандартное распределение Вейбулла-Гнеденко, стандартное гамма-распределение и др. (см. ниже).

Применяют и другие преобразования случайных величин. Например, для положительной случайной величины X рассматривают Y=\lg X, где \lg X – десятичный логарифм числа X. Цепочка равенств

FY(x)=P(\lg X < x)=P(X<10^x)=F(10^x)

связывает функции распределения X и Y.

При обработке данных используют такие характеристики случайной величины X как моменты порядка q, т.е. математические ожидания случайной величины X^q, q = 1, 2, ... Так, само математическое ожидание – это момент порядка 1. Для дискретной случайной величины момент порядка q может быть рассчитан как

m_q=M(X^q)=\sum_i x_i^q P(X=x_i).

Для непрерывной случайной величины

m_q=M(X^q)=\int\limits_{-\infty}^{+\infty} x^q f(x)dx.

Моменты порядка q называют также начальными моментами порядка q, в отличие от родственных характеристик – центральных моментов порядка q, задаваемых формулой

\mu_q=M[(X-M(X))^q],\;q=2,3,...

Так, дисперсия – это центральный момент порядка 2.

Нормальное распределение и центральная предельная теорема. В вероятностно-статистических методах принятия решений часто идет речь о нормальном распределении. Иногда его пытаются использовать для моделирования распределения исходных данных (эти попытки не всегда являются обоснованными – см. ниже). Более существенно, что многие методы обработки данных основаны на том, что расчетные величины имеют распределения, близкие к нормальному.

Пусть X_1, X_2,..., X_n, ... – независимые одинаково распределенные случайные величины с математическими ожиданиями M(X_i)=m и дисперсиями D(X_i)=\sigma^2, i=1,2,...,n,... Как следует из результатов 2.2,

M(X_1+X_2+...+X_n)=nm,\;D(X_1+X_2+...+X_n)=n\sigma^2.

Рассмотрим приведенную случайную величину U_n для суммы X_1+X_2+...+X_n, а именно,

U_n=\frac{X_1+X_2+...+X_n-nm}{\sigma\sqrt{n}}.

Как следует из формул (7), M(U_n)=0, D(U_n)=1.

Центральная предельная теорема (для одинаково распределенных слагаемых). Пусть X_1, X_2,..., X_n, ... – независимые одинаково распределенные случайные величины с математическими ожиданиями M(X_i)=m и дисперсиями D(X_i)=\sigma^2,i=1,2,...,n,... Тогда для любого x существует предел

\lim_{n\rightarrow\infty}P
\left(
\frac{X_1+X_2+...+X_n-nm}{\sigma\sqrt{n}}<x
\right)
=\Phi(x),

где \Phi(x)функция стандартного нормального распределения.

Подробнее о функции \Phi(x) – см. ниже (читается "фи от икс", поскольку \Phi – греческая прописная буква "фи").

Центральная предельная теорема (ЦПТ) носит свое название по той причине, что она является центральным, наиболее часто применяющимся математическим результатом теории вероятностей и математической статистики. История ЦПТ занимает около 200 лет – с 1730 г., когда английский математик А.Муавр (1667–1754) опубликовал первый результат, относящийся к ЦПТ (о теореме Муавра-Лапласа см. ниже), по двадцатые – тридцатые годы ХХ в., когда финн Дж. У. Линдеберг, француз Поль Леви (1886–1971), югослав В. Феллер (1906–1970), русский А.Я. Хинчин (1894–1959) и другие ученые получили необходимые и достаточные условия справедливости классической центральной предельной теоремы.

Развитие рассматриваемой тематики на этом отнюдь не прекратилось – изучали случайные величины, не имеющие дисперсии, т.е. те, для которых

\int\limits_{-\infty}^{+\infty}x^2 f(x)dx=+\infty

(академик Б.В.Гнеденко и др.), ситуацию, когда суммируются случайные величины (точнее, случайные элементы) более сложной природы, чем числа (академики Ю.В.Прохоров, А.А.Боровков и их соратники), и т.д.

Функция распределения \Phi(x) задается равенством

\Phi(x)=\int\limits_{-\infty}^{x}\varphi(y)dy,

где \varphi(y) – плотность стандартного нормального распределения, имеющая довольно сложное выражение:

\varphi(y)=\frac{1}{\sqrt{2\pi}}e^{-\frac{y^2}{2}}.

Здесь \pi=3,1415925... – известное в геометрии число, равное отношению длины окружности к диаметру, e = 2,718281828... – основание натуральных логарифмов (для запоминания этого числа обратите внимание, что 1828 – год рождения писателя Л.Н.Толстого). Как известно из математического анализа,

e=\lim_{n\rightarrow\infty}
\left(
1+\frac{1}{n}
\right)^n.

При обработке результатов наблюдений функцию нормального распределения не вычисляют по приведенным формулам, а находят с помощью специальных таблиц или компьютерных программ. Лучшие на русском языке "Таблицы математической статистики" составлены членами-корреспондентами АН СССР Л.Н. Большевым и Н.В.Смирновым [ [ 2.1 ] ].

Вид плотности стандартного нормального распределения \varphi(y) вытекает из математической теории, которую не имеем возможности здесь рассматривать, равно как и доказательство ЦПТ.

Для иллюстрации приводим небольшие таблицы функции распределения \Phi(х) (табл.2.3) и ее квантилей (табл.2.4). Функция \Phi(х) симметрична относительно 0, что отражается в табл.2.32.4.

Таблица 2.3. Функция стандартного нормального распределения
x \Phi(x) x \Phi(x) x \Phi(x)
-5,0 0,00000029 -1,0 0,158655 2,0 0,9772499
-4,0 0,00003167 -0,5 0,308538 2,5 0,99379033
-3,0 0,00134990 0,0 0,500000 3,0 0,99865010
-2,5 0,00620967 0,5 0,691462 4,0 0,99996833
-2,0 0,0227501 1,0 0,841345 5,0 0,99999971
-1,5 0,0668072 1,5 0,9331928
Таблица 2.4. Квантили стандартного нормального распределения
p Квантиль порядка p p Квантиль порядка p
0,01 -2,326348 0,60 0,253347
0,025 -1,959964 0,70 0,524401
0,05 -1,644854 0,80 0,841621
0,10 -1,281552 0,90 1,281552
0,30 -0,524401 0,95 1,644854
0,40 -0,253347 0,975 1,959964
0,50 0,000000 0,99 2,326348

Если случайная величина X имеет функцию распределения \Phi(x), то M(X)=0,D(X)=1. Это утверждение доказывается в теории вероятностей, исходя из вида плотности вероятностей \varphi(y). Оно согласуется с аналогичным утверждением для характеристик приведенной случайной величины U_n, что вполне естественно, поскольку ЦПТ утверждает, что при безграничном возрастании числа слагаемых функция распределения U_n стремится к функции стандартного нормального распределения \Phi(x), причем при любом x.