Числовые характеристики зависимости
Ковариация двух случайных величин
Мы знаем, что для независимых случайных величин с конечными вторыми моментами дисперсия их суммы равна сумме их дисперсий. В общем случае дисперсия суммы равна
![]() |
( 18) |
Величина равняется
нулю,
если случайные величины
и
независимы
(свойство (E7) математического ожидания).
С другой стороны, из равенства ее нулю вовсе не следует независимость,
как показывают примеры 50 и 51.
Эту величину используют как "индикатор наличия зависимости" между
двумя случайными величинами.
Определение 39.
Ковариацией случайных величин
и
называется число
.
Свойство 18.
Справедливы равенства:
.
Непосредственным возведением суммы в квадрат проверяется следующее свойство.
Свойство 19. Дисперсия суммы нескольких случайных величин вычисляется по любой из следующих формул:
![{\mathsf D\,}(\xi_1+\ldots+\xi_n) &=&
\sum\limits_{i=1}^n{\mathsf D\,}\xi_i + \sum\limits_{i\ne j}{{\rm cov}}(\xi_i,\xi_j) = \\
&=&\sum\limits_{i=1}^n{\mathsf D\,}\xi_i + 2\sum\limits_{i < j}{{\rm cov}}(\xi_i,\xi_j) =
\sum\limits_{i,j}{{\rm cov}}(\xi_i,\xi_j).](/sites/default/files/tex_cache/c932c8339d4ecd255eecd43bb358f6d2.png)
Обсудим достоинства и недостатки ковариации, как величины, характеризующей зависимость двух случайных величин.
Если ковариация отлична
от нуля, то величины
и
зависимы.
Чтобы судить о наличии зависимости согласно любому из определений
независимости,
требуется знать совместное распределение пары
и
.
Но найти совместное распределение часто бывает
сложнее, чем посчитать математическое ожидание произведения
и
. Если нам повезет, и математическое
ожидание
не будет равняться произведению их математических
ожиданий,
мы установим зависимость
и
не находя
их совместного распределения. Это очень хорошо.
Пример 65.
Покажем, что с помощью ковариации можно судить о зависимости даже тогда, когда
для вычисления совместного распределения недостаточно данных.
Пусть и
- независимые случайные величины
и
дисперсия
отлична от нуля.
Покажем, что
и
зависимы:
![{\mathsf E\,}\bigl(\xi(\xi+\eta)\bigr)={\mathsf E\,}\xi^2+{\mathsf E\,}\xi\,{\mathsf E\,}\eta,
\qquad
{\mathsf E\,}\xi\,{\mathsf E\,}(\xi+\eta)={({\mathsf E\,}\xi)}^2+
{\mathsf E\,}\xi\,{\mathsf E\,}\eta.](/sites/default/files/tex_cache/3fcaddc77b3cf749a20cceeb71f838bd.png)
![{{\rm cov}}(\xi,\xi+\eta)={\mathsf D\,}\xi>0](/sites/default/files/tex_cache/4d5036b00b8c97a63a20d58beb6ff946.png)
![\xi](/sites/default/files/tex_cache/195246810f9bfc228bca491859062b14.png)
![\xi+\eta](/sites/default/files/tex_cache/2a3f6850cd4e3976a27ca10af9dbefe4.png)
Упражнение.
Доказать, что и
независимы, если
.
Величина не является
"безразмерной": если
- объем газа
в сосуде, а
- давление этого газа, то
ковариация измеряется в
.
Иначе говоря,
при умножении
или
на 100 ковариация
тоже увеличится в 100 раз. Но от умножения на 100 величины
не стали "более зависимыми", так что большое значение ковариации
не означает более сильной зависимости. Это очень плохо.
Нужно как-то нормировать ковариацию, получив из нее "безразмерную" величину, абсолютное значение которой:
- не менялось бы при умножении случайных величин на число;
- свидетельствовало бы о "силе зависимости" случайных величин.
Замечание Говоря о "силе" зависимости между
случайными величинами, мы имеем в виду следующее. Самая сильная зависимость
-
функциональная, а из функциональных - линейная зависимость, когда п.н. Бывают гораздо более слабые зависимости. Так, если
по последовательности независимых случайных величин
построить величины
и
, то эти величины
зависимы, но очень "слабо": через единственное общее слагаемое
.
Сильно ли зависимы
число гербов в первых
подбрасываниях монеты и число гербов
в испытаниях с
-го по
-е?
Итак, следующая величина есть всего лишь ковариация, нормированная нужным образом.