Опубликован: 09.11.2009 | Доступ: свободный | Студентов: 4080 / 1033 | Оценка: 4.66 / 4.45 | Длительность: 54:13:00
Специальности: Экономист
Лекция 12:

Статистика интервальных данных

12.5. Интервальный дискриминантный анализ

Перейдем к задачам классификации в статистике интервальных данных. Как известно [ [ 12.38 ] ], важная их часть - задачи дискриминации (диагностики, распознавания образов с учителем). В этих задачах заданы классы (полностью или частично, с помощью обучающих выборок), и необходимо принять решение - к какому этих классов отнести вновь поступающий объект.

В линейном дискриминантном анализе правило принятия решений основано на линейной функции f(x) от распознаваемого вектора x\in R^k. Рассмотрим для простоты случай двух классов. Правило принятия решений определяется константой C - при f(x)>C распознаваемый объект относится к первому классу, при f(x)<C - ко второму.

В первоначальной вероятностной модели Р.Фишера предполагается, что классы заданы обучающими выборками объемов N_1 и N_2 соответственно из многомерных нормальных распределений с разными математическими ожиданиями, но одинаковыми ковариационными матрицами. В соответствии с леммой Неймана-Пирсона, дающей правило принятия решений при поверке статистических гипотез, дискриминантная функция является линейной. Для ее практического использования теоретические характеристики распределения необходимо заменить на выборочные. Тогда дискриминантная функция приобретает следующий вид

f(x)=\left(x-\frac12(\overline{x}_1+\overline{x}_2)\right)S^{-1}(\overline{x}_1-\overline{x}_2).

Здесь \overline{x}_1 - выборочное среднее арифметическое по первой выборке x_{\alpha}^{(1)}, \; \alpha=1,2,...,N_1 а \overline{x}_2 - выборочное среднее арифметическое по второй выборке x_{\beta}^{(2)}, \; \beta=1,2,...,N_2. В роли S может выступать любая состоятельная оценка общей для выборок ковариационной матрицы. Обычно используют следующую оценку, естественным образом сконструированную на основе выборочных ковариационных матриц:

S=\frac{\sum\limits_{\alpha=1}^{N_1}(x_{\alpha}^{(1)}-\overline{x}_1)(x_{\alpha}^{(1)}-\overline{x}_1)^T + \sum\limits_{\beta=1}^{N_2}(x_{\beta}^{(2)}-\overline{x}_2)(x_{\beta}^{(2)}-\overline{x}_2)^T}{N_1+N_2-2}.

В соответствии с подходом статистики интервальных данных считаем, что специалисту по анализу данных известны лишь значения с погрешностями

y_{\alpha}^{(1)}=x_{\alpha}^{(1)}+\varepsilon_{\alpha}^{(1)},\;\alpha=1,2,...,N_1,\; y_{\beta}^{(2)}=x_{\beta}^{(2)}+\varepsilon_{\beta}^{(2)},\;\beta=1,2,...,N_2.

Таким образом, вместо f(x) статистик делает выводы на основе искаженной линейной дискриминантной функции f_1(x), в которой коэффициенты рассчитаны не по исходным данным x_{\alpha}^{(1)},x_{\beta}^{(2)}, а по искаженным погрешностями значениям y_{\alpha}^{(1)},y_{\beta}^{(2)}.

Это - модель с искаженными параметрами дискриминантной функции. Следующая модель - такая, в которой распознаваемый вектор x также известен с ошибкой. Далее, константа C может появляться в модели различными способами: задаваться априори абсолютно точно; задаваться с какой-то ошибкой, не связанной с ошибками, вызванными конечностью обучающих выборок; рассчитываться по обучающим выборкам, например, с целью уравнять ошибки классификации, т.е. провести плоскость дискриминации через середину отрезка, соединяющего центры классов. Итак - целый спектр моделей ошибок.

На какие статистические процедуры влияют ошибки в исходных данных? Здесь тоже много постановок. Можно изучать влияние погрешностей измерений на значения дискриминантной функции f, например, в той точке, куда попадает вновь поступающий объект x. Очевидно, случайная величина f(x) имеет некоторое распределение, определяемое распределениями обучающих выборок. Выше описана модель Р.Фишера с нормально распределенными совокупностями. Однако реальные данные, как правило, не подчиняются нормальному распределению [ [ 12.38 ] ]. Тем не менее линейный статистический анализ имеет смысл и для распределений, не являющихся нормальными (при этом вместо свойств многомерного нормального распределения приходится опираться на многомерную Центральную предельную теорему и теорему о наследовании сходимости [ [ 1.15 ] ]). В частности, приравняв метрологическую ошибку, вызванную погрешностями исходных данных, и статистическую ошибку, получим условие, определяющее рациональность объемов выборок. Здесь два объема выборок, а не один, как в большинстве рассмотренных постановок статистики интервальных данных. С подобным мы сталкивались ранее при рассмотрении двухвыборочного критерия Смирнова.

Естественно изучать влияние погрешностей исходных данных не при конкретном x, а для правила принятия решений в целом. Может представлять интерес изучение характеристик этого правила по всем x или по какой-либо области возможных значений x. Более интересно рассмотреть показатель качества классификации, связанный с пересчетом на модель линейного дискриминантного анализа [ [ 12.38 ] ].

Математический аппарат изучения перечисленных моделей развит выше в предыдущих пунктах настоящей главы. Некоторые результаты приведены в [ [ 2.18 ] ]. Из-за большого объема выкладок ограничимся приведенными здесь замечаниями.

Анастасия Маркова
Анастасия Маркова

Здравствуйте!

4 июня я записалась на курс Прикладная статистика. Заплатила за получение сертификата. Изучала лекции, прошла Тест 1.

Сегодня вижу, что я вне курса! Почему так произошло?