Опубликован: 09.11.2009 | Доступ: свободный | Студентов: 3994 / 952 | Оценка: 4.66 / 4.45 | Длительность: 54:13:00
Специальности: Экономист
Лекция 12:

Статистика интервальных данных

12.6. Интервальный кластер-анализ

Кластер-анализ, как известно [ [ 12.38 ] ], имеет целью разбиение совокупности объектов на группы сходных между собой. Многие методы кластер-анализа основаны на использовании расстояний между объектами. (Степень близости между объектами может измеряться также с помощью мер близости и показателей различия, для которых неравенство треугольника выполнено не всегда.) Рассмотрим влияние погрешностей измерения на расстояния между объектами и на результаты работы алгоритмов кластер-анализа.

С ростом размерности p евклидова пространства диагональ единичного куба растет как \sqrt{p}. А какова погрешность определения евклидова расстояния? Пусть двум рассматриваемым векторам соответствуют X_0=(x_1,x_2,...,x_p) и Y_0=(y_1,y_2,...,y_p) - векторы размерности p. Они известны с погрешностями \varepsilon=(\varepsilon_1,\varepsilon_2,...,\varepsilon_p) и \delta=(\delta_1,\delta_2,...,\delta_p), т.е. статистику доступны лишь векторы X=X_0+\varepsilon,\; Y=Y_0+\delta Легко видеть, что

\rho^2(X,Y)=\rho^2(X_0,Y_0)+2\sum_{1\le i\le p}(x_i-y_i)(\varepsilon_i-\delta_i)+\sum_{1\le i\le p}(\varepsilon_i-\delta_i)^2. ( 73)

Пусть ограничения на абсолютные погрешности имеют вид

|\varepsilon_i|\le\Delta,\;|\delta_i|\le\Delta,\;i=1,2,...,n.

Такая запись ограничений предполагает, что все переменные имеют примерно одинаковый разброс. Трудно ожидать этого, если переменные имеют различные размерности. Однако рассматриваемые ограничения на погрешности естественны, если переменные предварительно стандартизованы, т.е. центрированы и отнормированы (из каждого значения вычтено среднее арифметическое, а разность поделена на выборочное среднее квадратическое отклонение).

Пусть p\Delta^2\rightarrow 0. Тогда последнее слагаемое в (73) не превосходит 4p\Delta^2 поэтому им можно пренебречь. Тогда из (73) следует, что нотна евклидова расстояния имеет вид

N_{\rho^2}(X_0,Y_0)=4\sum_{1\le i\le p}|x_i-y_i|\Delta
с точностью до бесконечно малых более высокого порядка. Если случайные величины |x_i-y_i| имеют одинаковые математические ожидания и для них справедлив закон больших чисел (эти предположения естественны, если переменные перед применением кластер-анализа стандартизованы), то существует константа C такая, что
N_{\rho^2}(X_0,Y_0)=Cp\Delta
с точностью до бесконечно малых более высокого порядка при малых \Delta больших p и p\Delta^2\rightarrow 0.

Из рассмотрений настоящего пункта вытекает, что

\rho(X,Y)=\rho(X_0,Y_0)+\theta\frac{Cp\Delta}{2\rho(X_0,Y_0)} ( 74)
при некотором \theta таком, что |\theta|<1.

Какое минимальное расстояние является различимым? По аналогии с определением рационального объема выборки при проверке гипотез предлагается уравнять слагаемые в (74), т.е. определять минимально различимое расстояние \rho_{min} из условия

\rho_{min}=\frac{Cp\Delta}{2\rho_{min}},\;\rho_{min}=\sqrt{\frac{Cp\Delta}{2}}. ( 75)

Естественно принять, что расстояния, меньшие \rho_{min}, не отличаются от 0, т.е. точки, лежащие на расстоянии \rho\le\rho_{min}, не различаются между собой.

Каков порядок величины C? Если x_i и y_i независимы и имеют стандартное нормальное распределение с математическим ожиданием 0 и дисперсией 1, то, как легко подсчитать, M|x_i-y_i|=2/\sqrt{\pi}=1,13 и соответственно C = 4,51. Следовательно, в этой модели

\rho_{min}=1,5\sqrt{p\Delta}.

Формула (75) показывает, что хотя с ростом размерности пространства p растет диаметр (длина диагонали) единичного куба - естественной области расположения значений переменных, с той же скоростью растет и естественное квантование расстояния с помощью порога неразличимости , т.е. увеличение размерности (вовлечение новых переменных), вообще говоря, не улучшает возможности кластер-анализа.

Можно сделать выводы и для конкретных алгоритмов. В дендрограммах (например, результатах работы иерархических агломеративных алгоритмах ближнего соседа, дальнего соседа, средней связи) можно порекомендовать склеивать (т.е. объединять) уровни, отличающиеся менее чем на \rho_{min}. Если все уровни склеятся, то можно сделать вывод, что у данных нет кластерной структуры, они однородны. В алгоритмах типа "Форель" центр тяжести текущего кластера определяется с точностью \pm\Delta по каждой координате, а порог для включения точки в кластер (радиус шара R ) из-за погрешностей исходных данных может измениться согласно (74) на

\pm\frac{2,25}{R}p\Delta.

Поэтому кроме расчетов с R рекомендуется провести также расчеты с радиусами R_1 и R_2, где

R_1=R\left(1-\frac{2,25}{R^2}p\Delta\right),\;R_2=R\left(1+\frac{2,25}{R^2}p\Delta\right),
и сравнить полученные разбиения. Быть адекватными реальности могут только выводы, общие для всех трех расчетов. Эти рекомендации развивают общую идею [ [ 1.15 ] ] о целесообразности проведения расчетов при различных значениях параметров алгоритмов с целью выделения выводов, инвариантных по отношению к выбору конкретного алгоритма.

Анастасия Маркова
Анастасия Маркова

Здравствуйте!

4 июня я записалась на курс Прикладная статистика. Заплатила за получение сертификата. Изучала лекции, прошла Тест 1.

Сегодня вижу, что я вне курса! Почему так произошло?