| Азербайджан |
Методы генерации признаков
11.2. Преобразование Карунена-Лоева
Пусть
– вектор измерений образа. Целью
преобразования является построение такого вектора признаков, что
![E\left[y(i)y(j)\right]=0\text{ при } i\neq j.](/sites/default/files/tex_cache/3afd70670e55fdbc7c8e16b5c13cfa89.png)
Пусть
Будем считать, что

Обозначим
, тогда
![R_y=E\left[yy^T\right]=E\left[A^T xx^T A\right]=A^T R_x A,](/sites/default/files/tex_cache/61a4e7b8432189f3a12785c8d8277784.png)
– симметричная матрица и ее собственные вектора ортогональны.Выберем в качестве
собственные вектора матрицы
.
Тогда
– диагональная матрица, у которой на диагонали стоят собственные
значения
. Таким образом

Если
положительно определенная матрица, то собственные значения
.
Описанное преобразование называется преобразованием Карунена-Лоева. Оно имеет фундаментальное значение, т.к. оно приводит к построению некоррелированных признаков.
11.2.1. Свойства преобразования Карунена-Лоева
Пусть
или
– разложение по базисным векторам.
Определим новый
-мерный вектор
:

– проекция
на подпространство. Если мы аппроксимируем
с
помощью
, то ошибка есть (выбираем те векторов,
для которых ошибка
минимальна):![\begin{aligned}
&E\|x-\widehat{x}\|^2=E
\left[
\left\|
\sum_{i=0}^{N-1}y(i)a_i
\right\|^2
\right]
=E
\left[
\sum_i\sum_j(y(i)a_i^T)(y(i)a_i)
\right]=\\
&=\sum_{i=m}^{N-1}E
\left[
y^2(i)
\right]
=\sum_{i=m}^{N-1}a_i^T E
\left[
xx^T
\right]
a_i=\sum_{i=m}^{N-1}a_i^T\lambda_i a_i =\sum_{i=m}^{N-1}\lambda_i.
\end{aligned}](/sites/default/files/tex_cache/dba30782718e5eb7eca97f87458d14cc.png)
Тогда очевидно, что выбирать нужно
базисных векторов с
максимальными собственными значениями.
Отметим еще раз соотношение преобразования Карунена-Лоева с методом селекции признаков. В методе селекции признаков в качестве критерия выступали дискриминантные свойства полученного вектора признаков. В преобразовании Карунера-Лоева в качестве критерия выступает наилучшее приближение исходных измерений.
11.2.2. Применение преобразования Карунена-Лоева к задаче классификации. В данном случае основная концепция заключается в том, что подпространство главных собственных значений может быть использовано для классификации.
- для каждого класса
строим корреляционную матрицу
, - выбираем
главных собственных значений и собственных векторов, - строим соответствующие матрицы
, у которых столбцы – значения собственных векторов. - неизвестный (пробный) вектор
классифицируем по правилу
при
, т.е. в ближайшее подпространство.
11.2.3. Декомпозиция сингулярных значений.
Пусть задана матрица
ранга
. Покажем, что существуют такие
унитарные матрицы
и
, что

– диагональная матрица с элементами
и
–
ненулевых
собственных значений матрицы
. Иначе существуют такие унитарные
матрицы
и
, что преобразованная
путем
есть диагональная матрица. Следовательно![]() |
( 11.2) |
и
– первые
столбцов матриц
и
соответственно, т.е.
и
– собственные вектора матриц
и
соответственно.Собственные значения
называются сингулярными
значениями матрицы
. Преобразование (11.2) – преобразование сингулярных значений или
спектральное представление
.
Если
аппроксимировать следующим образом

есть сумма
одноранговых матриц и имеет
ранг равный
. Можно показать, что квадратичная ошибка
-ранговых матриц. Ошибка аппроксимации есть
.Таким образом,
есть наилучшая аппроксимация в смысле нормы
Фробениуса. Данная аппроксимация напоминает преобразование Карунена-Лоева.
и 