| Азербайджан |
Селекция признаков
10.5. Оптимальная селекция признаков
Существуют две формы использования критериев (мер отделимости классов): "пассивная" и "активная". Пассивная селекция – это работа с уже полученными признаками. Активная селекция аналогична процессу генерации признаков: она позволяет построить из исходного набора признаков новый набор меньшего размера, в котором состав признаков, вообще говоря, не является подмножеством исходного набора признаков. Все типы селекции, рассмотренные в предыдущих разделах – пассивные.
Пусть
и
.
Рассмотрим конструирование критериев с использованием активной селекции:
или y=F(x).
Пусть
-
и
– вектора столбцы, тогда
– строки, -
– исходное пространство признаков, -
– результирующее пространство признаков, -
– матрица преобразования исходного пространства в результирующее, -
– число классов.
Тогда


имеет размер
.Рассмотрим критерий
.
Будем максимизировать критерий
путем
выбора матрицы
. Для вектора признаков
имеем матрицы
и
. Для
вектора признаков
имеем матрицы
и
.

Проведем несколько преобразований.

Аналогично:
. Тогда
– критерий разделимости вектора признаков.
Теперь необходимо преобразовать
из соображений
.
Будем искать решение из условия максисума

Утверждение о вычислении производной. Пусть
и
- некоторые квадратные матрицы размера
. Тогда

Для получения максимума по критерию, необходимо, чтобы




Утверждение. Пусть
и
– симметрические, положительно
определенные матрицы. Тогда существует преобразование, приводящее одну
из них к единичной, а другую к диагональной.
Доказательство. Приведем эти преобразования

– матрицы размера
.Утверждение.
инвариантно
относительно преобразований вектора
в
.
Доказательство. Рассмотрим


Т.к.
– условие того,
что производная равна нулю, то

Используя предыдущее утверждение, подбираем матрицу
и получаем:

– матрица размера
.Утверждение. Если матрица
положительно определенная (положительно полуопределенная), то
-
все собственные значения
положительны, -
если
симметричная, то все собственные вектора,
соответствующие разным собственным значениям, ортогональны, -
для симметричной матрицы
существует преобразование
, где
состоит из собственных векторов этой матрицы или столбцы
– собственные вектора, причем
– диагональная
матрица, на диагоналях которой стоят собственные значения.
Т.к. случайные величины ортогональны, то
.
Теперь рассмотрим алгоритм оптимальной селекции признаков:
Поиск собственных значений и выбор
наилучших (наибольших).
Формирование матрицы
из собственных векторов, соответствующих этим собственным значениям
10.6. Оптимальная селекция признаков с помощь нейронной сети
Пусть задано
признаков,
– вектор
признаков. Для применения теории нейронных сетей к задаче селекции
признаков немного изменим обычное представление о нейронной сети.
Теперь будем рассматривать нейронную сеть с линейными функциями
активации. Таким образом, теперь вектор признаков, попавший на вход
нейронной сети, просто суммируется и подается на выход, т.е. выход
нейрона превращается в обычную сумму.
Рассмотрим так называемую автоассоциативную сеть. Сеть имеет
входных и
выходных узлов и единственный
скрытый слой с
узлами и линейными функциями активации.
В процессе обучения выходы сети те же, что и входы. Такая сеть имеет
единственный максимум и выходы скрытого слоя определяют проекцию
-мерного пространства на
-мерное
подпространство.
Интерес представляет выходной слой из
нейронов. Если
восстанавливать исходный вектор с целью максимального правдоподобия,
то получим задачу квадратичного программирования с одним
экстремумом.
.
.