Классификация на основе байесовской теории решений
2.6. Классификаторы по минимуму расстояния
Будем рассматривать равновероятные классы с одинаковой матрицей ковариации. Тогда и выражение
примет вид (т.к. логарифм и константа сократятся).6.1. Классификатор по минимуму расстояния с диагональной матрицей ковариации. Рассмотрим случай, когда матрица диагональная с одинаковыми элементами: . Тогда максимизация влечет минимизацию евклидового расстояния, определяемое выражением . В данном случае будет считаться, что объект относится к данному классу, если он близок в смысле евклидового расстояния.
6.2. Классификатор по минимуму расстояния с недиагональной матрицей ковариации. В этом случае максимизация влечет минимизацию расстояния Махалонобиса, определяемого выражением .
Т.к. матрица ковариации является симметрической, ее можно представить в виде:
где , а – диагональная матрица с собственными значениями матрицы на диагонали. Матрица имеет столбцы, соответствующие собственным векторам матрицы : Таким образом, получаем линию равноудаленных точек : Пусть . Тогда координатами являются , т.е. проекции на собственные вектора. Другими словами, мы получили координаты в новой системе, у которой оси определяются собственными векторами . Тогда последнее уравнение преобразуется в уравнение эллипсоида в новой системе координат:При центр эллипса находится в точке , а главные оси лежат по собственным векторам и имеют длины и соответственно.
Пример. Рассмотрим двумерный двухклассовый случай классификации двух нормально распределенных векторов с ковариационной матрицей и средними значениями и .
Найдем :
Классифицируем вектор . Для этого посчитаем расстояние Махалонобиса:
Таким образом, хотя сама точка по евклидову расстоянию ближе к точке , чем к точке , но по расстоянию Махалонобиса она ближе к .Теперь вычислим главные оси эллипса с центром в точке . Для этого найдем собственные значения:
Тогда собственные вектора (и направление главных осей эллипса) будут иметь вид: