Азербайджан |
Контекстно-зависимая классификация
9.4. Алгоритм Витерби (Viterbi)
Пусть задано столбцов; каждая точка в столбце соответствует одному из возможных классов ; столбцы соответствуют наблюдениям . Стрелками обозначены переходы от одного класса к другому в последовательности получения наблюдений. Каждая последовательность классов соответствует конкретному маршруту последовательных переходов. Каждый переход от -го класса к -му характеризуется вероятностью , которая предполагается известной. Предположим, что эти вероятности одинаковы для всех . Далее предположим, что условные вероятности – плотности , , – также известны. Тогда задача максимизации (9.3) ставится как поиск последовательности переходов.
Пусть – цена, связанная с переходом . Начальное условие при есть . Учитывая данные предположения, получаем общую формулу, которую нужно оптимизировать:
или, логарифмируя, имеем Используем принцип Беллмана: Обозначим черезПолучаем обратный ход для вычисления . Получаем число операций , что существенней меньше . Данная процедура динамического программирования известна как алгоритм Витерби.
9.5. Скрытые Марковские модели
Теперь рассмотрим системы, в которых состояния напрямую не наблюдаются и могут быть лишь оценены из последовательности наблюдений с помощью некоторой оптимизационной техники. Этот тип Марковских моделей известен как скрытые Марковские модели (НММ). НММ – это тип стохастической аппроксимации нестационарных стохастических последовательностей со статистическими свойствами, которые подвергаются различным случайным переходам среди множества различных стационарных процессов. Иными словами, НММ моделирует последовательность наблюдений как кусочно-стационарный процесс.
Такие модели широко используются в распознавании речи. Рассматриваются так называемые высказывания – это может быть слово, часть слова, даже предложение или параграф. Статистические свойства речевого сигнала внутри высказывания подвергаются серии переходов. Например, слово содержит порцию гласных и согласных звуков. Они характеризуются различными статистическими свойствами, которые в свою очередь отражены в переходах в речевых сигналах от одной к другой. Такие примеры дает распознавание рукописного текста, распознавание текстур, где успешно применяется НММ.
НММ есть в основе своей конечный автомат, который генерирует строку наблюдений – последовательность векторов наблюдений . Таким образом, НММ содержит состояний, и строка наблюдений получается как результат последовательных переходов из одного состояния в другое состояние . Нам подходит так называемая модель "машины Моора", в соответствии с которой наблюдения получаются как результаты (выходы) из состояний на прибытие (по переходу) в каждом состоянии.
Пример. НММ с тремя состояниями. Стрелки обозначают переходы. Такая модель может соответствовать короткому слову с тремя различными стационарными частями, например, для слова "оса".
Модель предоставляет информацию о последовательных переходах между состояниями . Такой тип НММ известен как "слева-направо", поскольку индекс состояний определяется выделенным числом фонем в одном слове. В действительности, несколько состояний (обычно 3 или 4) используется для каждой фонемы.