Россия |
Развиваемая логическая нейронная сеть для распознавания объектов временного ряда по заданному набору признаков
Нечёткие оценки признаков объектов временного ряда
Проходят годы, а Маша всё сидит за самоваром у раскрытого окошка и слабеющими глазами пытается угадать свой идеал. Конечно, только с долей вероятности (достоверности) она может оценить значение каждого из интересующих её признаков, в комплексе влияющих на её настроение.
В этих условиях неопределённости мы спешим на помощь, вооружённые современными положениями теории нечётких множеств, призванными обосновать задание исходной информации на рецепторном слое Машиной нейронной сети.
Первоначально мы вынуждены признать, что каждое значение любого признака (не следует забывать, что эти значения соответствуют исчерпывающему множеству событий) определяется с достоверностью . А куда девать остальные 1-Р?
Практический, "инженерный" подход заключается в рассмотрении нормального закона плотности распределения вероятностей. Согласно ему, все вероятности событий исчерпывающего множества, в сумме образующие единицу, распределены между "смежными" по смыслу и содержанию высказываниями, т.е. служат возбуждению соответствующих рецепторов так, чтобы измеренное или предполагаемое значение Р было близко к математическому ожиданию значения признака или совпадало с ним.
Продемонстрируем возбуждение рецепторов на основе нечётких оценок значений параметров.
Пусть, оглядывая очередного проходящего мужчину, Маша быстро прикидывает:
- Процентов на 70 я уверена, что он брюнет, хотя, возможно, он блондин или шатен. Ведь он, кажется, в шляпе;
- Его рост не менее 190 см, в этом я уверена процентов на 80;
- Носа я совершенно не вижу; возможно, он закрыт тенью от шляпы или шевелюры;
- Не пойму: шляпа у него или такая шевелюра? Скорее, всё же, шляпа.
Не смея долго раздумывать (ведь из соседней закусочной показался следующий мужчина), Маша формирует возбуждение рецепторов:
Vx1 = 0,7, Vx2 = Vx3 = 0,15, Vy1 = 0, Vy2 = 0,15, Vy3 = 0,8, Vy4 = 0,05, Vz1 = 0,33, Vz2 = 0,33, Vz3 = 0,33, Vk1 = 0,6, Vk2 = 0,4.
По-видимому, формирование эвристического алгоритма такого "разбрасывания" вероятностей, на глазок воспроизводящего нормальный закон, не представляется трудным.
Для функции активации (9.3) в условиях допущенной неопределённости целесообразно принять значение порога h = 0,5. Рассчитаем возбуждение нейронов выходного слоя:
VВых1 = 0,52, VВых2 = VВых3 = VВых4 = VВых5 = 0.
Так что радости ещё есть место.
В общем случае признаки объектов временного ряда преимущественно имеют действительные значения из широкого диапазона, являясь отражением измерений различных физических, динамических, временных и прочих характеристик. Разбивка этого диапазона на большое количество малых интервалов значений – для закрепления за ними рецепторов – позволяет более точно воспроизводить нормальный закон распределения вероятностей. Это соответствует условному воспроизведению гистограммы.
Введение обратных связей
Весьма высокая скорость обработки потока объектов временного ряда, исключающая возможность сопутствующих размышлений и переживаний, наводит Машу на справедливую мысль. В очередной раз, встретив свой идеал, следует некоторое время предаваться кайфу (специальной обработке искомого объекта временного ряда вне общего режима анализа потока), а не пялить глаза на всех подряд проходящих мужчин.
Для этого необходимо использовать обратные связи, - с целью выработки некоторого тайм-аута, позволяющего осмыслить и благотворно пережить важное событие – встречу с вожделённым объектом, несмотря на продолжающую изменяться ситуацию.
Замедлить и растянуть встречу, то есть отвлечься на анализ и обработку интересующего объекта временного ряда, можно с помощью продолжительной поддержки возбуждения рецепторов, определивших появление информации об объекте. Это позволит на некоторое время запомнить образ, подержать его в памяти – навевающего сладкие мечты.
Значит, необходимо сформировать положительные обратные связи (рис. 9.5), ведущие от каждого нейрона выходного слоя, соответствующего решению по объекту с интересующими (идеальными) признаками, к тем нейронам-рецепторам, которые вызывают его столь высокое возбуждение. Тогда это возбуждение будет поддерживать высокое возбуждение соответствующих рецепторов, а они, в свою очередь, будут поддерживать высокое возбуждение нейрона выходного слоя.
Поскольку на рецепторы в результате обратных связей следует подавать приведённые значения возбуждения, интерпретируемые как поправки к достоверности, то следует использовать функцию активации (9.3).
Однако этот процесс поддержки высокого возбуждения нейрона выходного слоя должен быть затухающим. Ведь повздыхав, Маше ничего не остаётся делать, как продолжать свои "исследования". Это затухание достигается с помощью значений весов обратных связей, меньших единице. На рис. 9.5 такие веса обратных связей приняты равными 0,5. (Комментировать решение R13 с помощью обратных связей Маша отказывается.) Спустя некоторое время СПР вернётся к регулярному режиму обработки объектов временного ряда.
Параллельная обработка сигналов, поступивших на рецепторный слой, является непременным условием высокой скорости ассоциативного мышления, свойственного мозгу. Обработка объектов (информационных кадров, состояния средств испытываемых сложных систем, потактового формирования управляющих воздействий и т.д.), образующих временной ряд, методами ассоциативной селекции позволяют приблизить эту обработку к режиму реального времени.
Краткие итоги.
- Применение логических нейронных сетей значительно снижает трудоёмкость распознавания объектов, следующих в потоке реального времени.
- Снижение трудоёмкости обусловлено двумя факторами: а) применением простейшей функции активации нейронов, б) возможностью параллельной и распределённой обработки большого количества нейронов.
- Однослойные логические нейронные сети значительно упрощают обработку, устраняют неоднозначность решений, облегчают модификацию и развитие.
- Обратные связи позволяют оперативно и временно изменять алгоритм действия пользователя, расширять возможности его действий в случае возникновения некоторых ситуаций.
Вопросы.
- Как на основе оценок признаков объектов временного ряда производится логическое описание системы распознавания?
- Как строится логическая нейронная сеть для обработки нечётких данных?
- Как строится матрица следования для однослойной логической нейронной сети?
- Почему попытка "механического" объединения ситуаций в рамках однослойной логической нейронной сети способна привести к некорректности её решений?
- Как производится развитие однослойной логической нейронной сети?
- Как выбирается функция активации нейрона, если все или некоторые веса связей меньше единицы?
- Для чего и как вводятся обратные связи?