Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике. |
Нечеткие алгоритмы обучения
Известно, что обучающиеся системы улучшают функционирование в процессе работы, модифицируя свою структуру или значение параметров. Предложено большое число способов описания и построения обучающихся систем. Все они предполагают решение следующих задач: выбор измерений (свойств, рецепторов); поиск отображения пространства рецепторов в пространство признаков, которые осуществляют вырожденное отображение объектов; поиск критерия отбора признаков. Причем в различных задачах для получения хороших признаков могут понадобиться разные критерии отбора. При обучении необходимо отвлечься от различий внутри класса, сосредоточить внимание на отличии одного класса от другого и на сходстве внутри классов. Необходим достаточный уровень начальной организации обучающейся системы. Для сложной структурной информации необходима многоуровневая обучающаяся система.
Следует выделить следующие группы нечетких алгоритмов обучения: обучающийся нечеткий автомат, обучение на основе условной нечеткой меры, адаптивный нечеткий логический регулятор, обучение при лингвистическом описании предпочтения.
Рекуррентные соотношения в алгоритмах первых двух групп позволяют получать функцию принадлежности исследуемого понятия на множестве заранее известных элементов. В третьей группе нечеткий алгоритм обучения осуществляет модификацию нечетких логических правил для удержания управляемого процесса в допустимых границах. В четвертой группе нечеткий алгоритм обучения осуществляет поиск вырожденного отображения пространства свойств в пространство полезных признаков и модификацию на их основе описания предпочтения.
Обучающийся нечеткий автомат
Рассмотрим автомат с четким входом и зависимым от времени
нечетким
отношением перехода
. Пусть
—
нечеткое состояние
автомата в момент времени
на конечном множестве состояний
и
— оценка значения
.Состояние
автомата в момент времени
определяется
-
композицией:
![\mu _{\tilde s(t + 1)} (s_k ) = \mathop {\sup }\limits_j
\;\min \;(\mu _{\tilde s(t)} (s_j ),\;\mu _{\delta (t)} (s_x ,i_l ,s_j
)),](/sites/default/files/tex_cache/35d67947e46d100a5e82cc3d2681a11c.png)
![\begin{gathered}
\mu _{\delta (t)} (s_k ,i_l ,s_j ) = \mu _{\delta (t - 1)} (s_k ,i_l ,s_k
),\quad \quad j \ne k, \hfill \\
\mu _{\delta (t)} (s_k ,i_l ,s_k ) = \alpha _k \mu _{\delta (t - 1)} (s_k
,i_l ,s_k ) + (1 - \alpha _k )\lambda _k (t), \hfill \\
\end{gathered}](/sites/default/files/tex_cache/8c030a953e7811290aee7b3df8f7e4e1.png)
![\(0 < \alpha _k < 1\), \(0 < \lambda _k (t) \leqslant 1\), \(k =
1,\ldots,n\)](/sites/default/files/tex_cache/1806e90d068f18b9580564e077ed3328.png)
![\lambda_{k}](/sites/default/files/tex_cache/f47e5c7eab6534e3ba4e95a3e8c7f01d.png)
![\(\mu _{\tilde s(0)} (s_k ) = 0\)](/sites/default/files/tex_cache/9aa640c19ba99c382c3744894bb82840.png)
![\(\mu _{\tilde s(0)} (s_k ) = \lambda _k (0)\)](/sites/default/files/tex_cache/43952ef71b055672ec9da7de53a918a3.png)
![\lambda_{k}(t)](/sites/default/files/tex_cache/8d721c814af6068a515ee8458cb3f010.png)
![\(\mu _{\tilde s(0)} (s_j )\)](/sites/default/files/tex_cache/238e2ee917609c6e35a7ab6a9109355c.png)
![[0,1]](/sites/default/files/tex_cache/ccfcd347d0bf65dc77afe01a3306a96b.png)
Пример.
На рис. 12.1 изображена модель классификации образов. Роль входа и выхода
можно кратко объяснить следующим образом. Во время каждого интервала
времени классификатор образов получает новый образец из неизвестной
внешней среды. Далее
обрабатывается в рецепторе, из которого поступает
как в блок "обучаемый", так и в блок "учитель" для
оценки.
Критерий оценки должен быть выбран так, чтобы его минимизация или максимизация
отражала свойства классификации (классов образов). Поэтому, благодаря
естественному распределению образов, критерий может быть включен в систему,
чтобы служить в качестве учителя для классификатора. Модель обучения
формируется
следующим образом. Предполагается, что классификатор имеет в распоряжении
множество дискриминантных функций нескольких переменных. Система адаптируется
к лучшему
решению. Лучшее решение выделяет множество дискриминантных функций, которые
дают
минимум нераспознавания среди множества дискриминантных функций для данного
множества
образцов.