|
Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике. |
Нечеткие алгоритмы обучения
Обучение на основе условной нечеткой меры
Пусть
— множество причин (входов)
и
— множество результатов. Если
—
функция из
в интервал
,
и
— нечеткая мера на
, то

.Задача состоит в оценке (уточнении) причин по нечеткой информации.
Пусть
— нечеткая мера на
,
связана с
условной нечеткой
мерой
:

Предполагается следующая интерпретация вводимых мер:
оценивает
степень нечеткости утверждения "один из элементов
был
причиной",
,
оценивает степень
нечеткости
утверждения "один из элементов
является результатом
благодаря
причине
";
характеризует степень
нечеткости
утверждения: "
— действительный результат".
Пусть
описывает точность информации
,
тогда по определению
.
Метод обучения должен соответствовать обязательному условию: при получении
информации
нечеткая мера
меняется таким
образом, чтобы
возрастала. Предположим, что
и
удовлетворяют
-правилу. Пусть
является убывающей, тогда
![g_Y (A) = \mathop \vee \limits_{i = 1}^n \left[ {\sigma _Y
(A|x_i ) \wedge g_X (F_i )} \right],](/sites/default/files/tex_cache/3695f8e93ab653c29e0ba04d53ef9a7a.png)
. При этих условиях существует
:
Обучение может быть осуществлено увеличением тех значений
(
)
нечеткой меры
, которые увеличивают
, и
уменьшением тех
значений
(
) меры
, которые
не увеличивают
. Можно показать, что на величину
влияют
только такие
, что
.
Следовательно, нечеткий
алгоритм обучения следующий:

Параметр
регулирует скорость обучения, т.е.
скорость
сходимости
. Чем меньше
, тем сильнее
изменяется
. В приведенном
алгоритме нет необходимости увеличивать
больше, чем на
,
так как большое увеличение
не влияет на
. Приведем некоторые
свойства модели обучения.
Свойство 1. Если повторно поступает одна и та же информация, то происходит следующее:
a. новое
больше старого
(
) и новое
меньше старого
(
),
следовательно, новая
мера
не меньше старой меры
, и
новая мера

b. при предположении
,
,
сходится к
и
сходится к
0 для
.
Свойство 2.
Если поступает одна и та же информация повторно:
для
всех
,
то
.
Следовательно,
и
сходится к
для всех
.
Свойство 3.
Предельное значение
не зависит от начального значения тогда,
когда на вход повторно поступает одна и та же информация.
Пример. Рассмотрим модель глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций:
— оценивает число точек, проанализированных на предыдущих
шагах;
— оценивает среднее значение функции по результатам
предыдущих шагов;
— оценивает число точек, значение функции в которых
принадлежит десятке лучших в своей области;
— оценивает максимум по прошлым попыткам;
В описанном случае
показывает степень важности
подмножеств
критериев и
оценивает
предположение о нахождении
экстремума в блоке
в соответствии с критерием
. Например,
может зависеть от числа ранее проанализированных точек в блоке
. Пусть
входная информация
определяется формулой

— максимум анализируемой функции, найденный к
рассматриваемому
моменту в блоке
. Очевидно, что
сходится к
максимизирующему множеству
функции. На каждой итерации осуществляется следующее: проверяется
заданное число новых точек; число этих точек выбирается пропорционально
;
в~каждой точке
вычисляется и нормализуется мера
);
нормализуется
; по
и
вычисляется
,
а затем
; посредством правил подкрепления корректируется
.
Затем выполняется новая итерация, и так до тех пор, пока не сойдется
.
— оценивает