Новосибирский Государственный Университет
Опубликован: 13.09.2006 | Доступ: свободный | Студентов: 2200 / 514 | Оценка: 4.52 / 4.28 | Длительность: 12:23:00
ISBN: 978-5-9556-0063-5
Специальности: Программист
Лекция 15:

Нечеткие и гибридные нейронные сети

Модель Мамдани-Заде как универсальный аппроксиматор

Модели нечеткого вывода позволяют описать выходной сигнал многомерного процесса как нелинейную функцию входных переменных x_i, i=1,2, \ldots, N и параметров нечеткой системы, например, при использовании в качестве агрегатора оператора алгебраического произведения с последующей дефазификацией относительно среднего центра. В модели Мамдани-Заде каждое из M правил определяется уровнем активации условия

\begin{align*}
 \mu(y_i)= \prod_{j=1}^M \mu_{Ai}(x_j)
\end{align*}

где y_i - значение y, при котором значение \mu(y_i) максимально. Пусть y_i — центр C_i нечеткого множества заключения i -го правила вывода. Тогда дефазификация относительно среднего центра дает

\begin{align*}
 y=(\sum_{i=1}^M C_i[\prod_{j=1}^N \mu_{Ai}(x_j)])/ \sum_{i=1}^M
 \prod_{j=1}^N \mu_{Ai}(x_j)
\end{align*}

Приведенные формулы модели Мамдани-Заде имеют модульную структуру, которая идеально подходит для системного представления в виде многослойной структуры, напоминающей структуру классических нейронных сетей. Такие сети мы будем называть нечеткими нейронными сетями. Характерной их особенностью является возможность использования нечетких правил вывода для расчета выходного сигнала. Обучение таких сетей сводится к расчету параметров функции фазификации.

Нечеткие сети TSK (Такаги-Сугено-Канга)

Схема вывода в модели TSK при использовании M правил и N переменных x_j имеет вид (i=1,2, \ldots M)

\begin{align*}
\text { if } (x_1 \text { is } A_1^{(i)})\ (x_2 \text { is } A_2^{(i)})\
\ldots \ (x_N \text { is }
A_N^{(i)})\\
\text { then }  y_i = p_{i0} + \sum_{j=1}^N p_{ij} x_j.
\end{align*}

Условие (x_i \text { is } A_i) реализуется функцией фазификации

\begin{align*}
 \mu_A(xi) = 1/(1+((x_i-c_i)/\sigma_i)^{2bi}).
\end{align*}

При M правилах агрегированный выходной результат сети имеет вид

\begin{align*}
&y(x) = \sum_{i=1}^M w_i y_i(x)/ \sum_{i=1}^M w_i,\\
&y_i(x) = p_{i0} + \sum_{j=1}^N p_{ij} x_j.
\end{align}
( 1)

Веса w_i интерпретируются как значимость компонентов \mu_A^{(i)}(x). Тогда формуле (1) можно поставить в соответствие многослойную нейронную сеть рис. 3.

Нечеткая нейронная сеть TSK

Рис. 3. Нечеткая нейронная сеть TSK

1. Первый слой выполняет фазификацию каждой переменной. Это параметрический слой с параметрами c_j^{(i)},  \sigma_j^{(i)},
b_j^{(i)}, подлежащими адаптации в процессе обучения.

2. Второй слой выполняет агрегирование отдельных переменных, определяя результирующее значение коэффициента принадлежности {w_i =
\mu_A^i(x)} для вектора x (непараметрический слой).

3. Третий слой - генератор функции TSK, рассчитывает значения

\begin{align*}
y_i(x) = p_{i0} + \sum_{j=1}^N p_{ij} x_j.
\end{align*}

В этом слое также производится умножение y_i(x) на w_i, сформированные в предыдущем слое. Здесь адаптации подлежат веса p_{ij}, i = 1,2, \ldots, M, j
=
1,2, \ldots, N, определяющие функцию следствия модели TSK.

4. Четвертый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов y_k(x), а второй - сумму весов w_i, i
= 1,2, \ldots M (непараметрический слой).

5. Пятый слой из одного нейрона - это нормализующий слой, в котором выходной сигнал сети агрегируется по формуле (1).

Таким образом, в процессе обучения происходит уточнение параметров только первого (нелинейного) и третьего (линейного) слоев.