Поволжский Государственный Университет Телекоммуникаций и Информатики
Опубликован: 13.08.2013 | Доступ: свободный | Студентов: 1279 / 385 | Длительность: 07:30:00
Специальности: Экономист
Лекция 7:

Построение модели гибридных системы для обработки данных

Моделирование зависимости будем осуществлять с помощью следующей базы знаний:

  • Если х1=СП и х2=ЕС и х3=УС, то у=10;
  • Если х1=СП и х2=СЕС и х3=УС, то у=15;
  • Если х1=СП и х2=НЕ и х3=УС, то у=20;
  • Если х1=СП и х2=ЕС и х3=СУС, то у=20;
  • Если х1=СП и х2=НЕ и х3=НУ, то у=40;
  • Если х1=СРС и х2=ЕС и х3=УС, то у=15;
  • Если х1=СРС и х2=СЕС и х3=УС , то у=20
  • Если х1=СРС и х2= НЕ и х3= СУС, то у=60;
  • Если х1=СРС и х2= ЕС и х3= НУ, то у=25
  • Если х1=СРС и х2= СЕС и х3= СУС, то у=45
  • Если х1=СРС и х2= НЕ и х3=НУ, то у=80
  • Если х1=НР и х2= ЕС и х3= СУС, то у=25
  • Если х1=НР и х2= ЕС и х3= УС, то у=15
  • Если х1=НР и х2= СЕС и х3= СУС, то у=70
  • Если х1=НР и х2= НЕ и х3= НУ, то у=100

Для синтеза и исследования гибридной нейро-нечеткой системы управления потоком данных (Рисунок 14.6) использован инструмент MATLAB

Функции принадлежности входных и выходной переменных

Рис. 14.6. Функции принадлежности входных и выходной переменных

Любая нечеткая нейронная сеть работает как система нечеткого логического вывода, но строится не с помощью инженерных знаний, а с помощью обучения по образцам. В результате матрица весов отражает силу связи входных и выходных переменных. Результатом обучения служит не только матрица весов, но совокупность правил и оценок их достоверности (Рисунок 14.7).

Итоговый набор правил работы сети

Рис. 14.7. Итоговый набор правил работы сети

Проектирование системы нечеткого логического вывода типа Сугэно состоит в выполнении следующей последовательности шагов. Сначала вводим три входных переменных и одну выходную. Обозначим входные переменные х1, х2, х3, а выходную переменную у. Обозначим термы и введем диапазон изменения переменных согласно выведенным правилам. Каждому терму будет соответствовать три переменные.

Правила построения сети

Рис. 14.8. Правила построения сети

Текущее состояние системы описывается нечеткими тенденциями ее параметров (Рисунок 14.8).

Для формирования структуры гибридной нейро-нечеткой системы необходимо сформировать обучающую последовательность, записав ее в файл Test.data и передав этот файл инструменту anfisedit.

На основании полученной из файла обучающей последовательности инструмент anfisedit генерирует гибридную нейро-нечеткую систему со следующими характеристиками для входа 1 – СП, СРС, НП термов, для входа 2 – ЕС, CEC, HE термов, для входа 3 - YC,CYC,HY, для выхода – РD, PY, PP. Используя нечеткий логический вывод по алгоритму Сугэно, т.е. набор термов (см. Таблицу 14.1).

На основании построенного нечеткого алгоритма для системы Сугэно смоделируем гибридную нейронную сеть отображающую механизм вывода данной системы (Рисунок 14.9).

Структура гибридной сети

Рис. 14.9. Структура гибридной сети

Структура данной сети может быть описана следующим образом.

Слой 1 (inputmf) Выходы узлов этого слоя представляют собой значения функции принадлежности при конкретных значения входов (х1, х2, х3), терм множества (x1→CP, CPC, HP; x2→EC, CEC, HE; x3→YC,CYC,HY).

Слой 2 (rule) Выходами нейронов этого слоя являются степени истинности предпосылок каждого правила базы знаний системы, вычисляемые по формулам:

\alpha_1=CP(x_1) \wedge EC(x_2) \wedge YC(x_3)\\
\alpha_2=CP(x_1) \wedge CEC(x_2) \wedge YC(x_3)\\
………………………\\
\alpha_15=HP(x_1) \wedge HE(x_2) \wedge HY(x_3) ( 14.5)

Все нейроны этого слоя реализовывают произвольную Т – норму для моделирования операции "И".

На этом этапе также рассчитывается и нормированная сила правила (\beta_i)

\beta_1=\frac {\alpha_1} {\alpha_1+\alpha_2+\alpha_3+…+\alpha_{15}}\\
\beta_2=\frac {\alpha_2} {\alpha_1+\alpha_2+\alpha_3+…+\alpha_{15}}\\
……………….\\
\beta_15=\frac {\alpha_{15}} {\alpha_1+\alpha_2+\alpha_3+…+\alpha_{15}}\\ ( 14.6)

Слой 3 (outputmf) Формирует значения выходной переменной у (РР,PD,PY). Нейроны этого слоя выполняют следующие операции:

\beta_1 y_1=\beta_1 PD^{-1}(\alpha_1)\\
\beta_2 y_2=\beta_2 PD^{-1}(\alpha_2)\\
\beta_3 y_3=\beta_3PD^{-1}(\alpha_3\\
………\\
\beta_{15}y_{15}=\beta_{15} PD^{-1}(\alpha_{15}) ( 14.7)

Слой 4 (output) Единственный нейрон этого слоя вычисляет выход сети:

y=\beta_1 y_1+\beta_2 y_2+\beta_3 y_3+…+\beta_{15} y_{15} ( 14.8)

После загрузки данных получаем следующие результаты, изображенные на Рисунке 14.10.

Загрузка данных в сеть

Рис. 14.10. Загрузка данных в сеть

Протестируем систему. Как мы видим, система работает не вполне согласовано. Тестовые данные расходятся с данными при загрузке это четко видно из Рисунка 14.11 . Чтобы система работала согласно нашим данным, произведем обучение сети.

Результат тестирования необученной сети

Рис. 14.11. Результат тестирования необученной сети