Новосибирский Государственный Университет
Опубликован: 13.09.2006 | Доступ: свободный | Студентов: 2150 / 463 | Оценка: 4.52 / 4.28 | Длительность: 12:23:00
ISBN: 978-5-9556-0063-5
Специальности: Программист
Лекция 2:

Модели нейронов

< Лекция 1 || Лекция 2: 123456 || Лекция 3 >
Аннотация: Рассматриваются структура и функции различных моделей нейрона: персептрон, сигмоидальный нейрон, адалайн, Паде-нейрон, нейрон с квадратичным сумматором, сигма-пи нейроны, нейрон Хебба, стохастическая модель нейрона, кубические модели нейронов.

Элементы нейронных сетей и задача разделения двух классов

Персептрон

Простой персептрон — это нейрон МакКаллока-Питса (рис.1). Весовые коэффициенты входов сумматора, на которые подаются входные сигналы x_{i}, i=1, \ldots, N обозначаются w_{i}, а пороговое значение — w_{0}. Нелинейная функция активации f персептрона является ступенчатой, вследствие чего выходной сигнал нейрона может принимать только два значения — 0 и 1 в соответствии с правилом

\begin{equation}
  f(u) =
    \left \{
     \begin{array}{rcl}
        1 \mbox{ для } u\ge 0 \\
        0 \mbox{ для } u< 0 \\
     \end{array}
   \right.
\end{equation} ( 1)

или -1 и 1 в соответствии с правилом

\begin{equation}
 f(u) =
 \left \{
  \begin{array}{rcl}
   1 \mbox{ для } u\ge 0 \\
   -1 \mbox{ для } u< 0 \\
  \end{array}
 \right.
\end{equation} ( 2)

где u обозначает выходной сигнал сумматора

\begin{equation}
 u = \sum_{i=0}^{N} {w_{i}x_{i}}.
\end{equation} ( 3)

В формуле (3) предполагается x_{0 } = 1.

Нейрон МакКаллока-Питтса

Рис. 1. Нейрон МакКаллока-Питтса

Обучение персептрона состоит в таком подборе весов {w_{i} }, чтобы выходной сигнал {y} совпадал с заданным значением {d{\in}\{0,1\}} или {d{\in}\{-1,1\}}.

С персептроном связана задача четкого разделения двух классов по обучающей выборке, которая ставится следующим образом: имеется два набора векторов X^1, \ldots, X^n и Y^1, \ldots, Y^m. Заранее известно, что X^i, {i=1,
\ldots, n} относятся к первому классу, а Y^j, j=1, \ldots,
m - ко второму. Требуется построить решающее правило, т.е. определить такую функцию f(X), что при f(X)>0 вектор X относится к первому классу, а при f(X)< 0 - ко второму.

< Лекция 1 || Лекция 2: 123456 || Лекция 3 >