Опубликован: 13.09.2006 | Уровень: специалист | Доступ: платный | ВУЗ: Новосибирский Государственный Университет
Лекция 2:

Модели нейронов

< Лекция 1 || Лекция 2: 123456 || Лекция 3 >

Сигма-Пи нейроны

Выше были рассмотрены нейроны с линейной и квадратичной функциями активации. Сигма-пи нейроны являются их обобщением на случай представления функции активации u полиномом степени N, N - число входов нейрона:

\begin{align*}
 U =  \sum_{k=1}^{M}w_{k}\ \prod_{i\in I_k} x_{i},
\end{align*}

где I_k - множество индексов, содержащее одну из возможных 2^N комбинаций первых N целых чисел, M=2^N.

Модель нейрона Хебба

Структурная схема нейрона Хебба соответствует стандартной форме модели нейрона (рис.1). Д.Хебб предложил формальное правило, в котором вес w_i нейрона изменяется пропорционально произведению его входного и выходного сигналов

\begin{align*}
 \Delta w_{i} = \alpha x_{i}y,
\end{align*}

где \alpha\in(0,1) - коэффициент обучения.

При обучении с учителем вместо выходного сигнала y используется ожидаемая от этого нейрона реакция d. В этом случае правило Хебба записывается в виде

\begin{align*}
 \Delta w_{i} = \alpha x_{i}d,
\end{align*}

В каждом цикле обучения происходит суммирование текущего значения веса и его приращения \Delta w_{i}:

\begin{align*}
 w_i(t+1) = w_i(t) +  \Delta w_{i}.
\end{align*}

В результате применения правила Хебба веса нейрона могут принимать произвольно большие значения. Один из способов стабилизации процесса обучения по правилу Хебба состоит в учете последнего значения w_i, уменьшенного на коэффициент забывания \gamma. При этом правило Хебба представляется в виде

\begin{align*}
 w_i(t+1) = w_i(t)(1 - \gamma) + \Delta w_{i}.
\end{align*}

Значение \gamma выбирается из интервала (0,1) и чаще всего составляет некоторый процент от коэффициента обучения \alpha. Рекомендуемые значения коэффициента забывания - \gamma < 0.1, при которых нейрон сохраняет большую часть информации, накопленной в процессе обучения, и получает возможность стабилизировать значения весов на определенном уровне.

Стохастическая модель нейрона

В стохастической модели выходное состояние нейрона зависит не только от взвешенной суммы входных сигналов, но и от некоторой случайной переменной, значения которой выбираются при каждой реализации из интервала (0,1).

В стохастической модели нейрона выходной сигнал y принимает значения \pm 1 с вероятностью

\begin{align*}
 P(y = 1)= 1/(1 + \exp(-2\beta u)),\\
 P(y = -1)= 1/(1 + \exp(2\beta u)),
\end{align*}

где u обозначает взвешенную сумму входных сигналов нейрона, а \beta - положительная константа, которая чаще всего равна 1. Процесс обучения нейрона в стохастической модели состоит из следующих этапов:

1) расчет взвешенной суммы

\begin{align*}
 u =  \sum_{i=0}^N w_{i}x_{i}
\end{align*}

для каждого нейрона сети.

2) расчет вероятности P того, что y принимает значение \pm 1.

3) генерация значения случайной переменной R \in (0,1) и формирование выходного сигнала y, если R < P(y), или -y в противном случае.

При обучении с учителем по правилу Видроу-Хоффа адаптация весов проводится по формуле

\begin{align*}
 \Delta w_i = \alpha x_i(d-y).
\end{align*}

< Лекция 1 || Лекция 2: 123456 || Лекция 3 >
Ирина Ткаченко
Ирина Ткаченко
Россия, Москва
Николай Ткаченко
Николай Ткаченко
Россия