Опубликован: 01.06.2007 | Уровень: специалист | Доступ: платный | ВУЗ: Московский государственный университет путей сообщения
Лекция 5:

Стратегии обучения и самообучения

< Лекция 4 || Лекция 5: 123 || Лекция 6 >
Аннотация: Обсуждается процесс постепенного обучения, свойственный последовательному познанию предмета исследований. При построении систем принятия решений именно постепенное познание обусловливает возможность доведения таких систем до совершенства.

"Учиться, учиться и еще раз учиться!"

В.И. Ленин

"Мы все учились понемногу…"

А.С. Пушкин

5.1. Динамизм обучения

На самом деле обучение не бывает внезапным, как мы это представили выше, рассматривая сразу обобщенные эталоны. Мгновенное заполнение губки памяти нашего разума из Всеобщего Информационного Пространства в момент рождения - лишь фантастическая мечта, которая опирается на опыт предшествующих земных цивилизаций, известный восточным учениям. Долгий и тернистый путь образования (слово-то какое в русском языке: образование - создание, произведение, построение, - человека!), предполагает многократность и постепенность, изменяемость в совершенствовании и утверждение, трудоголический надрыв и преодоление, победный клич и разочарование.

Итак, можно учить по "чистым" эталонам, объединив их в эталоны обобщенные. Но "ближе к жизни" можно учить по разным "частным" эталонам (то, что мы называем жизненным опытом), приводящим к одному решению. Например, можно (возвращаясь к многострадальному примеру) последовательно "показывать" эталоны B1&A1&C2, B1&A1&C1 и т.д., приводящие к решению R1. Можно предъявлять вперемежку разные эталоны, приводящие к разным решениям. И это справедливо соответствует диалектике познания на основе гипотез, экспериментов и опыта, гласящей, что мир познаваем, но всего познать нельзя, ибо, мы добавляем, - Бесконечность!

Например, дядя Рамзай не мог ранее предвидеть некоторых комбинаций событий, предварительно имея ошибочное суждение о распределении работ своих клиентов. Или ему даже пришлось употребить свои связи для того, чтобы осуществить вожделенную мечту: включить в орбиту своих действий восхитительную многоприбыльную продукцию фирмы Ночная Бабочка!

Во всех случаях на этапе обучения целесообразно определять события А, В, С с максимальной достоверностью, равной единице, рассчитывая тем самым реакцию нейросети на вполне определенные ситуации. Это следует из того, что даже возникшая при предъявлении эталона малая величина возбуждения нейрона входного слоя указывает, что событие возможно и, следовательно, нуждается в рассмотрении.

Того же требует технология трассировки - "прокладывания" опорных путей в сети. Она ставит вопрос ребром: "Что делать, если событие наступило?"

Как и все знания в основе нашей мудрости, сеть должна эволюционировать: пополняться и развиваться. Лишь на этой основе можно ставить вопрос не только об обучении (с учителем), но и о самообучении.

Таким образом, мы не сразу предъявляем сети весь обобщенный эталон, например, A1&B1&C1&C2&C3&C4&C5, приводящий к решению R1, а последовательно развиваем его, предъявляя частные эталоны "в полном смысле" - как единичные значения соответствующих булевых переменных или целых. Возможно, что мы не все такие эталоны даже можем перебрать практически. Например, спустя год после успешной деятельности Компании Петя впервые направился к Марине, торгующей тибетским бальзамом. Пусть лишь глубокий анализ ситуации показал, что это требует трассировки решения A2&B3&C3->R4.

Конечно, мы можем поступить просто. Мы можем по вновь появившимся частным эталонам сформировать новые обобщенные эталоны и, отвергнув все ранее проведенное обучение (положив все веса связей в нейросети равными нулю), вновь произвести обучение нейросети по всему множеству обобщенных эталонов, включая уточненные. Однако это может противоречить динамике всего совокупного процесса обучения и распознавания, непрерываемому участию сети в системе управления, малой трудоемкости обучения. Обучение должно быть столь же оперативным и динамичным, как распознавание.

Другой путь учета новых эталонов заключается в "обнулении" или минимизации лишь тех весов связей, которые обусловлены предыдущим значением обобщенного эталона, приводящего к тому же решению. Это выводит использованные ранее нейроны в ресурс. Затем трассировка может быть выполнена заново по уточненному обобщенному эталону. Этот путь может оказаться более коротким, если не учитывать затрат на ликвидацию следов присутствия устаревшего обобщенного эталона. (Операции "чистки" весьма распространены в практике человеческой деятельности!) Мы не оспариваем этот путь, полагаясь на творческое, критическое настроение читателя, и признаемся честно, что мы этот путь не исследовали, полагаясь на интуицию. Интуиция же нам подсказывает, что надо действовать как-то проще, тем более что мы не постесняемся ввести дополнительные связи в сеть, если понадобится.

Итак, рассмотрим проблему динамического включения новых частных эталонов в состав обобщенного эталона на фоне уже произведенного частичного обучения нейросети.

Пусть предъявление эталонов A1&B1&C2 и A1&B1&C4 ("текущий" обобщенный эталон A1&B1&C2&C4 ), требующих решения R1, а также предъявление текущих обобщенных эталонов A1&B2&C1&C2&C3, A1&B2&C4&C5, A2&B3&C1&C2&C3&C4&C5, A2&B1&C1&C2&C3&C4&C5, требующих соответственно решений R2, R3, R4, R5, привели к трассировке нейросети (к ее текущему состоянию), представленной на рис. 5.1.

Частично обученная нейронная сеть

Рис. 5.1. Частично обученная нейронная сеть

Здесь "жирные" связи обладают максимальным значением веса (скорее всего - единичным). Такое состояние получено с помощью алгоритма трассировки, представленного в предыдущей лекции, и это предлагается проверить читателю в порядке закрепления материала.

Матрица следования S, соответствующая получившейся сети, показана на рис. 5.2.

Матрица следования

Рис. 5.2. Матрица следования

Как видим, сеть оказалась весьма "запутанной" дополнительными связями. Обучение всем обобщенным эталонам сразу (пример в "Трассировка нейронной сети" ) выявляет термы, использующиеся при получении различных решений. Здесь же термы не складывались, нейроны почти не переиспользовались.

Это и привело к формированию большого числа дополнительных связей. (Мы не любим, когда из нас "вытягивают" одно за другим. Мы возмущаемся: "Не тяни, выкладывай все, что тебе нужно!")

< Лекция 4 || Лекция 5: 123 || Лекция 6 >
Эльвира Герейханова
Эльвира Герейханова

Раньше это можно было зделать просто нажав на тест и посмотреть результаты а сейчас никак

Елена Лобынцева
Елена Лобынцева
Помогите разобраться как можно подобрать НС для распознавания внутренней области выпуклого многоугольника?
Дмитрий Степанов
Дмитрий Степанов
Россия, Москва, МГТУ им. Баумана, 2006
Дмитрий Степаненко
Дмитрий Степаненко
Россия