Нейрокомпьютерные системы: Информация
Автор: Михаил Тарков | Новосибирский Государственный Университет
Форма обучения:
дистанционная
Стоимость самостоятельного обучения:
бесплатно
Доступ:
свободный
Документ об окончании:
Вам нравится? Нравится 20 студентам
Уровень:
Специалист
Длительность:
12:23:00
Студентов:
2223
Выпускников:
531
Качество курса:
4.52 | 4.28
Излагаются основы построения нейрокомпьютеров. Дается детальный обзор и описание важнейших методов обучения нейронных сетей различной структуры, а также задач, решаемых этими сетями. Рассмотрены вопросы реализации нейронных сетей.
Искусственные нейронные сети реализуют одну из парадигм искусственного интеллекта, а именно, коннекционистскую. Это означает, что преобразование, выполняемое сетью, определяется значениями весовых коэффициентов и топологией межнейронных соединений. Вместо программирования в традиционных вычислительных системах здесь используется обучение сети, которое сводится к настройке весовых коэффициентов с целью оптимизации заданного критерия качества функционирования сети. Нейронные сети хорошо решают те задачи, которые с трудом поддаются алгоритмизации: распознавание образов, реализация ассоциативной памяти, комбинаторная оптимизация.В курсе лекций рассматриваются: основные модели искусственного нейрона и сетей, использующих искусственный нейрон в качестве своего элемента; варианты обучения сетей: обучение с учителем и самообучение (самоорганизация). Обученная сеть подвергается редукции (упрощению) с целью повышения эффективности ее реализации и функционирования. Нейронные сети могут быть реализованы как электронным (на основе СБИС), так и оптическим способами.
Специальности: Программист
ISBN: 978-5-9556-0063-5
Теги: beta, RMLP, RTRN, WTA, алгоритмы, АРТ, вычисления, генетические алгоритмы, гиперплоскость, интеллект, искусственная жизнь, компоненты, матрица весов, машины больцмана, мутация, нейронные сети, обучение, поиск, рекуррентная сеть, сеть хопфилда, сложность, сортировка, электронная почта, элементы
План занятий
Занятие
Заголовок <<
Дата изучения
Лекция 1
17 минут
Введение в нейрокомпьютерные системы
Рассматриваются: символьная и коннекционистская парадигмы
искусственного интеллекта, понятие искусственной нейронной сети (НС),
история возникновения и перспективы развития НС, отличия НС от
традиционных вычислительных систем.
Оглавление
-
Лекция 2
32 минуты
Модели нейронов
Рассматриваются структура и функции различных моделей
нейрона: персептрон, сигмоидальный нейрон, адалайн, Паде-нейрон, нейрон с
квадратичным сумматором, сигма-пи нейроны, нейрон Хебба, стохастическая
модель нейрона, кубические модели нейронов.
Оглавление
-
Лекция 3
22 минуты
Задача линейного разделения двух классов
Рассматриваются: решение задачи линейного разделения двух классов
методом центров масс, алгоритм обучения персептрона, виды обучения,
геометрическая
интерпретация задачи разделения двух классов.
Оглавление
-
Лекция 4
18 минут
Задача нелинейного разделения двух классов
Рассматриваются: решение задачи нелинейного разделения
двух классов методом максимума правдоподобия и многослойной сетью,
реализация булевых функций посредством нейронной сети.
Оглавление
-
Лекция 5
26 минут
Виды нейронных сетей и способы организации их функционирования
Рассматриваются: варианты многослойных сетей, режимы
функционирования сетей, предобработка входных данных сети, виды
интерпретации ответов НС, задача аппроксимации функций и оценка
способности сети решить эту задачу.
Оглавление
-
Лекция 6
29 минут
Многослойные сети сигмоидального типа
Рассматриваются: многослойный персептрон,
алгоритм обратного распространения ошибки, подбор коэффициента
обучения (одномерная минимизация), методы инициализации весов
сети.
Оглавление
-
Лекция 7
21 минута
Градиентные алгоритмы обучения сети
Рассматриваются: особенности задачи оптимизации,
возникающей при обучении нейронных сетей; алгоритмы выбора направления
минимизации: алгоритм наискорейшего спуска, партан-методы, одношаговый
квазиньютоновский метод и сопряженные градиенты.
Оглавление
-
Лекция 8
27 минут
Методы глобальной оптимизации
Рассматриваются: алгоритм имитации отжига, генетические
алгоритмы, использование случайных возмущений в обучении (метод
виртуальных частиц).
Оглавление
-
Лекция 9
23 минуты
Радиальные нейронные сети
Рассматриваются математические основы радиальных сетей и методы
их обучения. Производится сравнение радиальных и сигмоидальных нейронных
сетей.
Оглавление
-
Лекция 10
32 минуты
Рекуррентные сети как ассоциативные запоминающие устройства
Рассматриваются: нейронная сеть Хопфилда как автоассоциативная
память, обучаемая с использованием метода Хебба и проекционного метода;
гетероассоциативная память на основе сети Хемминга и двунаправленная
ассоциативная память.
Оглавление
-
Лекция 11
30 минут
Решение задач комбинаторной оптимизации рекуррентными сетями
Рассматривается решение задачи коммивояжера сетью Хопфилда и
машиной Больцмана. Оцениваются параметры функции энергии нейронных сетей,
обеспечивающие решение задачи коммивояжера.
Оглавление
-
Лекция 12
28 минут
Рекуррентные сети на базе персептрона
Рассматриваются многослойные рекуррентные сети (персептронная\break
сеть с обратной связью, рекуррентная сеть Эльмана, сеть RTRN) и их
использование для идентификации динамических объектов.
Оглавление
-
Лекция 13
38 минут
Самоорганизация (самообучение) нейронных сетей
Рассматриваются: метод динамических ядер в классификации без
учителя, алгоритмы обучения сетей с самоорганизацией и их применение к
компрессии данных и прогнозированию.
Оглавление
-
Лекция 14
35 минут
Адаптивная резонансная теория (АРТ)
Рассматриваются: вопрос о соотношении стабильности и
пластичности при запоминании; архитектура, реализация, обучение и
характеристики сети АРТ (адаптивной резонансной теории).
Оглавление
-
Лекция 15
48 минут
Нечеткие и гибридные нейронные сети
Рассматриваются: математические основы нечетких систем,
преимущества и алгоритмы обучения нечетких нейронных сетей, нечеткие сети
с генетической настройкой, экспертные системы на основе гибридных
НС.
Оглавление
-
Лекция 16
50 минут
Контрастирование (редукция) нейронной сети
Рассматриваются: методы оценки значимости параметров нейронной
сети и сигналов в ней; сокращение числа входов в линейном сумматоре
методом "снизу-вверх", метод исключения параметров
"сверху-вниз" с
ортогонализацией и бинаризация сумматора.
Оглавление
-
Лекция 17
12 минут
Методы аппаратной реализации нейрокомпьютеров
Рассматриваются электронные и оптические методы реализации
нейрокомпьютеров.
Оглавление
-