🗊Презентация Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18

Категория: Технология
Нажмите для полного просмотра!
Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №1Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №2Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №3Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №4Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №5Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №6Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №7Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №8Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №9Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №10Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №11Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №12Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №13Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №14Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №15Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №16Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №17Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №18Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №19Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №20Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №21Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №22Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №23Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №24Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №25Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №26Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №27Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №28Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №29Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №30Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №31Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №32Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №33Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №34Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №35Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №36Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №37Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №38Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №39Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №40Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №41Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №42Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №43Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №44

Содержание

Вы можете ознакомиться и скачать презентацию на тему Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18. Доклад-сообщение содержит 44 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Виды искусственных нейронных сетей и способы организации их обучения и функционирования
Описание слайда:
Виды искусственных нейронных сетей и способы организации их обучения и функционирования

Слайд 2





ПЕРСЕПТРОН Розенблатта
Одной из первых искусственных сетей, способных к перцепции (восприятию) и формированию реакции на воспринятый стимул, явился PERCEPTRON Розенблатта (F.Rosenblatt, 1957). 
Персептрон рассматривался его автором не как конкретное техническое вычислительное устройство, а как модель работы мозга.
Описание слайда:
ПЕРСЕПТРОН Розенблатта Одной из первых искусственных сетей, способных к перцепции (восприятию) и формированию реакции на воспринятый стимул, явился PERCEPTRON Розенблатта (F.Rosenblatt, 1957). Персептрон рассматривался его автором не как конкретное техническое вычислительное устройство, а как модель работы мозга.

Слайд 3





Элементарный персептрон Розенблатта
Описание слайда:
Элементарный персептрон Розенблатта

Слайд 4





Обучение сети
Обучение сети состоит в подстройке весовых коэффициентов каждого нейрона. 
Пусть имеется набор пар векторов (xi, yi), 
i = 1..p, называемый обучающей выборкой. 
Нейронная сеть называется обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора xi на выходах всякий раз получается соответствующий вектор yi
Описание слайда:
Обучение сети Обучение сети состоит в подстройке весовых коэффициентов каждого нейрона. Пусть имеется набор пар векторов (xi, yi), i = 1..p, называемый обучающей выборкой. Нейронная сеть называется обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора xi на выходах всякий раз получается соответствующий вектор yi

Слайд 5





Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов: 
Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов:
Описание слайда:
Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов: Предложенный Ф.Розенблаттом метод обучения состоит в итерационной подстройке матрицы весов, последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает несколько шагов:

Слайд 6


Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №6
Описание слайда:

Слайд 7





Используемая на шаге 3 формула 
Используемая на шаге 3 формула 
учитывает следующие обстоятельства: 
а) модифицируются только компоненты матрицы весов, отвечающие ненулевым значениям входов; 
б) знак приращения веса соответствует знаку ошибки, т.е. положительная ошибка (δ>0, значение выхода меньше требуемого) приводит к усилению связи; 
в) обучение каждого нейрона происходит независимо от обучения остальных нейронов, что соответствует важному с биологической точки зрения, принципу локальности обучения.
Описание слайда:
Используемая на шаге 3 формула Используемая на шаге 3 формула учитывает следующие обстоятельства: а) модифицируются только компоненты матрицы весов, отвечающие ненулевым значениям входов; б) знак приращения веса соответствует знаку ошибки, т.е. положительная ошибка (δ>0, значение выхода меньше требуемого) приводит к усилению связи; в) обучение каждого нейрона происходит независимо от обучения остальных нейронов, что соответствует важному с биологической точки зрения, принципу локальности обучения.

Слайд 8





Данный метод обучения был назван Ф. Розенблаттом “методом коррекции с обратной передачей сигнала ошибки”. Позднее более широко стало известно название “ -правило”. 
Данный метод обучения был назван Ф. Розенблаттом “методом коррекции с обратной передачей сигнала ошибки”. Позднее более широко стало известно название “ -правило”. 
Представленный алгоритм относится к широкому классу алгоритмов обучения с учителем, поскольку известны как входные вектора, так и требуемые значения выходных векторов. 
Доказанная Розенблаттом теорема о сходимости обучения по    -правилу говорит о том, что персептрон способен обучится любому обучающему набору, который он способен представить.
Описание слайда:
Данный метод обучения был назван Ф. Розенблаттом “методом коррекции с обратной передачей сигнала ошибки”. Позднее более широко стало известно название “ -правило”. Данный метод обучения был назван Ф. Розенблаттом “методом коррекции с обратной передачей сигнала ошибки”. Позднее более широко стало известно название “ -правило”. Представленный алгоритм относится к широкому классу алгоритмов обучения с учителем, поскольку известны как входные вектора, так и требуемые значения выходных векторов. Доказанная Розенблаттом теорема о сходимости обучения по  -правилу говорит о том, что персептрон способен обучится любому обучающему набору, который он способен представить.

Слайд 9





Элементарный персептрон Розенблатта
Однако, как было показано позднее (M.Minsky, S.Papert, 1969), этот вывод оказался неточным: 
Были выявлены принципиальные неустранимые ограничения однослойных персептронов, и впоследствии стал в основном рассматриваться многослойный вариант персептрона, в котором имеются несколько слоев процессорных элементов.
Описание слайда:
Элементарный персептрон Розенблатта Однако, как было показано позднее (M.Minsky, S.Papert, 1969), этот вывод оказался неточным: Были выявлены принципиальные неустранимые ограничения однослойных персептронов, и впоследствии стал в основном рассматриваться многослойный вариант персептрона, в котором имеются несколько слоев процессорных элементов.

Слайд 10


Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №10
Описание слайда:

Слайд 11


Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №11
Описание слайда:

Слайд 12





Многослойный персептрон
Многослойными персептронами называют нейронные сети прямого распространения. 
Входной сигнал в таких сетях распространяется в прямом направлении, от слоя к слою. 
Многослойный персептрон в общем представлении состоит из следующих элементов: 
множества входных узлов, которые образуют входной слой; 
одного или нескольких скрытых слоев вычислительных нейронов; 
одного выходного слоя нейронов.
Описание слайда:
Многослойный персептрон Многослойными персептронами называют нейронные сети прямого распространения. Входной сигнал в таких сетях распространяется в прямом направлении, от слоя к слою. Многослойный персептрон в общем представлении состоит из следующих элементов: множества входных узлов, которые образуют входной слой; одного или нескольких скрытых слоев вычислительных нейронов; одного выходного слоя нейронов.

Слайд 13





Основное прикладное значение этого класса сетей состоит в том, что они могут решать задачу аппроксимации многомерных функций, т.е. построения многомерного отображения               , обобщающего заданный набор примеров             .
Основное прикладное значение этого класса сетей состоит в том, что они могут решать задачу аппроксимации многомерных функций, т.е. построения многомерного отображения               , обобщающего заданный набор примеров             .
В зависимости от типа выходных переменных, аппроксимация функций может принимать вид классификации или регрессии  
К этой постановке сводятся многие  практические задачи распознавания образов, фильтрации шумов, предсказания временных рядов и др.
Описание слайда:
Основное прикладное значение этого класса сетей состоит в том, что они могут решать задачу аппроксимации многомерных функций, т.е. построения многомерного отображения , обобщающего заданный набор примеров . Основное прикладное значение этого класса сетей состоит в том, что они могут решать задачу аппроксимации многомерных функций, т.е. построения многомерного отображения , обобщающего заданный набор примеров . В зависимости от типа выходных переменных, аппроксимация функций может принимать вид классификации или регрессии К этой постановке сводятся многие практические задачи распознавания образов, фильтрации шумов, предсказания временных рядов и др.

Слайд 14





Дискриминатор
Скалярный выход нейрона можно использовать в качестве индикатор принадлежности входного вектора к одному из заданных классов (т.н. дискриминантной функции). 
Поскольку дискриминантная функция зависит лишь от линейной комбинации входов, нейрон является 
линейным дискриминатором.
Описание слайда:
Дискриминатор Скалярный выход нейрона можно использовать в качестве индикатор принадлежности входного вектора к одному из заданных классов (т.н. дискриминантной функции). Поскольку дискриминантная функция зависит лишь от линейной комбинации входов, нейрон является линейным дискриминатором.

Слайд 15





Нейрон как линейный дискриминатор
Описание слайда:
Нейрон как линейный дискриминатор

Слайд 16





Определен следующий важный  результат в этой области: одного скрытого слоя нейронов с сигмоидальной функцией активации достаточно для аппроксимации любой границы между классами ( или любой функции) со сколь угодно высокой точностью. 
Определен следующий важный  результат в этой области: одного скрытого слоя нейронов с сигмоидальной функцией активации достаточно для аппроксимации любой границы между классами ( или любой функции) со сколь угодно высокой точностью. 
Точность аппроксимации возрастает с числом нейронов скрытого слоя: при N нейронах ошибка оценивается как f (1/N).
Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учеб. пособие для вузов.- М.: Изд-во МГТУ им. Н.Э.Баумана, 2002 (Сер. Информатика в техническом университете).
Описание слайда:
Определен следующий важный результат в этой области: одного скрытого слоя нейронов с сигмоидальной функцией активации достаточно для аппроксимации любой границы между классами ( или любой функции) со сколь угодно высокой точностью. Определен следующий важный результат в этой области: одного скрытого слоя нейронов с сигмоидальной функцией активации достаточно для аппроксимации любой границы между классами ( или любой функции) со сколь угодно высокой точностью. Точность аппроксимации возрастает с числом нейронов скрытого слоя: при N нейронах ошибка оценивается как f (1/N). Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учеб. пособие для вузов.- М.: Изд-во МГТУ им. Н.Э.Баумана, 2002 (Сер. Информатика в техническом университете).

Слайд 17


Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №17
Описание слайда:

Слайд 18





Многослойный персептрон
При построении сети на основе нескольких слоев персептронов учитывается следующее:
Количество входных и выходных элементов в многослойном персептроне определяется условиями задачи. 
Вопрос о том, сколько использовать промежуточных слоев и элементов в них, пока строго математически не определен.
 В качестве начального приближения можно взять один промежуточный слой, а число элементов в нем положить равным полусумме числа входных и выходных элементов.
Описание слайда:
Многослойный персептрон При построении сети на основе нескольких слоев персептронов учитывается следующее: Количество входных и выходных элементов в многослойном персептроне определяется условиями задачи. Вопрос о том, сколько использовать промежуточных слоев и элементов в них, пока строго математически не определен. В качестве начального приближения можно взять один промежуточный слой, а число элементов в нем положить равным полусумме числа входных и выходных элементов.

Слайд 19





Многослойные персептроны 
Многослойные персептроны успешно применяются для решения разнообразных сложных задач и имеют три следующих отличительных свойства:
Свойство 1. Каждый нейрон сети имеет нелинейную функцию активации
Свойство 2. Несколько скрытых слоев
Свойство 3. Высокая связность
Описание слайда:
Многослойные персептроны Многослойные персептроны успешно применяются для решения разнообразных сложных задач и имеют три следующих отличительных свойства: Свойство 1. Каждый нейрон сети имеет нелинейную функцию активации Свойство 2. Несколько скрытых слоев Свойство 3. Высокая связность

Слайд 20





метод обратного распространения ошибки
Исторически наибольшую трудность на пути к эффективному правилу обучения многослойных персептронов вызывала процедура эффективного расчета градиента функции ошибки. 
Ошибка сети определяется по ее выходам,  поэтому нужна была процедура передачи ошибки с выходного слоя к предшествующим слоям сети, в направлении обратном обработке входной информации. 
Поэтому такой метод, когда он был найден, получил название метода обратного распространения ошибки 
(back propagation error)(ОРО).
Описание слайда:
метод обратного распространения ошибки Исторически наибольшую трудность на пути к эффективному правилу обучения многослойных персептронов вызывала процедура эффективного расчета градиента функции ошибки. Ошибка сети определяется по ее выходам, поэтому нужна была процедура передачи ошибки с выходного слоя к предшествующим слоям сети, в направлении обратном обработке входной информации. Поэтому такой метод, когда он был найден, получил название метода обратного распространения ошибки (back propagation error)(ОРО).

Слайд 21





САМООБУЧАЮЩИЕСЯ  НЕЙРОСЕТИ
Самообучающиеся нейросети - это класс сетей, в котором обучение происходит без учителя, т.е. реализуется процесс самообучения: сеть самостоятельно формирует свои выходы, адаптируясь к поступающим на ее входы сигналам на основе минимизации некоторого целевого функционала.  
В отсутствие внешней цели, "учителем" сети могут служить лишь сами данные, т.е. имеющаяся в них информация, закономерности, отличающие входные данные от случайного шума.
Описание слайда:
САМООБУЧАЮЩИЕСЯ НЕЙРОСЕТИ Самообучающиеся нейросети - это класс сетей, в котором обучение происходит без учителя, т.е. реализуется процесс самообучения: сеть самостоятельно формирует свои выходы, адаптируясь к поступающим на ее входы сигналам на основе минимизации некоторого целевого функционала. В отсутствие внешней цели, "учителем" сети могут служить лишь сами данные, т.е. имеющаяся в них информация, закономерности, отличающие входные данные от случайного шума.

Слайд 22





САМООБУЧАЮЩИЕСЯ  НЕЙРОСЕТИ
Длина описания данных пропорциональна  разрядности данных  (числу бит), определяющей возможное разнообразие принимаемых ими значений, и размерности данных, т.е. числу компонент входных векторов. 
Соответственно, можно различить два типа кодирования, использующих противоположные способы сжатия информации:
Описание слайда:
САМООБУЧАЮЩИЕСЯ НЕЙРОСЕТИ Длина описания данных пропорциональна разрядности данных (числу бит), определяющей возможное разнообразие принимаемых ими значений, и размерности данных, т.е. числу компонент входных векторов. Соответственно, можно различить два типа кодирования, использующих противоположные способы сжатия информации:

Слайд 23





САМООБУЧАЮЩИЕСЯ  НЕЙРОСЕТИ
понижение размерности данных с минимальной потерей информации (анализ главных компонент данных, выделение наборов независимых признаков); 
уменьшение разнообразия данных за счет выделения конечного набора классов и отнесения данных к одному из них (кластеризация данных, квантование непрерывной входной информации).
Описание слайда:
САМООБУЧАЮЩИЕСЯ НЕЙРОСЕТИ понижение размерности данных с минимальной потерей информации (анализ главных компонент данных, выделение наборов независимых признаков); уменьшение разнообразия данных за счет выделения конечного набора классов и отнесения данных к одному из них (кластеризация данных, квантование непрерывной входной информации).

Слайд 24





Правило Ойа минимизации ошибки обучения сети
 
Описание слайда:
Правило Ойа минимизации ошибки обучения сети  

Слайд 25





Соревновательное обучение
Соревновательное обучение состоит в том, чтобы каждый нейрон был обучен усиливать свой выход и подавлять активность остальных. 
При логистической функции активации, препятствующей бесконечному росту, победителем в этой борьбе выйдет нейрон с максимальным первоначальным значением выхода. Его значение возрастет до единицы, а активность остальных нейронов затухнет до нуля. 
Такие соревновательные слои нейронов также можно использовать для сжатия информации, при этом сжатие будет основано на принципе уменьшения разнообразия входных данных при той же их размерности.
Описание слайда:
Соревновательное обучение Соревновательное обучение состоит в том, чтобы каждый нейрон был обучен усиливать свой выход и подавлять активность остальных. При логистической функции активации, препятствующей бесконечному росту, победителем в этой борьбе выйдет нейрон с максимальным первоначальным значением выхода. Его значение возрастет до единицы, а активность остальных нейронов затухнет до нуля. Такие соревновательные слои нейронов также можно использовать для сжатия информации, при этом сжатие будет основано на принципе уменьшения разнообразия входных данных при той же их размерности.

Слайд 26





Алгорим «Победитель получает все» (WTA)
Разновидность соревновательного алгоритма:
Веса латеральных связей – т.е. связей в одном (скрытом) нейронном слое – нормируются таким образом, что суммарный сигнал является усиливающим только для нейрона с максимальной исходной активностью. Остальные нейроны испытывают торможение. 
По выполнении некоторого числа итераций t для всех нейронов, кроме одного, значение корректирующей функции становится отрицательным, что обращает их активность в нуль. Единственный, оставшийся активным, нейрон является победителем. Он и указывает на тот класс, к которому принадлежит введенный образ.
Описание слайда:
Алгорим «Победитель получает все» (WTA) Разновидность соревновательного алгоритма: Веса латеральных связей – т.е. связей в одном (скрытом) нейронном слое – нормируются таким образом, что суммарный сигнал является усиливающим только для нейрона с максимальной исходной активностью. Остальные нейроны испытывают торможение. По выполнении некоторого числа итераций t для всех нейронов, кроме одного, значение корректирующей функции становится отрицательным, что обращает их активность в нуль. Единственный, оставшийся активным, нейрон является победителем. Он и указывает на тот класс, к которому принадлежит введенный образ.

Слайд 27


Виды искусственных нейронных сетей и способы организации их обучения и функционирования. Лекция 17-18, слайд №27
Описание слайда:

Слайд 28





Нейросетевая парадигма Липпмана-Хемминга, реализующая механизм WTA для решения задачи классификации данных,  является моделью с прямой структурой памяти. 
Нейросетевая парадигма Липпмана-Хемминга, реализующая механизм WTA для решения задачи классификации данных,  является моделью с прямой структурой памяти. 
Информация, содержащаяся в исходных образах никак не обобщается, а непосредственно запоминается в синаптических связях. 
Память здесь не является распределенной, т. е. при выходе из строя одного нейрона полностью теряется информация обо всем соответствующем ему образе памяти.
Описание слайда:
Нейросетевая парадигма Липпмана-Хемминга, реализующая механизм WTA для решения задачи классификации данных, является моделью с прямой структурой памяти. Нейросетевая парадигма Липпмана-Хемминга, реализующая механизм WTA для решения задачи классификации данных, является моделью с прямой структурой памяти. Информация, содержащаяся в исходных образах никак не обобщается, а непосредственно запоминается в синаптических связях. Память здесь не является распределенной, т. е. при выходе из строя одного нейрона полностью теряется информация обо всем соответствующем ему образе памяти.

Слайд 29





Карта самоорганизации Кохонена
(Самоорганизующаяся сеть Кохонена)
В противоположность хемминговой сети модель Кохонена (T.Kohonen, 1982) выполняет обобщение предъявляемой информации. 
В результате работы НС Кохонена получается образ, представляющий собой карту распределения векторов из обучающей выборки. 
Таким образом, в сети Кохонена выполняется решение задачи нахождения кластеров в пространстве входных образов.
Описание слайда:
Карта самоорганизации Кохонена (Самоорганизующаяся сеть Кохонена) В противоположность хемминговой сети модель Кохонена (T.Kohonen, 1982) выполняет обобщение предъявляемой информации. В результате работы НС Кохонена получается образ, представляющий собой карту распределения векторов из обучающей выборки. Таким образом, в сети Кохонена выполняется решение задачи нахождения кластеров в пространстве входных образов.

Слайд 30





Самоорганизующаяся сеть Кохонена
Данная сеть обучается без учителя на основе самоорганизации. 
По мере обучения вектора весов нейронов стремятся к центрам кластеров - групп векторов обучающей выборки. 
На этапе решения информационных задач сеть относит новый предъявленный образ к одному из сформированных кластеров, указывая тем самым категорию, к которой он принадлежит. При этом результат представляется в виде карты нейронной активности.
Описание слайда:
Самоорганизующаяся сеть Кохонена Данная сеть обучается без учителя на основе самоорганизации. По мере обучения вектора весов нейронов стремятся к центрам кластеров - групп векторов обучающей выборки. На этапе решения информационных задач сеть относит новый предъявленный образ к одному из сформированных кластеров, указывая тем самым категорию, к которой он принадлежит. При этом результат представляется в виде карты нейронной активности.

Слайд 31





Самоорганизующаяся сеть Кохонена
Сеть Кохонена содержит один скрытый слой нейронов. Число входов каждого нейрона равно размерности входного образа. Количество же нейронов в  скрытом слое определяется той степенью подробности, с которой требуется выполнить кластеризацию набора исходных образов. 
При достаточном количестве нейронов и удачных параметрах обучения НС Кохонена может не только выделить основные группы образов, но и установить "тонкую структуру" полученных кластеров. 
При этом близким входным образам будут соответствовать близкие карты нейронной активности.
Описание слайда:
Самоорганизующаяся сеть Кохонена Сеть Кохонена содержит один скрытый слой нейронов. Число входов каждого нейрона равно размерности входного образа. Количество же нейронов в скрытом слое определяется той степенью подробности, с которой требуется выполнить кластеризацию набора исходных образов. При достаточном количестве нейронов и удачных параметрах обучения НС Кохонена может не только выделить основные группы образов, но и установить "тонкую структуру" полученных кластеров. При этом близким входным образам будут соответствовать близкие карты нейронной активности.

Слайд 32





Нейронная сеть Кохонена (Kohonen clastering network – KCN) характеризуется  следующими свойствами: 
Нейронная сеть Кохонена (Kohonen clastering network – KCN) характеризуется  следующими свойствами: 
сеть состоит из одного скрытого слоя нейронов (всего слоев 2);
число входов каждого нейрона равно размерности входного образа ;
количество нейронов в слое непосредственно определяет, сколько различных кластеров k сеть может распознать.
Описание слайда:
Нейронная сеть Кохонена (Kohonen clastering network – KCN) характеризуется следующими свойствами: Нейронная сеть Кохонена (Kohonen clastering network – KCN) характеризуется следующими свойствами: сеть состоит из одного скрытого слоя нейронов (всего слоев 2); число входов каждого нейрона равно размерности входного образа ; количество нейронов в слое непосредственно определяет, сколько различных кластеров k сеть может распознать.

Слайд 33





Модель Хопфилда (J.J.Hopfield, 1982) 
Модель Хопфилда занимает особое место в ряду нейросетевых моделей: 
В ней впервые удалось установить связь между нелинейными динамическими системами и нейронными сетями. 
Образы памяти сети соответствуют устойчивым предельным точкам (аттракторам) динамической системы. 
Особенно важной оказалась возможность переноса математического аппарата теории нелинейных динамических систем (и статистической физики вообще) на нейронные сети. 
При этом появилась возможность теоретически оценить объем памяти сети Хопфилда, определить область параметров сети, в которой достигается наилучшее функционирование.
Описание слайда:
Модель Хопфилда (J.J.Hopfield, 1982) Модель Хопфилда занимает особое место в ряду нейросетевых моделей: В ней впервые удалось установить связь между нелинейными динамическими системами и нейронными сетями. Образы памяти сети соответствуют устойчивым предельным точкам (аттракторам) динамической системы. Особенно важной оказалась возможность переноса математического аппарата теории нелинейных динамических систем (и статистической физики вообще) на нейронные сети. При этом появилась возможность теоретически оценить объем памяти сети Хопфилда, определить область параметров сети, в которой достигается наилучшее функционирование.

Слайд 34





РЕКУРЕНТНЫЕ СЕТИ ХОПФИЛДА
Сеть Хопфилда получается, если наложить  на  веса  связей в выражении    s j =  wij хi + w0j     следующие условия:
1) все элементы связаны со всеми;
2) w ij = w ji   - прямые и обратные связи симметричны;
3) wii = 0 - диагональные элементы  матрицы  связей  равны нулю. 
Последнее условие обычно  добавляется, чтобы  исключить  непосредственную  обратную  связь  с  выхода нейрона на собственный  вход.
Описание слайда:
РЕКУРЕНТНЫЕ СЕТИ ХОПФИЛДА Сеть Хопфилда получается, если наложить на веса связей в выражении s j =  wij хi + w0j следующие условия: 1) все элементы связаны со всеми; 2) w ij = w ji - прямые и обратные связи симметричны; 3) wii = 0 - диагональные элементы матрицы связей равны нулю. Последнее условие обычно добавляется, чтобы исключить непосредственную обратную связь с выхода нейрона на собственный вход.

Слайд 35





Конфигурация  сети Хопфилда
Описание слайда:
Конфигурация сети Хопфилда

Слайд 36





Одно   из   достоинств   симметричной  квадратной  матрицы   связей, характерной для сети Хопфилда, состоит в  том, что  поведение сети можно описать через стремление к минимуму простой целевой функции
Одно   из   достоинств   симметричной  квадратной  матрицы   связей, характерной для сети Хопфилда, состоит в  том, что  поведение сети можно описать через стремление к минимуму простой целевой функции
E =   wij х iхj = min,  i j
Обычно  Е  интерпретируется  как   некоторая "обобщенная энергия" . Такая интерпретация берет начало от физической модели Изинга, в  которой  совокупность  взаимодействующих  магнитных диполей (спинов)  стремится  принять  такую  конфигурацию,  в которой суммарная энергия будет минимальна.
Описание слайда:
Одно из достоинств симметричной квадратной матрицы связей, характерной для сети Хопфилда, состоит в том, что поведение сети можно описать через стремление к минимуму простой целевой функции Одно из достоинств симметричной квадратной матрицы связей, характерной для сети Хопфилда, состоит в том, что поведение сети можно описать через стремление к минимуму простой целевой функции E =   wij х iхj = min, i j Обычно Е интерпретируется как некоторая "обобщенная энергия" . Такая интерпретация берет начало от физической модели Изинга, в которой совокупность взаимодействующих магнитных диполей (спинов) стремится принять такую конфигурацию, в которой суммарная энергия будет минимальна.

Слайд 37





Поведение системы  в  пространстве  состояний  напоминает движение шарика, который стремится скатиться в точку  минимума некоторого  потенциального    рельефа со множеством локальных минимумов. Эти минимумы будут устойчивыми состояниями памяти, а окружающие точки на склонах - переходными состояниями. Начальное состояние шарика соответствует вектору, содержащему неполную информацию об образе памяти, которому отвечает дно лунки.
Поведение системы  в  пространстве  состояний  напоминает движение шарика, который стремится скатиться в точку  минимума некоторого  потенциального    рельефа со множеством локальных минимумов. Эти минимумы будут устойчивыми состояниями памяти, а окружающие точки на склонах - переходными состояниями. Начальное состояние шарика соответствует вектору, содержащему неполную информацию об образе памяти, которому отвечает дно лунки.
Описание слайда:
Поведение системы в пространстве состояний напоминает движение шарика, который стремится скатиться в точку минимума некоторого потенциального рельефа со множеством локальных минимумов. Эти минимумы будут устойчивыми состояниями памяти, а окружающие точки на склонах - переходными состояниями. Начальное состояние шарика соответствует вектору, содержащему неполную информацию об образе памяти, которому отвечает дно лунки. Поведение системы в пространстве состояний напоминает движение шарика, который стремится скатиться в точку минимума некоторого потенциального рельефа со множеством локальных минимумов. Эти минимумы будут устойчивыми состояниями памяти, а окружающие точки на склонах - переходными состояниями. Начальное состояние шарика соответствует вектору, содержащему неполную информацию об образе памяти, которому отвечает дно лунки.

Слайд 38





Характер рельефа определяется видом целевой функции Е и формируется в  процессе обучения  сети.  
Характер рельефа определяется видом целевой функции Е и формируется в  процессе обучения  сети.  
Обучение  производится путем демонстрации  эталонных образов,  которые  сеть  должна  запомнить,  хранить  и  потом  воспроизводить (узнавать).  
Алгоритм  обучения  (формирование весовых коэффициентов w ij)  основывается  на  правиле  Хебба.
Описание слайда:
Характер рельефа определяется видом целевой функции Е и формируется в процессе обучения сети. Характер рельефа определяется видом целевой функции Е и формируется в процессе обучения сети. Обучение производится путем демонстрации эталонных образов, которые сеть должна запомнить, хранить и потом воспроизводить (узнавать). Алгоритм обучения (формирование весовых коэффициентов w ij) основывается на правиле Хебба.

Слайд 39





Главное свойство сети Хопфилда - способность восстанавливать возмущенное состояние равновесия - "вспоминать" искаженные или потерянные биты информации. 
Главное свойство сети Хопфилда - способность восстанавливать возмущенное состояние равновесия - "вспоминать" искаженные или потерянные биты информации. 
Восстановление полной информации по какой-либо ее части - вспоминание по ассоциации - наделяет модель Хопфилда свойством ассоциативной памяти.
Описание слайда:
Главное свойство сети Хопфилда - способность восстанавливать возмущенное состояние равновесия - "вспоминать" искаженные или потерянные биты информации. Главное свойство сети Хопфилда - способность восстанавливать возмущенное состояние равновесия - "вспоминать" искаженные или потерянные биты информации. Восстановление полной информации по какой-либо ее части - вспоминание по ассоциации - наделяет модель Хопфилда свойством ассоциативной памяти.

Слайд 40





Одна и та же сеть  с  одними  и теми же весами связей может хранить и воспроизводить несколько различных эталонов. 
Одна и та же сеть  с  одними  и теми же весами связей может хранить и воспроизводить несколько различных эталонов. 
Каждый эталон является аттрактором (стационарным оптимальным состоянием), вокруг которого  существует  область  притяжения ( от англ. attract – притягивать)  
Любая  система  с несколькими  аттракторами,  к  которым  она  тяготеет, может рассматриваться  как  содержательно-адресуемая  память, т.е. память, из которой информация  об  эталоне  извлекается  путем задания нескольких признаков эталона.
Описание слайда:
Одна и та же сеть с одними и теми же весами связей может хранить и воспроизводить несколько различных эталонов. Одна и та же сеть с одними и теми же весами связей может хранить и воспроизводить несколько различных эталонов. Каждый эталон является аттрактором (стационарным оптимальным состоянием), вокруг которого существует область притяжения ( от англ. attract – притягивать) Любая система с несколькими аттракторами, к которым она тяготеет, может рассматриваться как содержательно-адресуемая память, т.е. память, из которой информация об эталоне извлекается путем задания нескольких признаков эталона.

Слайд 41





Ассоциативный характер памяти сети Хопфилда качественно отличает ее от обычной, адресной, компьютерной памяти. 
Ассоциативный характер памяти сети Хопфилда качественно отличает ее от обычной, адресной, компьютерной памяти. 
При использовании ассоциативной памяти доступ к информации производится непосредственно по ее содержанию, т.е. по частично известным искаженным фрагментам. 
Важным свойством памяти, представленной набором аттракторов сети, является ее распределенность. Это означает, что все нейроны сети участвуют в кодировании всех состояний памяти. Поэтому небольшие искажения значений отдельных весов не сказываются на содержании памяти, что повышает устойчивость памяти к помехам.
Описание слайда:
Ассоциативный характер памяти сети Хопфилда качественно отличает ее от обычной, адресной, компьютерной памяти. Ассоциативный характер памяти сети Хопфилда качественно отличает ее от обычной, адресной, компьютерной памяти. При использовании ассоциативной памяти доступ к информации производится непосредственно по ее содержанию, т.е. по частично известным искаженным фрагментам. Важным свойством памяти, представленной набором аттракторов сети, является ее распределенность. Это означает, что все нейроны сети участвуют в кодировании всех состояний памяти. Поэтому небольшие искажения значений отдельных весов не сказываются на содержании памяти, что повышает устойчивость памяти к помехам.

Слайд 42





Преобразование информации рекуррентными нейронными сетями типа сети Хопфилда, минимизирующими энергию, может приводить к появлению в их пространстве состояний аттракторов, далеких по форме от образов внешнего для сети окружения. 
Преобразование информации рекуррентными нейронными сетями типа сети Хопфилда, минимизирующими энергию, может приводить к появлению в их пространстве состояний аттракторов, далеких по форме от образов внешнего для сети окружения. 
Таким образом, появляется возможность использовать рекуррентные сети для активной кластеризации, при которой сеть "творчески" относится к входным векторам, осуществляя нетривиальные обобщения поступающих на ее вход сигналов
Итак, минимизирующие энергию нейронные сети типа сети Хопфилда могут использоваться для предсказания существования новых классов объектов.
Описание слайда:
Преобразование информации рекуррентными нейронными сетями типа сети Хопфилда, минимизирующими энергию, может приводить к появлению в их пространстве состояний аттракторов, далеких по форме от образов внешнего для сети окружения. Преобразование информации рекуррентными нейронными сетями типа сети Хопфилда, минимизирующими энергию, может приводить к появлению в их пространстве состояний аттракторов, далеких по форме от образов внешнего для сети окружения. Таким образом, появляется возможность использовать рекуррентные сети для активной кластеризации, при которой сеть "творчески" относится к входным векторам, осуществляя нетривиальные обобщения поступающих на ее вход сигналов Итак, минимизирующие энергию нейронные сети типа сети Хопфилда могут использоваться для предсказания существования новых классов объектов.

Слайд 43





Хотя сети Хопфилда получили применение на практике, им свойственны определенные недостатки, ограничивающие возможности их применения:
Хотя сети Хопфилда получили применение на практике, им свойственны определенные недостатки, ограничивающие возможности их применения:
 модель Хопфилда предполагает симметрию связей между элементами; без этого условия понятие энергии не может  быть  введено  и эта простая физическая  метафора,  которой  модель  во  многом обязана своими достижениями, перестает работать;
 условность  понятия энергии, которая может искажать  суть происходящих процессов. 
Представляется, что место энергии как целевой функции нейросети должна занять информация
Описание слайда:
Хотя сети Хопфилда получили применение на практике, им свойственны определенные недостатки, ограничивающие возможности их применения: Хотя сети Хопфилда получили применение на практике, им свойственны определенные недостатки, ограничивающие возможности их применения: модель Хопфилда предполагает симметрию связей между элементами; без этого условия понятие энергии не может быть введено и эта простая физическая метафора, которой модель во многом обязана своими достижениями, перестает работать; условность понятия энергии, которая может искажать суть происходящих процессов. Представляется, что место энергии как целевой функции нейросети должна занять информация

Слайд 44





Нейросетевая система, построенная по модели Хопфилда, способна распознавать практически полностью зашумленные образы. Практическое решение задач демонстрирует замечательное свойство сети Хопфилда ассоциативно узнавать образ по его небольшому фрагменту. 
Нейросетевая система, построенная по модели Хопфилда, способна распознавать практически полностью зашумленные образы. Практическое решение задач демонстрирует замечательное свойство сети Хопфилда ассоциативно узнавать образ по его небольшому фрагменту.
Описание слайда:
Нейросетевая система, построенная по модели Хопфилда, способна распознавать практически полностью зашумленные образы. Практическое решение задач демонстрирует замечательное свойство сети Хопфилда ассоциативно узнавать образ по его небольшому фрагменту. Нейросетевая система, построенная по модели Хопфилда, способна распознавать практически полностью зашумленные образы. Практическое решение задач демонстрирует замечательное свойство сети Хопфилда ассоциативно узнавать образ по его небольшому фрагменту.



Похожие презентации
Mypresentation.ru
Загрузить презентацию