🗊Презентация Искусственные нейронные сети

Категория: Технология
Нажмите для полного просмотра!
Искусственные нейронные сети, слайд №1Искусственные нейронные сети, слайд №2Искусственные нейронные сети, слайд №3Искусственные нейронные сети, слайд №4Искусственные нейронные сети, слайд №5Искусственные нейронные сети, слайд №6Искусственные нейронные сети, слайд №7Искусственные нейронные сети, слайд №8Искусственные нейронные сети, слайд №9Искусственные нейронные сети, слайд №10Искусственные нейронные сети, слайд №11Искусственные нейронные сети, слайд №12Искусственные нейронные сети, слайд №13Искусственные нейронные сети, слайд №14Искусственные нейронные сети, слайд №15Искусственные нейронные сети, слайд №16Искусственные нейронные сети, слайд №17Искусственные нейронные сети, слайд №18Искусственные нейронные сети, слайд №19Искусственные нейронные сети, слайд №20Искусственные нейронные сети, слайд №21Искусственные нейронные сети, слайд №22Искусственные нейронные сети, слайд №23Искусственные нейронные сети, слайд №24Искусственные нейронные сети, слайд №25

Содержание

Вы можете ознакомиться и скачать презентацию на тему Искусственные нейронные сети. Доклад-сообщение содержит 25 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





Искусственные нейронные сети
Описание слайда:
Искусственные нейронные сети

Слайд 2





История
1943 - Warren McCulloch, Walter Pitts. A logical calculus of the ideas immanent in nervous activity. Bull. Math. Biophys. – 1943. – v.5. – pp.115–133.
1943 - "Поведение, Цель и Телеология" Arturo Rosenblueth, Norbert Wiener, и Julian Bigelow 
1957 – Фрэнк Розенблатт начал работы над нейронными сетями, перцептрон (персептрон).
1969 – Марвин Мински и Сеймур Паперт «Перцептроны. Введние в вычислительную геометрию» – формальное доказательство ограниченности возможностей перцептрона и показывает, что он неспособен решать некоторые задачи (Проблема "четности" и "один в блоке"), связанные с инвариантностью представлений. Интерес к нейронным сетям резко спадает. 
1974 – Пол Дж. Вербос и А. И. Галушкин одновременно изобретают алгоритм обратного распространения ошибки для обучения многослойных перцептронов. Изобретение не привлекло особого внимания. 
1982 –  после длительного упадка, интерес к нейросетям вновь возрастает. Хопфилд показал, что нейронная сеть с обратными связями может представлять собой систему, минимизирующую энергию (так называемая сеть Хопфилда). Кохоненом представлены модели сети, обучающейся без учителя (Нейронная сеть Кохонена), решающей задачи кластеризации, визуализации данных (самоорганизующаяся карта Кохонена) и другие задачи предварительного анализа данных.
Описание слайда:
История 1943 - Warren McCulloch, Walter Pitts. A logical calculus of the ideas immanent in nervous activity. Bull. Math. Biophys. – 1943. – v.5. – pp.115–133. 1943 - "Поведение, Цель и Телеология" Arturo Rosenblueth, Norbert Wiener, и Julian Bigelow 1957 – Фрэнк Розенблатт начал работы над нейронными сетями, перцептрон (персептрон). 1969 – Марвин Мински и Сеймур Паперт «Перцептроны. Введние в вычислительную геометрию» – формальное доказательство ограниченности возможностей перцептрона и показывает, что он неспособен решать некоторые задачи (Проблема "четности" и "один в блоке"), связанные с инвариантностью представлений. Интерес к нейронным сетям резко спадает. 1974 – Пол Дж. Вербос и А. И. Галушкин одновременно изобретают алгоритм обратного распространения ошибки для обучения многослойных перцептронов. Изобретение не привлекло особого внимания. 1982 – после длительного упадка, интерес к нейросетям вновь возрастает. Хопфилд показал, что нейронная сеть с обратными связями может представлять собой систему, минимизирующую энергию (так называемая сеть Хопфилда). Кохоненом представлены модели сети, обучающейся без учителя (Нейронная сеть Кохонена), решающей задачи кластеризации, визуализации данных (самоорганизующаяся карта Кохонена) и другие задачи предварительного анализа данных.

Слайд 3





Биологический нейрон
Описание слайда:
Биологический нейрон

Слайд 4





Нейрофизиология
Нейрон имеет тело (с дендритами) и аксон; 
Синапсы – места контакта нейронов;
Нейрон раздражается импульсами (1-150 м/с);
Функционирование нейрона:
Поступают импульсы от других нейронов;
Мембрана аксона динамически изменяет проводимость – при превышении суммарного внутреннего потенциала порогового значения масштаба -50 мв (латентный период ~ 0,25 мс);
Мембрана достигает потенциала действия около +40 мв (~2 мс), изменяет свою полярность (деполяризуется);
Время прохождения импульса – синаптическая задержка (от 0,3—0,5 до нескольких мсек);
Период рефрактерности (~ 200 мс) – нейрон полностью пассивен, практически неизменно сохраняя потенциал внутри аксона на уровне около -70 мв, на импульсы не реагирует;
Восстановление возбудимости до уровня несколько ниже исходного, потом повышение до исходного. Частые возбуждения увеличивают понижение порога возбудимости в конце периода рефрактерности.
Описание слайда:
Нейрофизиология Нейрон имеет тело (с дендритами) и аксон; Синапсы – места контакта нейронов; Нейрон раздражается импульсами (1-150 м/с); Функционирование нейрона: Поступают импульсы от других нейронов; Мембрана аксона динамически изменяет проводимость – при превышении суммарного внутреннего потенциала порогового значения масштаба -50 мв (латентный период ~ 0,25 мс); Мембрана достигает потенциала действия около +40 мв (~2 мс), изменяет свою полярность (деполяризуется); Время прохождения импульса – синаптическая задержка (от 0,3—0,5 до нескольких мсек); Период рефрактерности (~ 200 мс) – нейрон полностью пассивен, практически неизменно сохраняя потенциал внутри аксона на уровне около -70 мв, на импульсы не реагирует; Восстановление возбудимости до уровня несколько ниже исходного, потом повышение до исходного. Частые возбуждения увеличивают понижение порога возбудимости в конце периода рефрактерности.

Слайд 5





Нейрофизиология
Мозг – высокоцикличная сеть нейронов (10 -1000 млрд. по разным данным);
Каждая нервная клетка связана в среднем с 1000 - 10000 других нейронов;
Совокупность нейронов в объеме масштаба 1 мм3 формирует относительно независимую локальную сеть, несущую определенную функциональную нагрузку.
Описание слайда:
Нейрофизиология Мозг – высокоцикличная сеть нейронов (10 -1000 млрд. по разным данным); Каждая нервная клетка связана в среднем с 1000 - 10000 других нейронов; Совокупность нейронов в объеме масштаба 1 мм3 формирует относительно независимую локальную сеть, несущую определенную функциональную нагрузку.

Слайд 6





Формальная модель нейрона (МакКаллок, Питс)
Активность нейрона удовлетворяет принципу «Все или ничего»;
Возбуждению нейрона должен предшествовать латентный период накопления возбуждений определенного фиксированного числа синапсов (не зависит от предыдущей активности, синапсы равнозначны);
Единственным запаздыванием, имеющим значение, является синаптическая задержка;
Активность тормозящего синапса исключает возбуждение нейрона;
С течением времени структура сети не меняется.
Описание слайда:
Формальная модель нейрона (МакКаллок, Питс) Активность нейрона удовлетворяет принципу «Все или ничего»; Возбуждению нейрона должен предшествовать латентный период накопления возбуждений определенного фиксированного числа синапсов (не зависит от предыдущей активности, синапсы равнозначны); Единственным запаздыванием, имеющим значение, является синаптическая задержка; Активность тормозящего синапса исключает возбуждение нейрона; С течением времени структура сети не меняется.

Слайд 7





Формальная модель нейрона
1.Нейроны, выходные сигналы которых поступают на вход данному
2.Сумматор входных сигналов
3.Вычислитель передаточной функции
4.Нейроны, на входы которых подаётся выходной сигнал данного
5.wi — веса входных сигналов
Описание слайда:
Формальная модель нейрона 1.Нейроны, выходные сигналы которых поступают на вход данному 2.Сумматор входных сигналов 3.Вычислитель передаточной функции 4.Нейроны, на входы которых подаётся выходной сигнал данного 5.wi — веса входных сигналов

Слайд 8





Передаточная (активационная) функция
Передаточная функция определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах. В большинстве монотонно возрастающая и имеет область значений [− 1,1] или [0,1], однако существуют исключения. 
Для некоторых алгоритмов обучения сети необходимо, чтобы она была непрерывно дифференцируемой на всей числовой оси.
Искусственный нейрон полностью характеризуется своей передаточной функцией.
Использование различных передаточных функций позволяет вносить нелинейность в работу нейрона и в целом нейронной сети.
Описание слайда:
Передаточная (активационная) функция Передаточная функция определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах. В большинстве монотонно возрастающая и имеет область значений [− 1,1] или [0,1], однако существуют исключения. Для некоторых алгоритмов обучения сети необходимо, чтобы она была непрерывно дифференцируемой на всей числовой оси. Искусственный нейрон полностью характеризуется своей передаточной функцией. Использование различных передаточных функций позволяет вносить нелинейность в работу нейрона и в целом нейронной сети.

Слайд 9





Примеры передаточных функций
Линейная, пороговая и сигмоидальная передаточные функции
Описание слайда:
Примеры передаточных функций Линейная, пороговая и сигмоидальная передаточные функции

Слайд 10





Принцип работы искусственного нейрона
На вход подается вектор Aj (j=1..N – количество входов);
Вычисляем скалярное произведение NET;
Вычисляем значение активационной функции g, которое потом анализируется либо передается дальше:
Описание слайда:
Принцип работы искусственного нейрона На вход подается вектор Aj (j=1..N – количество входов); Вычисляем скалярное произведение NET; Вычисляем значение активационной функции g, которое потом анализируется либо передается дальше:

Слайд 11





Моделирование логических функций
Описание слайда:
Моделирование логических функций

Слайд 12





Нейронные сети - применение
Имеется множество объектов (ситуаций), разделённых некоторым образом на классы. Задано конечное множество объектов, для которых известно, к каким классам они относятся. Это множество называется выборкой. Классовая принадлежность остальных объектов не известна. Требуется построить алгоритм, способный классифицировать произвольный объект из исходного множества.
Отделимость классов, линейная отделимость:
Описание слайда:
Нейронные сети - применение Имеется множество объектов (ситуаций), разделённых некоторым образом на классы. Задано конечное множество объектов, для которых известно, к каким классам они относятся. Это множество называется выборкой. Классовая принадлежность остальных объектов не известна. Требуется построить алгоритм, способный классифицировать произвольный объект из исходного множества. Отделимость классов, линейная отделимость:

Слайд 13





Хранение данных
Есть черно-белое изображение, размер 256x256 точек. На сенсорный слой подаются координаты точки, выход – цвет.
Обработка сигналов
Есть некоторый сигнал, необходимо получить выходной. Зависимость от конфигурации сенсорного слоя. Как в общем случае сигнал свести с заданной точностью к вектору значений?
Описание слайда:
Хранение данных Есть черно-белое изображение, размер 256x256 точек. На сенсорный слой подаются координаты точки, выход – цвет. Обработка сигналов Есть некоторый сигнал, необходимо получить выходной. Зависимость от конфигурации сенсорного слоя. Как в общем случае сигнал свести с заданной точностью к вектору значений?

Слайд 14





Обработка изображений
Описание слайда:
Обработка изображений

Слайд 15





Примеры
Описание слайда:
Примеры

Слайд 16





Персептрон Розенблатта
На входе и на выходе – векторы, по вектору R решаем, что получили;
Предназначался для распознавания образов (два класса в простейшем случае, один R-элемент);
Функции – пороговые, значение R принадлежит [-1,1];
«Память» сети – это веса (в общем случае, матрица весов), и конфигурация сети.
Описание слайда:
Персептрон Розенблатта На входе и на выходе – векторы, по вектору R решаем, что получили; Предназначался для распознавания образов (два класса в простейшем случае, один R-элемент); Функции – пороговые, значение R принадлежит [-1,1]; «Память» сети – это веса (в общем случае, матрица весов), и конфигурация сети.

Слайд 17





Классификация нейронов
Входные нейроны — принимают исходный вектор, кодирующий входной сигнал. Как правило, эти нейроны не выполняют вычислительных операций, а просто передают полученный входной сигнал на выход, возможно, усилив или ослабив его;
Выходные нейроны — представляют из себя выходы сети. В выходных нейронах могут производиться какие-либо вычислительные операции;
Промежуточные нейроны — выполняют основные вычислительные операции.
Описание слайда:
Классификация нейронов Входные нейроны — принимают исходный вектор, кодирующий входной сигнал. Как правило, эти нейроны не выполняют вычислительных операций, а просто передают полученный входной сигнал на выход, возможно, усилив или ослабив его; Выходные нейроны — представляют из себя выходы сети. В выходных нейронах могут производиться какие-либо вычислительные операции; Промежуточные нейроны — выполняют основные вычислительные операции.

Слайд 18





Решение задачи XOR
Описание слайда:
Решение задачи XOR

Слайд 19





Алгоритмы обучения
Алгоритм коррекции ошибки, предложенный Розенблаттом для простейшего перспетрона. Конфигурация: сенсоры регистрируют только сигналы {0,1} (соответствуют выходам слоя S), дуги между S и A слоями не имеют весов (только передают сигналы), изменяется только матрица весов между слоями S и R, слой R – один элемент, функции пороговые, на выходе 0 – относим образ к первому классу, 1 – относим образ ко второму классу.
Правила корректировки весов (Хебб, 1949) для простейшего персептрона:
Если сигнал перцептрона неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. 
Если сигнал перцептрона неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица.
Описание слайда:
Алгоритмы обучения Алгоритм коррекции ошибки, предложенный Розенблаттом для простейшего перспетрона. Конфигурация: сенсоры регистрируют только сигналы {0,1} (соответствуют выходам слоя S), дуги между S и A слоями не имеют весов (только передают сигналы), изменяется только матрица весов между слоями S и R, слой R – один элемент, функции пороговые, на выходе 0 – относим образ к первому классу, 1 – относим образ ко второму классу. Правила корректировки весов (Хебб, 1949) для простейшего персептрона: Если сигнал перцептрона неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. Если сигнал перцептрона неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица.

Слайд 20





Дельта-правило
j-й вес для i-го нейрона меняется по правилу:
wj(t + 1) = wj(t) + ηeixj
Обобщенное правило:
Описание слайда:
Дельта-правило j-й вес для i-го нейрона меняется по правилу: wj(t + 1) = wj(t) + ηeixj Обобщенное правило:

Слайд 21





Теорема о сходимости персептрона
Даны элементарный перцептрон, пространство стимулов W и некоторая классификация C(W), для которой известно, что решение существует. Предположим, что все стимулы из W появляются в любой последовательности, но при условии, что каждый стимул появляется повторно через некоторый конечный интервал времени. Тогда процесс обучения с коррекцией ошибок (с квантованием или без квантования подкрепления), начинающийся с произвольного исходного состояния, всегда приведет к достижению решения для C(W) в течении конечного промежутка времени. При этом все входные сигналы к R - элементам достигнут значения, по крайней мере равного некоторой произвольной величине d >= 0.
Описание слайда:
Теорема о сходимости персептрона Даны элементарный перцептрон, пространство стимулов W и некоторая классификация C(W), для которой известно, что решение существует. Предположим, что все стимулы из W появляются в любой последовательности, но при условии, что каждый стимул появляется повторно через некоторый конечный интервал времени. Тогда процесс обучения с коррекцией ошибок (с квантованием или без квантования подкрепления), начинающийся с произвольного исходного состояния, всегда приведет к достижению решения для C(W) в течении конечного промежутка времени. При этом все входные сигналы к R - элементам достигнут значения, по крайней мере равного некоторой произвольной величине d >= 0.

Слайд 22





Алгоритм обратного распространения ошибки
Описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полем Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно С. И. Барцевым и В. А. Охониным. 
Итеративный градиентный алгоритм, который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода.
Описание слайда:
Алгоритм обратного распространения ошибки Описан в 1974 г. А. И. Галушкиным, а также независимо и одновременно Полем Дж. Вербосом. Далее существенно развит в 1986 г. Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно С. И. Барцевым и В. А. Охониным. Итеративный градиентный алгоритм, который используется с целью минимизации ошибки работы многослойного перцептрона и получения желаемого выхода.

Слайд 23





Схема метода
Описание слайда:
Схема метода

Слайд 24





Алгоритмы синтеза сетей
Алгоритм оптимального повреждения мозга – удаляет из полной сети несущественные связи;
Алгоритм заполнения мозаики – последовательно выполняется обучение с добавлением новых пар стимул – реакция. Если структура сети недостаточна, то усложняем.
Описание слайда:
Алгоритмы синтеза сетей Алгоритм оптимального повреждения мозга – удаляет из полной сети несущественные связи; Алгоритм заполнения мозаики – последовательно выполняется обучение с добавлением новых пар стимул – реакция. Если структура сети недостаточна, то усложняем.

Слайд 25





Предобработка и SVM
Описание слайда:
Предобработка и SVM



Похожие презентации
Mypresentation.ru
Загрузить презентацию