Искусственные и нечеткие нейронные сети
ИНС
Применение
Биологический нейрон
Модель искусственного нейрона
От нейрона к системе нейронов
Архитектура
Типы ИНС
Простой «Перцептрон»
Задача кластеризации
Задача кластеризации
Многослойные сети с прямым распространением
Многослойный «Перцептрон»
Многослойный перцептрон как универсальный аппроксиматор
Ассоциативная память
Сети Хопфильда
Адаптивные сети
Нечеткие нейронные сети для задач управления
Нечеткий контроллер и нейронная сеть
Слой 1
Слой 2 и 3
Слой 4 и 5
Структура ННС Суггено
Заключение
Заключение
Обучение сети
Супервизорное
Супервизорное
Несупервизорное обучение (обучение без учителя)
Несупервизорное обучение
Правило обучения, основанное на коррекции ошибки (Error-correction rules of learning)
Обучение перцептрона
Теорема сходимости Перцептрона
Алгоритм обратного распространения ошибки (error back propagation-based learning)
Алгоритм обратного распространения ошибки
Первая фаза
Вторая фаза
1.29M

Искусственные и нечеткие нейронные сети

1. Искусственные и нечеткие нейронные сети

2. ИНС

• Искус́ ственные нейро́нные
се́ти представляют собой математические
модели, а также их программные или
аппаратные реализации, построенные по
принципу организации и
функционирования биологических
нейронных сетей — сетей нервных клеток
живого организма.

3. Применение


аппроксимация функций на основе ряда данных;
распознавание образов;
кластеризация и классификация данных;
обучение в области статистической обработки
данных;
накопление знаний через обучение на примерах;
предсказание и прогноз;
оптимизация;
ассоциативная память;
нелинейное моделирование и управление.

4. Биологический нейрон

Отростки, проводящие информацию
(стимул) в тело, называются «дендритами»
(dendrites). Отростки, проводящие
информацию (реацкия) из тела, называются
«аксонами» (axon).
• Нейрон обладает некоторым потенциалом активации (activaon
potential). Сигнал (называемый a spike) передается к другим нейронам
посредством аксона и характеризуется частотой, длительностью и
амплитудой. Взаимодейтсвие между нейронами реализуется в строго
определенных точках, называемых «синапсами» (synapses).

5. Модель искусственного нейрона

• Математическая модель нейрона (Рис.4-2) впервые
была предложена Маккалоком и Питтсом (Warren
McCulloch and Walter Pitts) в 1943.
x1
x2
w1
w2
f
y

xn
n
u
y f ( w j x j u ),
j 1
wn
Итак, иску́сственный нейро́ н (или математический нейрон Маккалока-Питтса, или
формальный нейрон) — это узел искусственной нейронной сети, являющийся
упрощённой моделью естественного нейрона. Математически, искусственный нейрон
обычно представляют собой некоторую нелинейную функцию от единственного
аргумента — линейной комбинации взвешенных входных сигналов. Полученный
результат посылается на единственный выход.

6. От нейрона к системе нейронов

• ИНС может рассматриваться в виде
взвешенного направленного графа (weighted
directed graph), вершины которого
представлены нейронами, а направленные
дуги (с весами) описывают связи между
нейронами. ИНС характеризуется тремя
параметрами:
– типом нейронов,
– архитектурой (организацией связей между
нейронами)
– алгоритмом обучения в данной сети.

7. Архитектура

• С учетом архитектуры ИНС могут быть
разделены на два базисных класса:
– сети с прямым распространением сигнала
(Feed-forward network), в структуре которых нет
петель (циклов) и
– сети с обратным распространением сигнала
или рекуррентные сети (Feedback network or
Recurrent), в структуре которых есть циклы
благодаря наличию обратных связей.

8. Типы ИНС

Neural Networks
Recurrent/ Feedback
Networks
Feed-forward Networks
SingleLayer
Perceptron
Radial Basis
Function Nets
MultiLayer
Perceptron
Adaptive
Networks
Competitive
Networks
Kohonen’s
Networks
ART
Models
Hopfield
Networks

9. Простой «Перцептрон»

x0
x1
x2
w1
w2
w0
f (net)

xn
wn
n
net w j x j
j 0
• Перцептро́н (или Персептрон)
— математическая и
компьютерная модель,
1, f ( net ) 0 предложенная Фрэнком
y
0, otherwise Розенблаттом в 1957 году для
задачи моделирования
восприятия информации мозгом,
и реализованная в виде
электронной машины «Марк-1»
в 1960 году.

10. Задача кластеризации

11. Задача кластеризации

x2
Class 1
Positive Patterns
Class 2
x1
Negative Patterns

12. Многослойные сети с прямым распространением

13. Многослойный «Перцептрон»

Input layer
1
n1
Hidden layer
-5
6
0
n2
Output layer
n5
-1
3
-1
n7
1
0
n3
2
-2
n4
4
5
n6
2
y7 1

14. Многослойный перцептрон как универсальный аппроксиматор

• Теорема существования (Existence Theorem , Hornik и
др,. 1989):
• MLP может аппроксимировать любую непрерывную
функцию с любой заданной степенью точности.
• Доказательство этой фундаментальной теоремы
основывается на теореме Колмогорова (1957), которая
гласит
• Любая непрерывная функция, определенная в nмерном множестве действительных чисел, может
быть представлена в виде суммы функций, имеющих
своим аргументом суммы непрерывных функций с
единственным аргументом.

15. Ассоциативная память

• Ассоциативная память используется в задачах запоминания,
ассоциирования и распознавания образов. Запоминание
представляет собой процесс записи входного образа в
структуре так называемой автоассоциативной сети
(autoassociative network) или сети Хопфильда (Hopfield
network) с целью последующего распознавания входных
образов не обязательно точно совпадающих с содержимым
памяти.
Каждый нейрон в сети связан с каждым
другим нейроном. Имеются также внешние
входы в нейроны и внешние выходы.
Каждый нейрон системы может принимать
одно из двух состояний (что аналогично
выходу нейрона с пороговой функцией
активации). Благодаря своей биполярной
природе нейроны сети Хопфилда иногда
называют спинами.
1
yi
1

16. Сети Хопфильда

17. Адаптивные сети

Layer 0
Layer 1
Layer 2
Layer 3
( input )
y1,1
x0,1
f1,1
f 2,1
y 2,1
f 3,1
y 3,1
 
x 0, 2
f1, 2
y 1, 2
 
f 3, 2
f 2, 2
f1,3
y 1,3
y 2, 2
 
y 3, 2

18. Нечеткие нейронные сети для задач управления

19. Нечеткий контроллер и нейронная сеть

20. Слой 1

21. Слой 2 и 3

22. Слой 4 и 5

23. Структура ННС Суггено

24. Заключение

25. Заключение

26. Обучение сети

27. Супервизорное

Supervised Learning
Input
Training
Facts
Neural
Network
Output
Target
(desired)
value

28. Супервизорное

29. Несупервизорное обучение (обучение без учителя)

30. Несупервизорное обучение

31. Правило обучения, основанное на коррекции ошибки (Error-correction rules of learning)

32. Обучение перцептрона

x0
x1
x2
w1
w2
w0
f (net)

xn
wn
n
net w j x j
j 0
1, f ( net ) 0
y
0, otherwise

33. Теорема сходимости Перцептрона

• Теорема сходимости перцептрона,
описанная и доказанная Ф. Розенблаттом
показывает, что элементарный перцептрон,
обучаемый по такому алгоритму,
независимо от начального состояния
весовых коэффициентов и
последовательности появления стимулов
всегда приведет к достижению решения за
конечный промежуток времени.

34. Алгоритм обратного распространения ошибки (error back propagation-based learning)

• Алгоритм обратного распространения ошибки
применяется для многослойного перцептрона и сетей с
прямым распространением сигнала
Для возможности применения этого метода функция активации нейронов должна быть дифференцируема.

35. Алгоритм обратного распространения ошибки

• Необходимо настроить синоптические веса,
что бы ошибка была минимальной

36.

Алгоритм обратного
распространения ошибки

37.

Алгоритм обратного
распространения ошибки

38. Первая фаза

39. Вторая фаза

English     Русский Правила