Похожие презентации:
Нечеткие нейронные сети
1.
Нечеткие нейронныесети
2019, Калуга
2.
Нечеткие модели выводаФазификация
Вычисление посылки
Импликация
Агрегация
Дефазификация
3.
Нейронные модели выводаПредобработка
Обучение
Подать образец
Изменить W
Интерпретация
4.
Нейро-нечеткие моделиНейронная модель нечеткого вывода
Нечеткие нейроны
5.
фазификация(x)
Нейроны RBF
C
C
-
(x)
Z
X
+
Exp(-Z2/(2 ))
X
6.
Нейроны И, ИЛИИ – нейрон (T-норма (+), кТ-норма (*) )
ИЛИ – нейрон (kT-норма (+), Т-норма (*) )
Производные Т-нормы и кТ-нормы
y 1, y xi
xi 0, y xi
7.
ДефазификацияYB1
mB1
∑
mBq
YBq
∑
q
y
i 1
Bi
yBi
q
i 1
Bi
/
8.
Вывод Сугено9.
Сеть Такаги-Сугено-КангаСлой 1
слой 2/слой 3/слой 4/слой 5
10.
Функции слоев1. Первый слой выполняет фазификацию каждой переменной. Это
параметрический слой с параметрами , подлежащими адаптации в
процессе обучения.
2. Второй слой выполняет агрегирование отдельных переменных,
определяя результирующее значение коэффициента
принадлежности для вектора (непараметрический слой).
3. Третий слой - генератор функции TSK, рассчитывает значения. В
этом слое также производится умножение на , сформированные в
предыдущем слое. Здесь адаптации подлежат веса ,
определяющие функцию следствия модели TSK.
4. Четвертый слой составляют два нейрона-сумматора, один из
которых рассчитывает взвешенную сумму сигналов , а второй сумму весов (непараметрический слой).
5. Пятый слой из одного нейрона - это нормализующий слой, в
котором выходной сигнал сети агрегируется.
11.
Обучениепервом этапе при фиксации определенных
значений параметров функции
принадлежности
При Р обучающих выборках (Х(l),d(l)),
l=1,2,…, P
12.
Обучение- псевдоинверсия
13.
Обучениевторой этап (линейные параметры фиксированы) рассчитываются
фактические выходные сигналы
y=W*p
вектор ошибки
E=y-d
14.
Обучение15.
ОбучениеПосле уточнения нелинейных параметров
вновь запускается процесс адаптации
линейных параметров TSK (первый этап)
и нелинейных параметров (второй этап).
Цикл повторяется вплоть до стабилизации
всех параметров процесса.
16.
Нечеткие сети с самоорганизацией17.
архитектурапервый слой обобщенная функция Гауcса
:
ij(xj)=1/(1+((xj-cij)/sij)2*bij).
второй слой характеризуется
центром Ci=[u1i, u2i, ..., uNi, ]T.
18.
Алгоритм нечеткойсамоорганизации К-means
подаваемый на вход очередной
обучающий вектор Xk принадлежит
различным кластерам (представленным
своими центрами Ci, i=1, 2, ..., M) в
степени uki, 0<uki<1, при соблюдении
условия
(uki)=1, i=1:M
uki тем больше, чем ближе Xk к Ci
19.
Обучениеmin(E)
E=
u
ki
m
X k -Ci
2
i=1,M k=1,p
,
Ci= ((uki)m*Xk / (uki)m,
k=1:p
uki=1/ (((dki)2/(dkl)2))1/(m-1)),
l=1:M
dki=|Xk-Ci|2 - эвклидово расстояние между
X k и C i.
20.
ОбучениеВыполнить случайный выбор коэффициентов uki
из диапазона [0,1] при соблюдении условия
(uki)=1, i=1:M.
2. Вычислить все M центров Ci .
3. Рассчитать значение погрешности E. Если это
значение меньше установленного порога или
незначительно изменилось относительно
предыдущей итерации, то закончить вычисления.
Иначе перейти к п. 4.
4. Рассчитать новые значения uki и перейти к п. 2
21.
архитектураX1
МП1
*
w1
X2
МП2
….
Xn
МПм
*
w2
*
wм
МПм+1
yi
22.
обучениеШаг 1.
Удалить неинформативные переменные
Обучить МПi – отдельно.
Обучить все МПi вместе.
Модиифцировать веса и проверить
ошибку сети
23.
обучениеШаг 2.
Эвристически определяем количество
кластеров Х.
МП учить на выделение кластеров Х.
Если Хк принадлежит Aj, то wj(Xk)=1-yМП
иначе wj=0.
24.
обучениеШаг 3.
Обучить МПi – отдельно по ВР
Шаг 4.
Исключение слабых МПi.
Получим схему
Если X=A1, то МП1(Х1, Х2, …, Хn)
Если X=A2, то МП2(Х1, Х2, …, Хn)
….
Если X=Am, то МПm(Х1, Х2, …, Хn)
25.
NNFLC26.
NNDFRNeural Network Driven Fuzzy Reasoning
Нейронная сеть для нечетких
рассуждений
Первый слой – NN – многослойные
перцептроны (правила «ЕСЛИ - ТО»)
Второй слой - комбинирование правил
27.
GARICGeneralized Approximate Reasoning Based
on Intelligent Control
Состоит из 2-х связанных нечетких сетей
(управления и оценки)
Реализует вывод Цукамото
Yj(t+1)=f( aij*xi)
f(s)=1/(1+e-s)
28.
архитектураНС оценки
Линейный
Многослойный
персептрон
r
=r-rp
Х
НС управления
у
V
объект
У’
29.
Сеть управленияx1
Softmin
y
Softmin
defuzz
xn
Softmin
Softmin
30.
ANFISAdaptive Network based Fuzzy Inference
System
Вывод Сугено
31.
IF x1 is A1 .and. X2 is B1 THENy1=c11*x1+c12*x2
IF x1 is A1 .and. X2 is B2 THEN
y2=c21*x1+c22*x2
Выход ANFIS
Y=(w1*y1+w2*y2)/(w1+w2)
32.
<w1>ANFIS модель
c11
µA1(x1)
х1
µA2(x1)
<w1>y1’
w1
.and.
.and.
y1
c12
y
х2
µB1(x1)
.and.
.and.
y1
µB2(x1)
<w2>y2’
w2
<w2>
слой 1
слой 2
слой 3
слой 4
слой 5
33.
Реализация ANFISx = (0:0.1:10)';
y = sin(2*x)./exp(x/5);
trnData = [x y]; //данные
numMFs = 5; //число входов
mfType = 'gbellmf'; // тип функций принадлежности
epoch_n = 20;
//число эпох тренировки
% генерация сети
in_fismat = genfis(trnData,numMFs,mfType);
% обучение сети
out_fismat = anfis(trnData,in_fismat,20);
plot(x,y,x,evalfis(x,out_fismat));
legend('Training Data','ANFIS Output');
34.
Результат обучения ANFIS(тест)
35.
Результат обучения ANFIS(сеть)
out_fismat =
name: 'anfis'
type: 'sugeno'
andMethod: 'prod'
orMethod: 'max'
defuzzMethod: 'wtaver'
impMethod: 'prod'
aggMethod: 'max'
input: [1x1 struct]
output: [1x1 struct]
rule: [1x5 struct]
36.
Результат обучения ANFIS(входы)
out_fismat.input(1).mf(1)
[x,mf] = plotmf(out_fismat,'input',1);
subplot(2,1,1), plot(x,mf);
37.
Результат обучения ANFIS(вход 1 )
name: 'in1mf1'
type: 'gbellmf'
params: [1.3970 2.0053 0.1369]
38.
Описание правилаout_fismat.rule(1)
out_fismat.rule(2)
antecedent: 1 %посылка
consequent: 1 %следствие
weight: 1
%значимость
connection: 1 %число связей
antecedent: 2
consequent: 2
weight: 1
connection: 1
39.
5 входовx = (0:0.1:10)';
y = sin(20*x)./exp(x/5);
trnData = [x y]; %данные
numMFs = 5; %число входов
epoch_n = 20;
40.
50 входовx = (0:0.01:10)';
y = sin(20*x)./exp(x/5);
trnData = [x y]; %данные
numMFs = 50; %число входов
mfType = 'gbellmf'; % тип
функций принадлежности
epoch_n = 20;
41.
x = (0:0.1:10)';y = sin(20*x)./exp(x/5);
trnData = [x y]; %данные
numMFs = 50; %число входов
epoch_n = 20;
42.
Темы рефератовПрименение нечетких нейронных сетей в
регуляторах.
Применение нечетких нейронных сетей в
распознавании образов.
Методы формирования нечетких сетей на основе
вывода Мамдани.
Методы формирования нечетких нейронных
сетей на основе вывода Сугено
Нечеткие нейроны: модели и их реализация.
43.
ЛитератураИнтернет-Университет информационных Технологий.
http://www.INTUIT.ru Нейрокомпьютерные системы. Лекция 15:
Нечеткие и гибридные нейронные сети
Комарцова Л.Г. Максимов А.В. Нейрокомпьютеры. 2004