Похожие презентации:
Нейронные сети
1.
СПбГУТ им. проф. М.А.Бонч-БруевичаНейронные сети
К.т.н., доцент кафедры ИУС
Феликс Васильевич Филиппов
[email protected]
2.
Литература3. Искусственный интеллект
Искусственный интеллектВ ХХ веке было
сформулировано понятие
искусственного интеллекта
и предложен ряд
определений этого понятия.
Одним из первых
определений, получивших
широкое признание и до
сих пор остающимся
популярным, является
следующее: "Способ
заставить компьютеры
думать как люди".
Истоком этого определения
явился знаменитый тест,
предложенный британским
математиком и одним из
первых исследователей в
области компьютерных наук
Аланом Тьюрингом. В данном
тесте экспериментатор
пытается определить,
является ли человеком или
компьютерной программой то
"лицо", с которым он
обменивается сообщениями
с помощью дистанционной
клавиатуры.
4.
Искусственный интеллектОбласти искусственного
интеллекта
Искусственный интеллект
Искусственные
нейронные
сети
5.
Нейронные сетиПростая задача распознавания
MNIST - Mixed National Institute of
Standards and Technology
http://yann.lecun.com/exdb/mnist/
1998 год
База данных MNIST
включает 60,000
тренировочных
рукописных изображений
цифр
и 10,000 проверочных
изображений.
2010 год
0,27% ошибки CNN
https://en.wikipedia.org/wiki/MNIST_database
6.
MNIST в RstudioНейронные сети
1-й способ
7.
MNIST в RstudioНейронные сети
2-й способ
install.packages("darch")
library("darch",
lib.loc="/Library/Frameworks/R.framework/Versions/3.1/Resources/libr
ary")
readMNIST("/Users/felixfilippov/Desktop/mnist_fold/")
[1] "Loading the the MNIST data set."
[1] "Loading train set with 60000 images."
[1] "Generating randomized data set and label matrix"
[1] "class 0 = 5923 images"
[1] "class 1 = 6742 images"
[1] "class 2 = 5958 images"
[1] "class 3 = 6131 images"
[1] "class 4 = 5842 images"
[1] "class 5 = 5421 images"
[1] "class 6 = 5918 images"
[1] "class 7 = 6265 images"
[1] "class 8 = 5851 images"
[1] "class 9 = 5949 images"
[1] "Saving the test data (filename=train)"
[1] "Loading test set with 10000 images."
[1] "Generating randomized data set and label matrix"
[1] "class 0 = 980 images"
[1] "class 1 = 1135 images"
[1] "class 2 = 1032 images"
[1] "class 3 = 1010 images"
[1] "class 4 = 982 images"
[1] "class 5 = 892 images"
[1] "class 6 = 958 images"
[1] "class 7 = 1028 images"
[1] "class 8 = 974 images"
[1] "class 9 = 1009 images"
[1] "Saving the test data (filename=test)"
[1] "Finished"
8.
Нейронные сетиПростая задача распознавания
В конечном итоге:
распознавание с 99,67%
точностью. Только 33
тестовых изображения из
10000 классифицируется с
ошибкой.
Здесь показаны ошибки:
значение в верхнем правом
углу есть правильная
классификация, по данным
MNIST, в то время как
значение в правом нижнем
углу – ошибочная
классификация.
9.
Нейронные сетиПерсепртрон Розенблатта
x1
x2
x1
w1
w2
w3
y
x2
x3
y=
w1
w2
w3
y
b
x3
0
1
если Σxiwi ≤ порог
если Σxiwi > порог
y=
0
1
если X . W + b ≤ 0
если X . W + b > 0
x1
-2
-2
3
x2
http://neuralnetworksanddeeplearning.com/movies/create_step_function.mp4
y
00
01
10
11
0x(-2) + 0x(-2) + 3 = 3 > 0
0x(-2) + 1x(-2) + 3 = 1 > 0
1x(-2) + 0x(-2) + 3 = 1 > 0
1x(-2) + 1x(-2) + 3 = -1 < 0
y=1
y=1
y=1
y=0
10.
МозгНейронные сети
Мозг человека состоит приблизительно
из 86 миллиардов нейронов,
соединенных многочисленными связями
(в среднем несколько тысяч связей на
один нейрон, однако это число может
сильно колебаться).
http://habrahabr.ru/post/214109/
http://habrahabr.ru/post/108483/
11.
НейронНейрон
Нейроны:
• не делятся
• много входов (до 10000)
• один выход
Слабая и сильная
синаптическая связь
12.
НейронСхема искусственного нейрона
синапсы
аксон
тело
Функция активации
линейная
пороговая
сигмоидная
с=2
13.
НейронСостояние нейрона
Каждый синапс характеризуется величиной синаптической связи
– её также называют весом Wi.
По физическому смыслу, вес синаптической связи – это
электрическая проводимость данного синапса.
float s = 0;
for(int i = 0; i < n; i++) {
s += x[i]*w[i];
}
14.
НейронФункция активации нейрона
Значение на выходе нейрона – это
функция от его состояния – функция
активации:
Y = f(s)
Чаще всего, используется логистическая функция или функция
S-образного вида (сигмоид):
f(s) = 1/(1 + e-as)
Одна из причин, по которой сигмоид используется в нейронных сетях, это простое выражение его
производной через саму функцию (которое позволило существенно сократить вычислительную
сложность метода обратного распространения ошибки, сделав его применимым на практике):
f '(s) = f(s)x(1 – f(s))
15.
Нейрон – линейный классификаторНейрон
AND
OR
Искусственный нейрон – является
однослойным персептроном (перцептроном),
т.е. моделью, в которой входные элементы
напрямую соединены с выходными с помощью
системы весов, и выполняет функцию
линейной классификации.
TRUE
FALSE
XOR
Классический пример задачи, которая
не по зубам однослойному перцептрону —
исключающее ИЛИ (XOR или сумма по mod2)
16.
Скрытые слои (hidden layers)hidden layer 1
hidden layer 2
Выходной слой
Входной (сенсорный) слой
Персептрон
Многослойный персептрон
17.
Многослойный персептронПерсептрон
hidden = 4
Для решения задачи XOR, многослойный персептрон будет иметь два входа, затем
скрытый (hidden) слой, и один выход:
18.
Многослойный персептронПерсептрон
hidden = 20
19.
Многослойный персептронПерсептрон
hidden = 3, 2, 1
20.
Многослойный персептронПерсептрон
hidden = 2
Функция XOR, AND и OR
21.
Работа нейронной сетиРабота нейронной сети
Три фазы работы нейронной сети при обучении:
1 фаза) прямое распространение сигнала
2 фаза) обратное распространение ошибки
3 фаза) коррекция весовых коэффициентов
22.
Работа нейронной сетиРабота нейронной сети
1 фаза) прямое распространение сигнала
1 слой
2 слой
Выходной слой
http://robocraft.ru/blog/algorithm/560.html
23.
Работа нейронной сетиРабота нейронной сети
2 фаза) обратное распространение ошибки
Выходной слой
1 слой
2 слой
http://robocraft.ru/blog/algorithm/560.html
24.
Работа нейронной сетиРабота нейронной сети
3 фаза) коррекция весовых коэффициентов
1-го слоя
2-го слоя
Выходного слоя
f '(s) = f(s)x(1 – f(s))
25.
Факторный анализФакторный анализ
https://ru.wikipedia.org/wiki/Факторный_анализ
Две основных цели факторного анализа:
•определение взаимосвязей между переменными, классификация
переменных;
•сокращение числа переменных необходимых для описания данных.
Методы факторного анализа:
•метод главных компонент;
•корреляционный анализ;
•метод максимального правдоподобия.
26.
Факторный анализМетод главных компонент
https://ru.wikipedia.org/wiki/Метод_главных_компонент
Метод главных компонент (principal component analysis, PCA) —
один из основных способов уменьшить размерность данных, потеряв
наименьшее количество информации.
Карл Пирсон - 1901 год
Даны точки Pi на плоскости,
рi – расстояние от точки Pi
до прямой АВ.
Отыскать прямую АВ, чтобы:
min
http://www.ievbras.ru/ecostat/Kiril/Library/Book1/Content375/Content375.htm
27.
Факторный анализМетод главных компонент
Дано конечное множество векторов x1, x2, …, xm∈ Rn . Для каждого k = 0,1, … , n-1
среди всех k-мерных линейных многообразий в Rn, найти такое Lk ⊂ Rn , что сумма
квадратов уклонений xi от Lk минимальна.
Фактор L0
Усреднение значений дает математическое
ожидание случайной величины X,
обозначаемое, как E(X). Если мы
отцентрируем данные так, чтобы E(X)=0, то
облако точек будет сконцентрировано
вокруг начала координат.
Главная компонента определяется
единичным вектором, выходящим из
начала координат и совпадающим с
направлением, вдоль которого
дисперсия данных будет
максимальной.
28.
Факторный анализАнализ пиксельных компонент
1. Строим матричный
образ каждой цифры.
2. Находим матрицу
среднего арифметического для всех
образов.
1,2
1,3
1,6
3,4
5,2
5,6
http://habrahabr.ru/post/224495/
Кандидаты
на главные
компоненты
29.
Факторный анализПоиск главных компонент
30.
Факторный анализГлавные компоненты
Факторы
31.
Факторный анализФакторный анализ изображений
Если соотнести результат факторного анализа и образцы обучающей
выборки, то можно заметить следующее:
— фактор 1 — признаки данной области относятся к фону изображения (покров);
и
— факторы 2 и 3 — области перехода от наблюдаемого
объекта к фону;
— фактор 4 — критерии данной области относятся непосредственно к
наблюдаемому объекту;
— фактор 5 — возможные артефакты изображения. Некоторые входные образы
содержали полосу снизу.
http://habrahabr.ru/post/139899/
32.
ПрактикаПрактическое задание №1
Построить и обучить нейронную сеть, которая должна
распознавать символы цифр на матрице из 7x5 ячеек.
X1 = (00100011000010000100001000010001110)
Среда разработки RStudio. Пакет neuralnet.
Пособие «Моделирование нейронных сетей на R»
Цель: добиться надежного распознавания искаженных цифр.
33.
Нейронные сетиНейронные сети vs ЭВМ
34.
Нейронные сетиКлассификация нейронных сетей
Нейронные сети
Нейронные сети
прямого действия
Персептроны
Сверточные
сети
Рекуррентные нейронные сети
(с обратными связями)
Сети
RBF
Сети
Кохонена
Соревновательные
сети
Сети
Хопфильда
ART
сети
35.
Моделирование нейронных сетейНейронные сети
на R (в RStudio)
Пакет NEURALNET
Пакет NNET
Пакет RSNNS
art1()
art2()
artmap()
som()
MLP()
rbf()
dlvr()
jordan()
elman()
Пакет NeuralNetTools
Package ‘darch’
This package is for generating neural networks with many layers
(deep architectures) and train them.
Package ‘deepnet’
Implement some deep learning architectures and neural network
algorithms, including BP,RBM,DBN,Deep autoencoder and so
on.
Package ‘h2o’
R scripting functionality for H2O, the open source
math engine for big data that computes parallel distributed
machine learning algorithms such as generalized linear models,
gradient boosting machines, random forests, and neural
networks (deep learning) within various cluster environments.
36.
Нейронные сетиПакет NEURALNET
AND <- c(rep(0,7),1)
OR <- c(0,rep(1,7))
binary.data <- data.frame(expand.grid(c(0,1), c(0,1), c(0,1)), AND, OR)
net <- neuralnet(AND+OR~Var1+Var2+Var3, binary.data, hidden=0, linear.output=FALSE)
1
2
3
4
5
6
7
8
Var1 Var2 Var3 AND OR
0
0
0
0 0
1
0
0
0 1
0
1
0
0 1
1
1
0
0 1
0
0
1
0 1
1
0
1
0 1
0
1
1
0 1
1
1
1
1 1
37.
Нейронные сетиПакет NEURALNET
XOR <- c(0,1,1,0)
xor.data <- data.frame(expand.grid(c(0,1), c(0,1)), XOR)
net.xor <- neuralnet( XOR~Var1+Var2, xor.data, hidden=2, rep=5)
plot(net.xor, col.hidden = "red", col.intercept = "green",col.entry="dark green",
col.entry.synapse = "blue",col.out.synapse="red", col.out="yellow", fontsize=16)
38.
Нейронные сетиПакет NNET
ir <- rbind(iris3[,,1],iris3[,,2],iris3[,,3])
targets <- class.ind( c(rep("s", 50), rep("c", 50), rep("v", 50)) )
samp <- c(sample(1:50,25), sample(51:100,25), sample(101:150,25))
ir1 <- nnet(ir[samp,], targets[samp,], size = 2, rang = 0.1, decay = 5e-4, maxit = 200)
plot.nnet(ir1)
39.
Нейронные сетиПакет NeuralNetTools
Пакет предоставляет средства визуализации и анализа, чтобы
помочь в интерпретации нейросетевых моделей. Функции пакета
позволяют строить графики, давать количественную оценку важности
входных переменных, проводит анализ чувствительности, а также
получать простой список весов модели.
Функция garson() дает количественную оценку относительной
важности входных переменных нейросети используя алгоритм Гарсона.
wts_in <- c(13.12, 1.49, 0.16, -0.11, -0.19, -0.16, 0.56, -0.52, 0.81)
struct <- c(2, 2, 1) #two inputs, two hidden, one output
garson(wts_in, struct)
40.
CNNСверточная нейронная сеть
Свёрточная нейронная сеть (convolutional neural network,
CNN) — специальная архитектура искусственных нейронных
сетей, предложенная Яном Лекуном и нацеленная на
эффективное распознавание изображений, входит в состав
технологий глубокого обучения (deep leaning).
CNN технология построена по аналогии с принципами
работы зрительной коры головного мозга, в которой были открыты
так называемые простые клетки, реагирующие на прямые линии
под разными углами, и сложные клетки, реакция которых связана с
активацией определённого набора простых клеток.
Идея CNN заключается в чередовании сверточных слоев
(convolution layers) и слоев подвыборки (subsampling layers).
41.
Сверточная нейронная сетьCNN
В основу CNN положено 2 основные идеи:
1) идея: фильтрация
(операция свертки)
2) идея: уплотнение
(max-pooling)
42.
Сверточная нейронная сеть1) идея: фильтрация
CNN
Фильтр – это небольшая матрица,
представляющая признак, который мы хотим
найти на исходном изображении.
Операция свертки
Исходное изображение
Фильтры
определители
признаков
http://www.kdnuggets.com/2015/04/inside-deep-learning-computer-vision-convolutional-neural-networks.html
Карты признаков
43.
Сверточная нейронная сетьCNN
фильтрация
Вместо входов при изучении
сверточных сетей удобно рассматривать
матрицу входных нейронов, значения
которых соответствуют интенсивности
пикселов, используемых как входы:
Каждый нейрон локального рецептивного
региона связывается с одним нейроном скрытого слоя.
Набор весовых коэффициентов образует фильтр.
Входные нейроны
Входные нейроны
Скрытые нейроны
Локальные рецептивные поля
44.
Сверточная нейронная сетьсверточный слой (convolution layer)
CNN
Карта признаков
Фильтр
x1 x0 x1
x0 x1 x0
x1 x0 x1
Исходное изображение
(или карта признаков)
Сверточные
признаки
(convolved features)
На схеме слой нейронов сети представляет исходное изображение (либо карту признаков). Фильтр
представляет матрицу весов соединений, которая «сканирует» весь входной слой.
Нейрон на карте признаков активируется, если фильтр определил подходящий признак в
соответствующей позиции на предыдущем слое.
45.
Пример фильтрации изображенияCNN
Фильтр признаков W1
V
W2
W2
W1
1
0
-1
2
0
-2
1
0
-1
-1
0
1
-2
0
2
Отклик
фильтра
W1
-1
0
1
карта признаков
0
-1
-2
1
0
-1
2
1
0
Filter (V ,W1 ) Filter (V ,W2 ) Filter (V ,W3 )
46.
Сверточная нейронная сетьформирование карты признаков
Входные нейроны
CNN
Первый скрытый слой
Рецептивный регион
stride length
Сверточный признак
длина шага = 1
Входные нейроны
Первый скрытый слой
Карта признаков
Если входное изображение 28 × 28, и
локальный рецептивный регион 5 × 5 ,
тогда в карте признаков скрытого слоя
будет 24 × 24 нейрона при длине шага
равной 1.
Фильтр не сканирует!
Фильтр – это связи с весами
рецептивного региона
анализируемого слоя с
нейроном сверточного
признака скрытого слоя.
Каждый элемент (признак)
карты признаков
сформирован своим единым
для карты фильтром.
47.
Сверточная нейронная сетьформирование карт признаков
CNN
Для распознавания изображений нужно много карт признаков:
28 х 28 входных нейронов
Первый скрытый слой: 3 х 24 х 24 нейронов
Здесь показаны 3 карты признаков. Каждая карта получена с
помощью фильтра 5х5.
Такая сеть может распознать 3 различных признака. Каждый
из них распознается по всему изображению.
48.
Сверточная нейронная сетьCNN
пример карты признаков
Большое преимущество
использования фиксированного
набора весовых коэффициентов
– существенное снижение числа
параметров CNN.
Например, для каждой
карты признаков имеем:
5 х 5 = 25
20 х 25 = 500
параметров сверточного слоя.
Сравним, полносвязный
входной слой:
28 х 28 = 784
20 х 784 = 15680
число параметров больше чем в
30 раз.
Здесь 20 изображений соответствуют 20 различным картам признаков (фильтрам, ядрам). Каждая карта
представлена как блок 5х5 изображений, соответствующих 5х5 весовым коэффициентам локального рецептивного поля.
Белые блоки означают малые (обычно отрицательные) веса, где карта признаков меньше соответствует входным
пикселам. Темные блоки означают большие веса, где карта признаков больше соответствует входным пикселам. Очень
грубо говоря, изображения выше, показывают, тип особенностей за которые отвечает сверточный слой.
49.
Сверточная нейронная сетьCNN
2) идея: уплотнение (subsampling layer)
Max-уплотнение (max pooling) карты признаков делает процесс
распознавания более точным, избавляя от ненужных «ореолов» и сокращая
число параметров сверточной нейронной сети
50.
Сверточная нейронная сетьCNN
метод max pooling
Объединяющие слои следуют сразу после сверточных.
Объединяющий слой обрабатывает карту признаков сверточного слоя и формирует более
уплотненную карту. Например, каждый нейрон уплотняющего слоя суммирует регион из 2×2 нейронов
предыдущего слоя.
Общая процедура объединения, известная как max-pooling, просто берет значение
максимально активизированного нейрона из определенного региона, например 2×2.
Max pool с фильтром 2х2
и шагом 2
Поскольку
сверточный
слой
включает 24×24 нейрона, после операции
max-pooling получится 12×12 нейронов
объединяющего слоя.
51.
Сверточная нейронная сетьCNN
метод max pooling и L2 pooling
Сверточный слой включает несколько карт признаков. Метод maxpooling применяется отдельно для каждой карты. Так, если имеется три карты
признаков, то комбинация сверточного и max-pooling слоев будет выглядеть
следующим образом:
В методе L2 pooling вместо
используется квадратный корень из суммы
квадратов активностей нейронов 2×2
региона. На практике широко используются
оба метода.
L2 pool с фильтром 2х2
и шагом 2
7.9
11.5
4.2
5.1
52.
Простейшая CNNCNN
фильтрация + уплотнение + распознавание
Фильтрация
Уплотнение
операция свертки
max pooling, L2 pooling
MNIST
0
1
Исходное изображение
входные нейроны
2
3
4
5
6
Карта признаков
7
Карта признаков
Карта признаков
8
9
convolution
layer
subsampling
layer
выходные
нейроны
53.
CNNАрхитектура типовой
cверточной нейронной сети
Ключевым моментом в понимании сверточных нейронных сетей является понятие так называемых
«разделяемых» весов, т.е. часть нейронов некоторого рассматриваемого слоя нейронной сети может
использовать одни и те же весовые коэффициенты. Нейроны, использующие одни и те же веса, объединяются в
карты признаков (feature maps), а каждый нейрон карты признаков связан с частью нейронов предыдущего
слоя. При вычислении сети получается, что каждый нейрон выполняет свертку (операцию конволюции)
некоторой области предыдущего слоя (определяемой множеством нейронов, связанных с данным нейроном).
Слои нейронной сети, построенные описанным образом, называются сверточными слоями.
Помимо, сверточных слоев в CNN могут быть слои подвыборки (выполняющие функции
уменьшения размерности пространства карт признаков) и полносвязные слои (выходной слой, как правило,
всегда полносвязный). Все три вида слоев могут чередоваться в произвольном порядке, что позволяет
составлять карты признаков из карт признаков, а это на практике означает способность распознавания сложных
иерархий признаков.
54.
CNNПримеры карт признаков
55.
Практика CNNILSVRC
ImageNet данные 2011 года использовали 16 миллионов
полноцветных изображений в 20000 категориях. Изображения были взяты
из открытой сети и классифицированы работниками службы Amazon. Вот
несколько ImageNet изображений:
ILSVRC - ImageNet Large Scale Visual Recognition Challenge
задача распознавания (классификации)
задача обнаружения
http://www.image-net.org/challenges/LSVRC/ - 2010, 2011, 2012, 2013, 2014, 2015
56.
Практика CNNILSVRC задача классификации
http://cs.stanford.edu/people/karpathy/ilsvrc/
57.
Практика CNNILSVRC задача обнаружения
http://habrahabr.ru/company/nordavind/blog/206342/
58.
Практика CNNILSVRC задача обнаружения
59.
Практика CNNILSVRC задача обнаружения
60.
Практика CNNILSVRC задача обнаружения
61.
Практика CNNILSVRC задача обнаружения
62.
Практика CNNILSVRC задача обнаружения
- лопаточка
63.
Практика CNNILSVRC задача обнаружения
- ковш, черпак
64.
Практика CNNКлассификация картин при помощи CNN
Коллекция Wikiart
содержит более 80000 картин
http://arxiv.org/pdf/1505.00855v1.pdf
Ученые из Ратгерского университета (США, штат Нью-Джерси) научили нейронную сеть
классифицировать произведения мирового искусства по жанрам, стилям и художникам.
65.
Практика CNNКоллекция Wikiart
66.
Практика CNNКлассификация картин при помощи нейронных сетей
Стили
Жанры
Художники
http://datareview.info/article/obzor-nauchnoy-publikatsii-klassifikatsiya-kartin-pri-pomoshhi-neyronnyih-setey/
67.
Нейронные сетиКлассификация картин при помощи нейронных сетей
68.
Нейронные сетиКлассификация картин при помощи нейронных сетей
69.
Направления исследованийИскусственный интеллект
в области искусственного интеллекта
Компания IBM создала модель из 530 миллиардов
нейронов и 100 триллионов синапсов на суперкомпьютере
"Вычисления (нейроны), память (синапсы) и сообщения
(аксоны, дендриты), математически абстрагированы от биологических
подробностей, для достижения максимизации функциональности
(практичность, применяемость) и минимизации расходов (энергия,
пространство, простой)"
"Это стало воплощением нашего видения проекта DARPA
SyNAPSE, соединившим в себе нанотехнологии, нейробиологию и
суперкомпьютеры для создания основы новой когнитивной
компьютерной архитектуры, которая дополнит существующие сегодня
фон-Неймановские машины"
http://globalscience.ru/article/read/21348
70.
Искусственный интеллектНейрочипы
http://citforum.ru/hardware/neurocomp/neyrocomp_04.shtml
http://2013.nscf.ru/TesisAll/Plenar/13_1520_GalyshkinAI_P13.pdf
71.
Оценка производительностиCUPS (connections update per second) - число
измененных значений весов в секунду (оценивает
скорость обучения).
CPS (connections per second) - число соединений
(умножений с накоплением) в секунду (оценивает
производительность).
CPSPW = CPS/Nw, где Nw - число синапсов в
нейроне.
CPPS - число соединений примитовов в секунду,
CPPS=CPS*Bw*Bs, где Bw, Bs - разрядность весов и
синапсов.
MMAC - миллионов умножений с накоплением в
секунду.
72.
TrueNorthпроцессор нового поколения
https://habrahabr.ru/company/ibm/blog/232645/
73.
TrueNorthпроцессор нового поколения
74.
Нейросемантическое ядроCompass — система симуляции
новой компьютерной архитектуры TrueNorth.
TrueNorth построен по образу и
подобию мозга, на базе разработанных IBM
"нейросемантических ядер" — чипов,
содержащих кремниевые нейроны и
синапсы.
Каждый чип содержит 256 нейронов, 1024 аксона и 256х1024 синапса.
В рекордной симуляции была смоделирована работа 2084 миллиардов
таких ядер.
http://habrahabr.ru/company/ibm/blog/159365/
75.
Синаптическая сеть от DARPAИскусственный интеллект
на нейрочипах
Решающий
модуль
Модуль
категоризации
формы
Модуль
обнаружения
движения
возбуждение
торможение
возбуждающее
тормозящее
неуправляемое
взвешенное
Сетчатка
http://www.computerra.ru/98834/neyrochipyi-ot-qualcomm-ispyityivayutsya-na-robotah/
76.
Нейронные сетиНайди лицо!
77.
Нейронные сетиКлассификация картин при помощи нейронных сетей
78.
Нейронные сетиКлассификация картин при помощи нейронных сетей