Похожие презентации:
Методы обработки экспериментальных данных
1. Методы обработки экспериментальных данных
12. Введение
23. 1.1. Введение
Окружающий нас мир насыщен информацией…Ее НЕОБХОДИМО обрабатывать для принятия
управленческих решений.
Существует множество мат. пакетов: MatLab, Statistica,
Statgraphics…
НО ЕСТЬ проблема…. понимание и интерпретация
результатов!
НЕОБХОДИМО ЗНАТЬ И ПОНИМАТЬ КАК И ЧТО
ПРОИСХОДИТ ВНУТРИ МАТ. ПАКЕТОВ!
4. Области применения анализа экспериментальных данных
ФизикаХимия
Биология
Техника
Технологии
Гуманитарные науки
Прочая деятельность
5. 1.2. Основные этапы анализа данных
1. Планирование исбор данных
2. Предварительное
исследование
данных
4. Построение
моделей и проверка
гипотез
3. Оценка неизвестной
величины
6. 1.3. Структуры данных
Одномерные наборы данных (одна переменная) содержаттолько один признак, зарегистрированный для каждой
элементарной единицы.
Двумерные наборы данных содержат информацию о двух
признаках для каждого из объектов. В дополнение к обобщению
свойств каждой из этих двух переменных, рассматриваемых как
отдельные наборы одномерных данных,
Наборы многомерных данных содержат информацию о трех
или более признаках для каждого объекта. В дополнение к
обобщению
свойств
каждой
из
этих
переменных
(рассматриваемых как отдельные наборы одномерных данных)
и установлению зависимости между парами переменных (как
при анализе набора двумерных данных)
7. 1.3. Структуры данных
Количественные данныеДискретные
Непрерывные
Качественные данные
Порядковые
Номинальные
Временные ряды
8. 1.3. Структуры данных
Источники данныхПервичные
Планирование и сбор
данных
Маркетинговые
исследования
Вторичные
Поиск в
Internet
Социологические
опросы
Проведение
экспериментов
на производстве
Специальные
издания и
журналы
Покупка готовых
данных у
специализирующихся
компаний
9. 1.4. Что такое переменная?
Переменная (английский термин variable) — это то, что можноизмерять, контролировать или чем можно манипулировать в
исследованиях. Иными словами, переменная — это то, что
варьируется, изменяется, а не является постоянным (от
английского корня var).
ПРИМЕРЫ: анкетные данные, систолическое давление
пациентов, количество лейкоцитов в крови, цена акций, товаров,
услуг, потребление, инвестиции, доход, государственные закупки
товаров и услуг, инструмент государственного регулирования (в
экономике); рейтинг программ, доля зрителей, количество
посещений сайта (в рекламе); скорость, температура, объем,
масса в (физике) и т. д.
10. 1.4. Что такое переменная?
Так как значения переменных не постоянны, нужно научитьсяописывать их изменчивость.
Для этого
статистики.
придуманы
описательные
или
дескриптивные
Минимум и максимум — это минимальное и максимальное
значения переменной.
Среднее — сумма значений переменной, деленная на n (число
значений переменной).
Дисперсия и стандартное отклонение — наиболее часто
используемые меры изменчивости переменной. Дисперсия
меняется от нуля до бесконечности. Крайнее значение 0 означает
отсутствие изменчивости, когда значения переменной постоянны.
11. 1.4. Что такое переменная?
Медиана разбивает выборку на две равные части. Половина значенийпеременной лежит ниже медианы, половина — выше.
Медиана дает общее представление о том, где сосредоточены значения
переменной, иными словами, где находится ее центр. В некоторых
случаях, например при описании доходов населения, медиана более
удобна, чем среднее.
Мода представляет собой максимально часто встречающееся значение
переменной (иными словами, наиболее «модное" значение переменной),
например популярная передача на телевидении, модный цвет платья или
марка автомобиля и т. д.
А так же есть еще множество других статистик: квартили, коэффициент
асимметрии, эксцесс, коэффициент корреляции и др.
12. 1.5. Основные законы распределения случайных величин и их назначение
Законы распределения случайных величинслужат
математическими
моделями
для
реальных объектов и явлений, что позволяет в
некоторых случаях применять их для расчетов и
анализа ситуации.
13. 1.5. Основные законы распределения случайных величин и их назначение
Нормальное распределение особенно часто используется при анализе данных.Нормальное распределение дает хорошую модель для реальных явлений, в
которых:
1) имеется сильная тенденция данных группироваться вокруг центра;
2) положительные и отрицательные отклонения от центра равновероятны;
3) частота отклонений быстро падает, когда отклонения от центра становятся
большими.
1
f ( x)
e
2
( x m )2
2 2
14. 1.5. Основные законы распределения случайных величин и их назначение
Равномерноераспределение
полезно
при
описании
переменных, у которых каждое значение равновероятно,
иными
словами,
значения
переменной
равномерно
распределены в некоторой области.
1
, x [ , ]
f ( x)
0, x [ , ]
15. 1.5. Основные законы распределения случайных величин и их назначение
Экспоненциальное распределение. Имеют место события, которые на обыденномязыке можно назвать редкими. Если T – время между наступлениями редких
событий, происходящих в среднем с интенсивностью λ, то величина
имеет
экспоненциальное распределение с параметром λ (лямбда). Экспоненциальное
распределение часто используется для описания интервалов между
последовательными случайными событиями, например интервалов между
заходами на непопулярный сайт, так как эти посещения являются редкими
событиями.
f ( x ) e x , x 0
16. 1.5. Основные законы распределения случайных величин и их назначение
Распределение Лапласа, или, как его еще называют, двойногоэкспоненциального, используется, например, для описания распределения
ошибок в моделях регрессии.
1 x
f ( x ) e , ( x )
2
17. 1.5. Основные законы распределения случайных величин и их назначение
Случайная величина h называется логарифмически нормальной, илилогнормальной, если ее натуральный логарифм (lnh) подчинен
нормальному закону распределения. Логнормальное распределение
используется, например, при моделировании таких переменных, как
доходы, возраст новобрачных или допустимое отклонение от стандарта
вредных веществ в продуктах питания. Итак, если величина x имеет
нормальное распределение, то величина y=ex имеет логнормальное
распределение.
1
f ( x)
e
2 x
(ln x ln a ) 2
2 2
18. 1.5. Основные законы распределения случайных величин и их назначение
Распределение Пуассона иногда называют распределением редкихсобытий. Примерами переменных, распределенных по закону Пуассона,
могут служить: число несчастных случаев, число дефектов в
производственном процессе и т д.
f ( x)
x
e
x!
19. 1.6. Краткий обзор современных программных средств для проведения анализа данных.
MATLAB – это высокопроизводительный язык для техническихрасчетов. Он включает в себя вычисления, визуализацию и
программирование в удобной среде, где задачи и решения
выражаются в форме, близкой к математической. Типичное
использование MATLAB – это:
• математические вычисления
• создание алгоритмов
• моделирование
• анализ данных, исследования и визуализация
• научная и инженерная графика
• разработка
интерфейса
приложений,
включая
создание
графического
20. 1.6. Краткий обзор современных программных средств для проведения анализа данных.
Mathcad – программное средство, среда для выполнения накомпьютере разнообразных математических и технических
расчетов, снабженная простым в освоении и в работе графическим
интерфейсом, которая предоставляет пользователю инструменты
для работы с формулами, числами, графиками и текстами.
В среде Mathcad доступны более сотни операторов и логических
функций, предназначенных для численного и символьного
решения математических задач различной сложности и
применения этих функций для анализа данных.
21. 1.6. Краткий обзор современных программных средств для проведения анализа данных.
STATISTICA – это универсальная интегрированная система,предназначенная для статистического анализа и визуализации
данных,
управления
базами
данных
и
разработки
пользовательских приложений, содержащая широкий набор
процедур анализа для применения в научных исследованиях,
технике, бизнесе, а также специальные методы добычи данных.
С помощью реализованных в системе STATISTICA мощных языков
программирования, снабженных специальными средствами
поддержки, легко создаются законченные пользовательские
решения и встраиваются в различные другие приложения или
вычислительные среды.
22. 1.6. Краткий обзор современных программных средств для проведения анализа данных.
DeductorАналитическая платформа Deductor реализует практически все
современные подходы к анализу структурированной табличной
информации: хранилища данных (Data Warehouse), многомерный
анализ (OLAP), добыча данных (Data Mining), обнаружение знаний
в базах данных (Knowledge Discovery in Databases). Лучшим
способом изучить и понять целесообразность использования
современных технологий анализа - это испытать все на практике.
23. 1.6. Краткий обзор современных программных средств для проведения анализа данных.
STATGRAPHICS – это универсальный пакет для анализа и визуализацииданных. Отличительной особенностью пакета является наличие такого
инструмента как StatAdvisor, который помогает пользователям
интерпретировать полученные результаты, обеспечивает возможность
объединения в одном окне нескольких текстовых и графических подокон.
StatAdvisor дает пользователям понятные разъяснения полученных
результатов, определяет, являются ли эти результаты существенными, и
обращает особое внимание на любые возможные ошибки в анализе.
Пользователи получают немедленную интерпретацию результатов в
процедурах, доступных в как основной системе, так и в четырех
специальных модулях, поставляемых по выбору: Quality Control (контроль
качества), Experimental Design (планирование эксперимента), Time-Series
Analysis (анализ временных рядов) и Advanced Multivariate Method (анализ
вариаций).
24. Вопросы ?
2425. КЛАССИФИКАЦИЯ В РАСПОЗНАВАНИИ ОБРАЗОВ
2526. Схема системы распознавания
Система распознавания образов состоит из нескольких подсистем:Объект
Датчики
Формирователь
информативных
признаков
Обучающая выборка и решающее
правило
для
случая
двух
информативных признаков x1, x2 и
двух классов.
Классификатор
x2
h(x , x ) 0
1
Решение
2
G1
h ( x , x )> 0
1
2
G2
h( x , x ) 0
1
2
x1
27. Байесовская теория принятия решений при дискретных признаках
Одномерный вариантРассматриваем m классов (полную группу несовместных случайных событий) и
один дискретный информативный признак X.
По формуле Байеса вычисляем апостериорные вероятности для всех
рассматриваемых классов:
P( j | X xi )
p xi | j P ( j )
p xi
m
, pxi pxi |l P(l ) j 1, m
l 1
Выносим решение об истинности того класса (с номером ), для которого
апостериорная вероятность максимальная:
P( | X xi ) max P( j | X xi ) , j 1, m
28. Байесовская теория принятия решений при дискретных признаках
Многомерный вариантДля простоты считаем, что имеются два информативных признака X и Y.
X принимает возможные значения x1,…,xn1, Y принимает возможные значения
y1,…,yn2.
По формуле Байеса вычисляем апостериорные вероятности для всех
рассматриваемых классов:
pxi , y j |k P(k )
P(k | [( X xi )(Y y j )]) P(k | xi , y j ) m
pxi , y j |l P(l )
, k 1, m
l 1
Выносим решение об истинности того класса (с номером ), для которого
апостериорная вероятность максимальная:
P( | xi , y j ) max P( k | xi , y j ) , k 1, m
29. Байесовская теория принятия решений при дискретных признаках
Одномерный вариантX xi
1
Решающее
устройство
m
Многомерный вариант
X xi
Y yj
1
Решающее
устройство
m
30. Байесовская теория принятия решений при непрерывных признаках
f ( x | i ), i 1, 2,Одномерны вариант:
Апостериорные вероятности классов по формуле Байеса :
f ( x | i ) P (i )
P (i | x)
, i 1, 2
f ( x)
P( j | x)
1
если
P(1| x )
0
G1
P( 2| x )
c
то принимается решение о 1-м классе, иначе о
2-м классе.
x
G2
P (1| x ) > P (2| x )
31. Байесовская теория принятия решений при непрерывных признаках
Вероятность ошибки классификации при двух классах:Pîø1 f ( x | 1) P(1)dx
Pîø2 f ( x | 2) P(2)dx
G1
G2
f ( x|1) P(1)
Pош.2
G1
f ( x|2) P(2)
Pош.1
c
x
G2
32. Идеи классификации
Случай 1. Известны полностью условные плотности распределения вероятности дляпризнаков:
f ( x | 1), , f ( x | m)
f ( x |i )
x2
f ( x|1)
f ( x|2)
G1
c
h( x1 , x2 ) 0
h( x1 , x2 ) > 0
h( x1 , x2 ) 0
x
G2
Одномерный случай
x1
Двумерный случай
33. Идеи классификации
Случай 2. Условные плотности распределения вероятности дляпризнаков известны не полностью, а с точностью до параметров:
1
2
f ( x, | 1), f ( x , | 2)
Неизвестные параметры θ1 и θ2 доопределяются с помощью одного из
методов математической статистики, например с помощью метода
максимального правдоподобия, на основе обучающей выборки.
Дальнейшая классификация проводится, как и в случае 1.
По обучающей выборке доопределяются и априорные вероятности:
P(1)
n1
n2
, P(2)
n1 n2
n1 n2
34. Идеи классификации
Случай 3. Условные плотности распределения вероятности неизвестны, ноизвестна обучающая выборка. Здесь возможны два варианта.
Вариант 1. Восстанавливается решающая функция.
Вариант 2. По обучающей выборке восстанавливаются условные плотности
35. Идеи классификации
Случай 4. Число классов неизвестно и нет обучающей выборки. Вернее, нетучителя, который мог бы измерения признаков разбить на группы, соответствующие
своим классам. Это самая сложная и распространенная на практике ситуация.
Приходится строить самообучающиеся системы классификации.
f ( x)
1) По
количеству
максимумов
определяем кол-во классов
f ( x|2) P(2)
f ( x|1) P(1)
c
2) Минимум позволяет разбить выборку
на две части – точка c0 (нулевое
приближение).
x
3) Далее
строится
процедура
последовательного (итерационного)
расчета порога c.
4) В итоге получаем случай 3.
36. Прямые методы восстановления решающей функции
1, если истинным является класс 1,yi
1, если истинным является класс 2.
y
1
h(x)
x
-1
37. НЕЙРОННЫЕ СЕТИ: еще один подход к классификации
Идея взята из биологии:•Клетка - элементарный процессор, способный
к простейшей обработке информации
•Нейрон - элемент клеточной структуры мозга
•Нейрон осуществляет прием и передачу
информации в виде импульсов нервной
активности
•Природа импульсов - электрохимическая
38.
39. Интересные данные
Тело клетки имеет размер 3 - 100 микронГигантский аксон кальмара имеет толщину 1 миллиметр и длину
несколько метров
Потенциал, превышающий 50 мВ изменяет проводимость
мембраны аксона
Общее число нейронов в ЦНС человека порядка
100.000.000.000
Каждая клетка связана в среднем с 10.000 других нейронов
Совокупность в объеме 1 мм*3 - независимая локальная сеть
40.
41. Персептроны
Чувс
тв
по ите
ле ль
но
е
1 ( x)
j (x)
M (x)
a1 a1 1 ( x)
1
aj
aM
Преобразователи,
Усилители
предикаты,
нейроны
h( x, a) Пороговое
устройство 1
sgn h
Блок
обучения
42. Формальный нейрон
43. Нелинейное преобразование
Маккалок - ПиттсЛинейная
Сигмоидальная
44. Перцептрон Розенблата
Розенблат: нейронная сеть рассмотреннойархитектуры будет способна к воспроизведению любой
логической функции.
(неверное предположение)
45. Обучение сети
Обучить нейронную сеть это значит, сообщить ей,чего от нее добиваются.
Показав ребенку изображение буквы и получив
неверный ответ, ему сообщается тот, который
хотят получить.
Ребенок запоминает этот пример с верным
ответом и в его памяти происходят изменения в
нужном направлении.
46. Обучение перцептрона
Начальные значения весоввсех нейронов полагаются
случайными.
Сети предъявляется
входной образ x , в
результате формируется
выходной образ.
47. STATISTICA Neural Networks
48. ВОПРОСЫ ?
4849. ПЛАНИРОВАНИЕ ЭКСПЕРИМЕНТА
4950. Что такое планирование эксперимента
u1Объект
um
y
Целью планирования эксперимента
является создание таких планов
вариации
входных
переменных,
которые обеспечивают более быстрое
и точное построение модели объекта.
Выход объекта состоит из неизвестного сигнала
(функции от входов) и центрированной помехи
y (u1, , um ) h
51. Эксперименты в науке и промышленности
Экспериментальные методы широко используются как в науке,так и в промышленности, однако нередко с весьма
различными целями.
Обычно основная цель научного исследования состоит в том,
чтобы
показать
статистическую
значимость эффекта
воздействия определенного фактора на изучаемую зависимую
переменную.
В условиях промышленного эксперимента основная цель
обычно заключается в извлечении максимального количества
объективной информации о влиянии изучаемых факторов на
производственный процесс с помощью наименьшего числа
дорогостоящих наблюдений.
52. Общие идеи
Обычно любая машина или станок, используемый напроизводстве, позволяет операторам изменять различные
настройки, влияя на качество производимого продукта.
Эксперименты позволяют инженеру, ответственному за
производство, улучшать настройки машины, а также
выяснить какие факторы вносят наиболее важный вклад в
качество продукции. Использование этой информации
позволяет
улучшить
настройки
системы,
достигнув
оптимального качества. Чтобы проиллюстрировать эти
рассуждения далее приводится несколько примеров.
53. Общие идеи
Пример 1: Производство красителей для ткани. Рассмотримэксперимент по производству некоторого красителя для ткани. В
этом случае качество производимой продукции описывается
насыщенностью, яркостью и стойкостью окрашенной ткани. Кроме
того, необходимо уточнить, что надо изменять для получения красок
различной
насыщенности,
яркости
для
удовлетворения
потребительского спроса. Другими словами, в этом эксперименте
нужно выявить факторы, наиболее заметно влияющие на яркость,
насыщенность и стойкость производимой краски. В примере
рассматривается 6 различных факторов, влияние которых
оценивается с помощью плана 2^6.
Результаты эксперимента показали, что имеется три наиболее
важных фактора: Полисульфидный индекс, Время и Температура.
Эту информацию теперь можно использовать для более тонкой
настройки аппаратуры, что бы улучшить качество красителя.
54. Общие идеи
Пример 2: Максимизация выхода химической реакции. Выходпродукта многих химических реакций зависит от времени и
температуры. К сожалению, эти функции не линейны и не
монотонны. Другими словами, нельзя сказать: “чем больше
продолжительность реакции, тем больше выход” и “чем выше
температура, тем больше выход”.
Формально
цель
эксперимента
заключается в том, чтобы найти
оптимальное
положение
на
поверхности выхода, образованной
двумя переменными: временем и
температурой.
55. Общие идеи
Пример 3: Улучшение поверхностной однородности припроизводстве кремниевых кристаллов. Производство надежных
микропроцессоров требует высоко отлаженного производственного
процесса. Отметим, что в данном примере одинаково, если не более
важно,
контролировать
как
изменчивость
некоторых
производственных характеристик, так и их средние значения.
Например, средняя толщина поверхностного слоя поликремниевой
подложки производственный процесс может быть отрегулирован
превосходно, однако, если изменчивость этого параметра велика, то
микрочипы будут недостаточно надежными. Не существует
теоретической модели, которые позволяла бы инженеру
предсказать, как эти факторы влияют на однородность поверхности
кристаллов. Следовательно, для оптимизации производственного
процесса нужно систематизировано проводить эксперименты на
различных уровнях факторов.
56. Что такое планирование эксперимента
nA
B
C
yi
1
–
–
–
y1
2
+
–
–
y2
3
–
+
–
y3
4
–
–
+
y4
Взвешивание трех тел по традиционной
схеме ("+" означает, что тело положено на
весы, "–" указывает на отсутствие тела на
весах).
2 ( вес А) 2 ( y2 y1 ) 2 2 ( y )
Взвешивание трех тел с использованием
планирования эксперимента.
y1 y2 y3 y4 4 ( y )
2 ( y)
2
4
2 ( вес А) 2
2
n
A
B
C
yi
1
–
–
–
y1
2
+
–
–
y2
3
–
+
–
y3
4
–
–
+
y4
Видно, что при новой схеме взвешивания дисперсия веса объектов
получается вдвое меньше, чем при традиционном методе взвешивания, хотя
в обоих случаях выполнялось по четыре опыта.
57. Построение линейной статической модели объекта
Считаем, что входами объекта являются u1,…,um, а выходом y.Уравнение линейной статической модели объекта имеет вид:
m
0
y 0 j (u j u j )
j 1
Необходимо на основе эксперимента (на основе
нескольких измерений входов и выхода объекта)
вычислить коэффициенты модели.
u2 2
1
u2
u20
4
u1
u1
u10
Экспериментальные точки для входных координат зададим в вершинах
гиперпрямоугольника.
Интервалы покачивания относительно базовой точки задаются
экспериментатором, и они определяют область изучения объекта.
u2
3
u1
58. Построение линейной статической модели объекта
С целью унификации процедур построения планов, исследования их свойств, расчетапараметров и исследования качества модели осуществляется переход от размерных
входных переменных u1,…,um к безразмерным x1,…,xm.
0
xj
uj uj
u j
u2 2
, j 1, m
Точки плана в вершинах прямоугольника в новых
координатах оказываются в вершинах квадрата с
единичными координатами. Центр плана переходит в
начало координат.
В итоге получается план:
1
u2
u20
4
u1
u1
u10
n
xo
x1
x2
yi
2
1
+
+
+
y1
1
2
+
–
+
yi
3
+
+
–
y3
4
+
–
–
y4
4
1
x2
1
1
1
u2
3
u1
3
x1
59. Построение линейной статической модели объекта
В новых безразмерных координатах x1,…,xm линейнаямодель также сохраняет линейный вид:
0 0 , j j u j , j 1, m
m
y 0 j x j
0 0 , j
Параметры βi модели рассчитаем по
критерию наименьших квадратов :
2
I y
j 1
j
u j
n
m
i 1
j 1
, j 1, m
2
( yi 0 j x ji ) min
Предполагая, что измерения выхода некоррелированные и равноточные получаем
систему линейных алгебраических уравнений:
2
y
j
m
2
( xk , x j ) j y ( xk , y ),
j 0
( x j , y) ( x j , y)
(xj, xj )
n
k 0, 1, , m
n
n
i 1
i 1
( x k , x j ) x ki x ji , ( x k , y ) x ki yi
60. Крутое восхождение по поверхности отклика
В планировании эксперимента поверхностью отклика называют уравнение связивыхода объекта с его входами.
В 1951 году Бокс и Уилсон предложили использовать последовательный "шаговый"
метод движения к экстремуму выхода объекта.
Коэффициенты αi линейной модели
оценками составляющих градиента:
u2
являются
0
(u )
ai
; i 1, m
U i
Далее движение осуществляется по поверхности
отклика в направлении оценки градиента
u1
1 0
u u k , где k - величина шага.
61. Полный факторный эксперимент
Полнымфакторным
экспериментом
называется
эксперимент,
в
котором
реализуются все возможные сочетания
уровней факторов. Если число факторов
равно m, а число уровней каждого фактора
равно p. то имеем полный факторный
эксперимент типа pm.
n
21
1
2
3
22
4
5
6
7
При построении линейной модели объекта
используется
полный
факторный
эксперимент
типа
2m .
Условия
эксперимента записываются в таблицы, в
которых строки соответствуют различным
опытам, а столбцы – значениям факторов.
Такие таблицы называются матрицами
планирования эксперимента.
23
8
9
10
11
2
4
12
13
14
15
16
x1
x2
x3
x4
yi
y1
y2
y3
y4
y5
y6
y7
y8
y9
y10
y1 1
y12
y13
y14
y15
y16
62. Полный факторный эксперимент
С использованием ортогонального плана первого порядкаможно определять не только коэффициенты βi, но и
коэффициенты βij перед факторами взаимодействия xixj (i≠j)
Например, при m=2 можно рассчитать и коэффициенты
модели:
y 0 1x1 2 x2 12 x1x2
n
x0
x1
x2
x1x2
yi
1
+
+
+
+
y1
2
+
–
+
–
y2
3
+
+
–
–
y3
4
+
–
–
+
y4
63. Дробные реплики
При большом числе входов объекта полный факторный эксперимент 2mсодержит большое число экспериментов. Можно этот план разбивать на блоки
(дробные реплики) с сохранением ортогональности плана. При этом по
меньшему числу точек определяются (также независимо друг от друга) все
коэффициенты линейной модели.
Чтобы получить дробную реплику, необходимо
за основу взять полный факторный эксперимент
(например 23) и в качестве новой переменной
взять один из столбцов (например x4),
соответствующий
фактору
взаимодействия
(например x4=x1x2). Для данного примера
дробная реплика обозначается как 24-1.
n
x1
x2
x3
X4=x1x2
1
+
+
+
+
2
–
+
+
–
3
+
–
+
–
4
–
–
+
+
5
+
+
–
–
6
–
+
–
+
7
+
–
–
+
8
–
–
–
–
Определяющий контраст (или определяющие контрасты, когда их несколько)
позволяет
установить
разрешающую
способность
дробной
реплики.
Разрешающая способность будет максимальной, если линейные эффекты будут
смешаны с эффектами взаимодействия наибольшего возможного порядка.
64. Насыщенные планы. Симплекс
Иногда исследователь ставит цель получения линейного уравнения моделипо планам, содержащим минимум точек (количество точек равно числу
коэффициентов). Такие планы называют насыщенными.
Ортогональный план проводится в вершинах правильного симплекса.
Правильным симплексом называется выпуклая правильная фигура в
многомерном пространстве, число вершин которой превышает размерность
этого пространства на единицу.
x1 x2
x1 x2 x3
x1
3a a
1 1 1
1 1 1
3a a
1
4
0
2a
1
1
1 1 1
x
1
0
1
x
x2
( 3a; a) ( 3a; a)
2
1 x
1
3 (0; 2a)
Эти планы центральные и ортогональные.
1 1
1
3
x1
3
2
x2
65. Насыщенные планы. Симплекс
Один из общих способов построения планов:x1
x2
x3
a1
a1
0
0
0
a2
a2
2a 2
0
0
a3
a3
a3
3a3
0
xm
am
am
am
am
mam
66. Насыщенные планы. Планы Плаккета – Бермана
Плаккет и Берман в 1946 г. предложили способ построения насыщенных планов (сединичными координатами) при m=11, 19, 23, 27, 31, 35, 39, 43, 47, 51, 55, 59, 63, 67,
71, ... .
Задаются базовые строки. Каждая следующая строка матрицы планирования
образуется из исходной циклическим сдвигом вправо. Получается матрица размером
m x m. Последняя (m+1) -я строка матрицы планирования состоит из минус единиц.
Пример базисных строк:
Строка
m
n
11
12
++–+++–––+–
19
20
++––+++–+–+––––++–
23
24
+++++–+–++––++––+–+––––
31
32
––––+–+–+++–++–––+++++––++–+––+
35
36
–+–+++–––+++++–+++––+––––+–+–++––+–
67. Разбиение матрицы планирования на блоки
При проведении эксперимента выход объекта дрейфует. Если этотдрейф кусочно-постоянный, то его можно нейтрализовать, изменяя
порядок проведения эксперимента во времени. Для этого разбивают
матрицу планирования на блоки и последовательно реализуют (во
времени) эту матрицу: вначале один блок, затем другой и т. д.
В качестве примера рассмотрим ортогональный план 23 . Считаем,
что выход объекта имеет аддитивный дрейф на величину Δ1 (когда
проводятся эксперименты с номерами 1, 2, 3, 4) и на величину Δ2
(когда проводятся эксперименты № 5, 6, 7, 8). Этот дрейф приводит к
смещению на величину (4Δ1-4 Δ2)/8 параметра β3.
68. Разбиение матрицы планирования на блоки
Пример эксперимента в котором выход объекта дрейфует.yi
Номер блока
n
x1
x2
x3
xдр=x1x2x3
1
+
+
+
+
y1=y1ист+Δ1
1
2
–
+
+
–
y2=y2ист+Δ1
2
3
+
–
+
–
y3=y3ист+Δ1
2
4
–
–
+
+
y4=y4ист+Δ1
1
5
+
+
–
–
y5=y5ист+Δ2
2
6
–
+
–
+
y6=y6ист+Δ2
1
7
+
–
–
+
y7=y7ист+Δ2
1
8
–
–
–
–
y8=y8ист+Δ2
2
69. Разбиение матрицы планирования на блоки
Для устранения этого недостатка изменим порядок проведенияэксперимента, разбив план на 2 блока.
n
x1
x2
x3
xдр
yi
1
+
+
+
+
y1=y1ист+Δ1
2
–
–
+
+
y2=y2ист+Δ1
3
–
+
–
+
y3=y3ист+Δ1
4
+
–
–
+
y4=y4ист+Δ1
5
–
+
+
–
y5=y5ист+Δ2
6
+
–
+
–
y6=y6ист+Δ2
7
+
+
–
–
y7=y7ист+Δ2
8
–
–
–
–
y8=y8ист+Δ2
Номер блока
Блок 1
Блок 2
70. Обработка результатов эксперимента
1. Проверка однородности дисперсий. Если при реализации ортогональногоплана остается неизвестным, на самом ли деле дисперсии выходов (ошибок
измерения) одинаковы в каждой точке плана, то необходимо в каждой точке
плана осуществить несколько дополнительных измерений выхода, найти
оценку дисперсии (в каждой точке) и проверить гипотезу о равенстве
дисперсий.
Проверка однородности дисперсий производится с помощью различных
статистик. Простейшей из них является статистика Фишера, представляющая
собой отношение наибольшей из оценок к наименьшей:
2
max
F 2
min
Так же можно выполнить проверку с
использованием статистики Кочрена:
n
2
2
Gmax max / j
j 1
71. Обработка результатов эксперимента
2. Проверка адекватности модели. Вычисляем остаточную сумму квадратов , делимее на число степеней свободы n-m-1 и получаем остаточную дисперсию (дисперсию
адекватности):
2
ад
n
1
2
(
y
y
i i)
n m 1 i 1
На основе дополнительного эксперимента объема n0 в одной из точек плана (например
в центре плана) строим оценку для дисперсии выхода объекта. Число степеней
свободы для оценки n0 -1. По статистике Фишера проверяем гипотезу о равенстве
дисперсий, которая совпадает с гипотезой об адекватности модели.
2 2
F ад / y
Если статистика не превосходит порогового значения, то принимается гипотеза об
адекватности модели. В противоположном случае эта гипотеза отвергается. Надо
заново строить модель, например, усложняя ее за счет введения дополнительных
факторов, либо отказываться от линейной модели и переходить к квадратичной модели.
72. Обработка результатов эксперимента
3. Проверка значимости коэффициентов заключается впроверке гипотезы H: bj = 0 для каждого j=1,…,m.
Вычисляется статистика Стьюдента:
j
t
y / n
Если |t|<c, где с – пороговое значения из таблицы Стьюдента, то
принимается гипотеза о том, что коэффициент модели βj
незначимо отличается от нуля. В этом случае данный член
модели можно опустить, но после этого упрощения модели ее
надо проверить на адекватность.
73. Обработка результатов эксперимента
4. Интерпретация модели. Производится качественное сопоставлениеповедения полученной модели с реальными процессами объекта. При
этом привлекается информация от экспертов (например технологов),
детально изучивших объект. Знак коэффициентов βj , линейной модели
показывает характер влияния входа объекта на выход. Знак "+"
свидетельствует о том, что с увеличением входа (фактора) растет
величина выхода объекта и наоборот. Величина коэффициентов βj –
количественная мера этого влияния.
Если характер связи между входами и выходом объекта на основе
построенной модели не соответствует реальным связям (на базе
информации от экспертов) в объекте, то такую модель надо
поставить под сомнение либо полностью отказаться от нее.
74. Ортогональное планирование второго порядка
Построение планов второго порядка – задача в математическом отношениизначительно более сложная, чем в случае построения планов первого
порядка. Модель второго порядка при m=3 имеет вид:
y 0 1 x1 2 x2 3 x3 12 x1 x2 23 x2 x3 13 x1 x3 11 x12 22 x22 33 x33
Для вычисления коэффициентов модели второго порядка необходимо
варьировать переменные не менее чем на трех уровнях. Это вызывает
необходимость постановки большого числа опытов. Полный факторный
эксперимент содержит 3m точек.
m
1
2
3
4
5
6
7
m
3
9
27
81
243
729
2187
Композиционный план n0=1
5
9
15
25
43
77
143
3
75. Ортогональное планирование второго порядка
В 1951 году Бокс и Уилсон предложили составлять композиционные планы. Числоточек плана равно величине n=n1+2m+n0 . Здесь n1– число точек полного факторного
эксперимента или дробной реплики 2m – число парных точек, расположенных на осях
координат; n0 – число опытов в центре плана.
x2
*
*
x3
*
*
* x1
*
*
x2
*
*
*
x1
Точки на осях координат называют звездными
точками. Их количество равно удвоенному
числу факторов. Расстояние от центра плана
до звездной точки одинаково. Его обозначают
буквой α и называют звездным плечом.
Композиционные
планы
имеют
следующие
положительные
свойства:
1. Они могут быть получены в результате достройки планов первого порядка.
2. Дополнительные точки на осях координат и в центре плана не нарушают
ортогональности для столбцов, соответствующих факторам xj и эффектам
взаимодействия xixj .
76. Ортогональное планирование второго порядка
Пример композиционного плана:2
1
x
2
2
x1’
x2’
x
1
xl xl2
n
xli2 xl2 xl2
n
x0
x1
x2
x1x2
1
+
+
+
+
+
+
◊
◊
2
+
–
+
–
+
+
◊
◊
3
+
+
–
–
+
+
◊
◊
4
+
–
–
+
+
+
◊
◊
5
+
α
0
0
α2
0
Δ
□
6
+
-α
0
0
α2
0
Δ
□
7
+
0
α
0
0
α2
□
Δ
2
2
0 11 x1 22 x2 1x1 2 x2 12 x1x2 11 x1 22 x2
8
+
0
-α
0
0
α2
□
Δ
0 1 x1 2 x2 12 x1 x2 11x1 22 x2
9
+
0
0
0
0
0
□
□
n i 1
С учетом новых переменных xl’
получаем следующее уравнение модели
(для случая m=2):
2
2
y 0 1x1 2 x2 12 x1x2 11 ( x1 x1 ) 22 ( x2 x2 )
77. Ротатабельное планирование
Если эта дисперсия одинакова на равном удалении от центраплана, то такой план называется ротатабельным.
Ортогональный план первого порядка является
ротатабельным.
Построение ротатабельного плана второго порядка из
симплексных планов:
x2
x1
78. Метод случайного баланса
Часто влияние факторов на выходную координату объекта имеет затухающийэкспоненциальный вид:
y
100 %
80 %
60 %
40 %
20 %
0
В 1956 году Сатерзвайт предложил метод
случайного баланса для отсеивания небольшого
числа значимых факторов на шумовом поле.
Метод базируется на постановке экспериментов
по плану, содержащему координаты точек,
выбранных случайным образом.
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
Построение матрицы планирования осуществляют следующим образом. Все
факторы разбивают на группы. Затем для каждой группы строят матрицы
планирования, беря за основу полный факторный эксперимент или дробные
реплики. План проведения эксперимента образуется путем случайного смешивания
строк соответствующих базовых планов (для групп факторов). Полученный план
реализуется на объекте, и результаты анализируются с помощью диаграмм
рассеяния.
79. Метод случайного баланса
yПример:
n
x1
x2
x1x2
y
y1
1
+
+
+
24
27
2
–
+
–
27
27
3
+
–
–
26
29
4
–
–
+
29
29
29
28
27
26
25
24
3
x1
2
0
x
x
x2 1 2
Каждая из диаграмм содержит точки, соответствующие результатам эксперимента.
Эти точки разбиты на две группы. Одна из них соответствует тем опытам, когда
исследуемый фактор находился на нижнем уровне, вторая – тем опытам, когда
фактор находился на верхнем уровне. Для каждой из групп находятся оценки
медианы и вычисляется их разность (из оценки медианы правой группы вычитается
оценка медианы левой).
Разность между оценками медиан количественно оценивает линейное влияние
фактора на выход объекта.
80. ВОПРОСЫ ?
8081. МЕТОДЫ НЕПАРАМЕТРИЧЕСКОЙ ОБРАБОТКИ ИНФОРМАЦИИ
8182. Оценивание функционалов
Необходимо по выборке x1,…,xn случайной величины X найти оценкуфункционала
( x, f ( x ), ) f ( x )dx
Рассмотрим некоторые примеры функционалов:
m xf ( x )dx M { X } – математическое ожидание.
( x m) 2 f ( x )dx M {( X m) 2 } – дисперсия.
2
H ( X ) (log f ( x)) f ( x)dx – приведенная энтропия.
83. Оценивание функционалов
Схема построения оценки Фn следующая. Вначале строится оценка дляплотности вероятности fn(x), а затем она подставляется в функционал.
Основным свойством оценки Фn(x1,…,xn) является ее состоятельность. Оценка Фn
функционала Ф называется состоятельной, если:
p
n
lim P{| n |> } 0
n
Требование состоятельности определяет практическую пригодность оценок, ибо в
противоположном случае (при несостоятельности оценок) увеличение объема
исходной выборки не будет приближать оценку к "истинной" величине. По этой
причине свойство состоятельности должно проверяться в первую очередь.
Оценка Фn параметра Ф называется несмещенной, если:
M { n}
Она является асимптотически несмещенной, если:
M { n } n
84. Простейшие оценки функции и плотности распределения вероятности
По упорядоченной независимой выборке x1,…,xn случайной величины Xпостроим оценку Fn(x) для функции распределения:
F ( x) P{ X x}
m число исходов, благоприятствующих событию { X x}
1 n
Fn ( x )
1( x xi )
n общее число опытов
n i 1
1, z > 0,
1( z)
0, z 0.
где 1(z) – единичная функция:
Fn ( x )
1
0
1
n
1
n
1
n
x1
1
n
1
n
1
n
1
n
x2 x3 x4 xn 2 xn 1 xn
x
85. Простейшие оценки функции и плотности распределения вероятности
Так как плотность распределения f(x) связана с функцией распределения F(x)через линейный оператор дифференцирования :
dF ( x )
f ( x)
dx
Можно получить оценку для плотности распределения :
dFn ( x ) 1 n d
1 n
f n ( x)
1( x xi ) ( x xi )
dx
n i 1 dx
n i 1
Здесь δ(x-xi) – дельта-функция Дирака. Она имеет "игольчатый" ("гребенчатый") вид:
уходит до ∞ в точке xi , а при остальных значениях аргумента x равна нулю и обладает
свойствами:
xi
1)
( x x )dx 1
i
xi
- площадь под дельта функцией единичная.
селектирующее свойство дельта-функции позволяет
x
легко
выполнять
интегрирование.
Интеграл
2) ( x ) ( x xi )dx ( xi )
оказывается равным подынтегральному выражению,
x
стоящему перед дельта-функцией, в особой точке.
i
i
86. Простейшие оценки функции и плотности распределения вероятности
Первое свойство показывает, что, несмотря на экзотическое поведение дельтафункции, площадь под ней единичная.Второе селектирующее свойство дельта-функции позволяет легко выполнять
интегрирование. Интеграл оказывается равным подынтегральному выражению,
стоящему перед дельта-функцией, в особой точке.
f n ( x)
x1
x2
x3 x4 xn 2 xn 1
xn
x
Оценка плотности распределения является несмещенной, но несостоятельной. В явном
виде её использовать нельзя. Ею удобно пользоваться при вычислении оценок
моментов (математического ожидания, дисперсии и др.) для случайной величины или
для аналитической функции случайной величины. Получаемые оценки являются
состоятельными и часто несмещенными.
87. Простейшие оценки функции и плотности распределения вероятности
Многомерный случай:1 n p
Fn ( x ) Fn ( x1 , , x p ) 1( x j x ji )
n i 1 j 1
1 n p
f n ( x ) f n ( x1 , , x p ) ( x j x ji )
n i 1 j 1
Кратные измерения. При кратных измерениях значение x1 повторяется k1 раз, x2 – k2
раз,…, xm – km раз, при этом k1+…+km = n.
m k
Fn ( x)
i
i 1 n
1( x xi )
Fn ( x )
1
k m 1 k m
n
km 2 n
n
m k
f n ( x)
i
i 1 n
( x xi )
k1
0n
k2
n
x1
k3
n
x2
x3 xm 2 xm 1 xm
x
88. Полиграммы
Повысим степень гладкости оценки fn(x) по сравнению с простейшей оценкойфункции плотности. Для этого надо повысить соответственно степень гладкости для
оценки функции распределения Fn(x). Если Fn(x) будет состоять из отрезков прямых,
то fn(x) будет состоять из прямоугольников. Такая кусочно-постоянная оценка
называется полиграммой первого порядка.
f n (x)
Fn (x)
1
1
n 1
x1
x2 x3 xn 1 xn
x
x1
1
n 1
1
n 1
x
x2 x3
xn 1 xn
Она строится на выборочных интервалах, ограниченных выборочными значениями
упорядоченной выборки x1,…,xn. Площадь каждого прямоугольника равна 1/(n-1)
x xi
1 n 1 1
f n ( x)
I
0
n 1 i 1 xi 1 xi xi 1 xi
1,
I0 ( z)
0,
z [0; 1),
z [0; 1).
89. Полиграммы
Для улучшения сглаживающих свойств оценки плотности построены полиграммыболее высоких порядков:
f n ( x)
a
1
n 1
1
n 1
1
n 1
x2 x3
x1
1
n 1
1
n 1
x4 x5
1
n 1
x6
x
x7
f n ( x)
б
2
n 1
2
n 1
x1
x2 x3
x4 x5
2
n 1
x6
x
x7
f n ( x)
в
3
n 1
x1
x2 x3
3
n 1
x4 x5
x6
x7
x
90. Метод "К ближайших соседей"
Метод "К ближайших соседей"Считаем, что для одномерной случайной величины X имеется n независимых
наблюдений x1,…,xn. Зафиксируем некоторое целое положительное число kn: 1 ≤ kn ≤
n. Для каждой выбранной точки x существует интервал длительностью 2p(kn,n,x)
который охватывает kn ближайших к x точек выборки. Одна точка попадает на границу
интервала, а kn-1 точка – внутрь интервала. Оценкой плотности распределения
вероятности fn(x) служит частота (kn-1)/n попадания в интервал 2p, приведенная к
единичной величине интервала:
kn 1
f n ( x)
n2 ( k n , n, x )
Многомерный случай:
kn 1
f n ( x)
nV ( kn , n, x )
(4, n, x) (4, n, x)
xi 2
xi 1 xi x xi 1 xi 2
xi 3
(5, n, x) (5, n, x)
xi 2
x2
xi 1 xi x xi 1 xi 2
V (8, n, x )
R8
x1
xi 3
91. Оценка Розенблатта – Парзена
Плотность распределения вероятности связана с функцией распределения черезоператор дифференцирования:
f ( x ) dF ( x ) / dx
f ( x)
F ( x h) F ( x h)
2h
1 n
Fn ( x h) 1( x h xi )
n i 1
1 n
Fn ( x h) 1( x h xi )
n i 1
1 n
1 n
1( x h xi ) 1( x h xi )
1 n 1 1( x h xi ) 1( x h xi )
n
n
i 1
i 1
f n ( x)
n i 1 h
2
2h
1( x h xi ) 1( x h xi )
x xi
I
h
2
0.5, | z | 1,
I ( z)
1 | z | .
0,
1 n 1 x xi
f n ( x) I
n i 1 h h
92. Оценка Розенблатта – Парзена
Степень гладкости оценки плотности зависит от степени гладкости ядра. Заменим воценке fn(x) прямоугольное ядро I(z) на произвольное K(z) и получим:
1 n 1 x xi
fn ( x) K
n i 1 h h
Здесь h – коэффициент размытости ядра. Примеры треугольного, параболического и
кубического ядер приведены ниже:
1 | z |, | z | 1,
K ( z)
1 | z |;
0,
0.75 (1 z 2 ), | z | 1,
K ( z)
1 | z |;
0,
(1 2 | z |)(1 | z |) 2 , | z | 1,
K ( z)
1 | z | .
0,
1 K ( z)
s 1
z
1 0
1
1 K ( z)
s 1
z
1 0 1
1 K ( z)
s 1
z
1 0 1
93. Оценка Розенблатта – Парзена
Многомерный случай:1 n 1 x1 x1i
1 xm xmi 1 n m 1 x j x ji
f n ( x1 , , xm )
K
K
K
n i 1 hx hx hx
hx
n i 1 j 1 hx hx
1
1
m
m
j
j
94. Оценка условной плотности вероятности
Рассматриваем объект, имеющий случайный вход (либонесколько входов) X и выход Y. Связь между случайными
величинами характеризуют условные характеристики, например,
условная плотность распределения вероятности f(x|y).
f ( y| x ) f ( x , y ) / f ( x )
f n ( y| x )
1 n 1 x xi 1 y yi
K
K
n i 1 hx hx hy hy
1 n 1 x xj
K
n i 1 hx hx
x xi
x xi
K
K N
hx
hx
x xi 1 y yi
K
K N
i 1
hx hy hy
n
x xj
K
j 1
hx
n
95. Оценка регрессии
Регрессией называют первый начальный условный моментM {Y | x} y f ( y | x )dy h( x )
Это некоторая усредненная количественная зависимость между выходом и
входом объекта. Регрессия (4.7.1) удовлетворяет квадратичному критерию
I M {(Y y * ) 2 | x} min
*
y
Получим оценку регрессии:
n
x xi
M {Y | x} hn ( x ) K N
y ( y yi )dy
h
i 1
x xi
x xi
KN
K
h
h
x xj
i ( x)
K
h
j 1
n
n
x xi
KN
yi i ( x ) yi
i 1
i 1
h
n
96. Оценка регрессии
Подбор оптимального параметра коэффициента размытости для оценкирегрессии. Перейдем от размерного параметра с к безразмерному β.
x xi
K
x xi
1
1/ 5
i ( x ) K N
n
c n
x xj
K
j 1
При β=0 ядро K(·) не зависит от x.
x xi
K
3/ 4
1
x xi
i ( x ) K N
n
, i 1, n
n
x xj
3 /4 n
K
j 1
j 1
Оценка регрессии равна среднему арифметическому
выборочных значений выхода объекта для любых x.
1 n
hn ( x ) yi
n i 1
hn (x)
y4
y3
y5
y2
y1 , y6
x1 x2 x3 x4 x5 x6
x
97. Оценка регрессии
Возьмем теперь другое крайнее состояние для β: β=1. Оценка регрессиипроходит через экспериментальные точки и состоит из кусков линий,
соединяющих точки выборки.
hn (x)
y4
y3
y5
y2
y1 , y6
hn (x)
y4
y3
x1 x2 x3 x4 x5 x6
y5
y
Оптимальный параметр β лежит y , y2
1
6
x
в интервале [0; 1].
x1 x2 x3 x4 x5 x6
x
98. Оценка регрессии
Рекуррентный расчет оценки регрессии. Для каждогофиксированного x на основе использования рекуррентной
схемы расчета получаем алгоритм адаптивного сглаживания:
hn ( x ) Bn / Dn
xl xln
1
yn
Bn Bn 1
K
l 1 hx ( n )
hx (n)
m
l
l
xl xln
1
Dn Dn 1
K
hx (n)
l 1 hxl ( n)
l
m
q
hxl (n) cxl n , q 1/(m 4), n 1, 2, , B0 D0 0
99. Оценка регрессии
Инверсная модель. Для объекта с одним входом X и однимвыходом Y основной инверсной характеристикой является
регрессия
M { X | y} xf ( x | y )dx
y yi
( x xi ),
f ( x | y ) K N
i 1
hy
n
y yi
y yi
K
KN
h
h
y
y
и получаем оценку инверсной регрессии:
n
y yi
xi
M { X | y} K N
h
i 1
y
y yj
K
j 1 hy
n
100. Робастные оценки регрессии
В реальной ситуации исходные экспериментальные данные xi, yi могутсодержать аномальные измерения, называемые выбросами. Даже наличие
малого процента выбросов приводит к сильному искажению оценок. Поставим
задачу построения оценки регрессии, которая была бы более устойчивая
(малочувствительная, робастная (в переводе с английского "крепкая") к
выбросам по отношению к ранее построенной оценке:
x xi
hn ( x ) K N
yi
h
i 1
n
Кроме математического ожидания случайной величины Y есть другая
характеристика среднего положения – медиана. Медиана – это среднее по
вероятности значение. Состоятельная оценка медианы представляет собой
среднее по номеру значение в упорядоченной выборке:
m2 y3
y1
y 2 y 3 y 4 y5
101. Робастные оценки регрессии
Запишем критериальную форму получения оценки:I 2 | yi m2 | min
n
m2
i 1
I 21
n
( yi m 21 ) 2
i 1
1
min
0
21
m
2 |
| yi m
n
dI 21
1
1
2
(
y
m
)
0
i
2
1
0
dm 2
| yi m 2 |
i 1
1 n
0 1
m2 | yi m2 |
i 1
0 1
| y j m2 | yi
j 1
l 1 n
l 1
m2 | yi m2 |
i 1
l 1
| y j m2 | yi , l 0, 1, 2,
j 1
| m2l 1 m2l |
n
n
102. Робастные оценки регрессии
Модульный критерий не является единственным для получения робастныхоценок. Более общий критерий имеет вид :
( x xi )
I ( x ) F ( yi h) K
min
h
h
i 1
n
F(v)
Некоторые виды функций F(v):
F(v)
F (v) | v |
a
F(v)
a
a
v
| v | a;
v 2 2 ,
F (v )
2
a
|
v
|
a
2 , a | v |
a
v
v
| v |, | v| a;
F (v )
a, a | v|
F(v)
v
0
0
a
0
v 2 2 , | v | a;
F (v ) 2
a 2 , a | v |
0
a
F(v)
0
F (v) | v|p ,1 p 2
v
103. Адаптивное управление при априорной неопределенности
Адаптацией природа наделила все живое. Она представляет собойприспособление к различным изменениям. Эти изменения происходят как
внутри живого организма, так и во внешней среде.
Свойством адаптации человек наделил и созданные им устройства.
Управление в этих устройствах осуществляется таким образом, чтобы как
можно быстрее и лучше нейтрализовать влияние непредвиденных изменений
или приспособиться к ним.
u
1
ИУ
Объект
y
ИУ
Управляющее
устройство
y*
y
2
104. ВОПРОСЫ ?
104105. ДИСПЕРСИОННЫЙ АНАЛИЗ
105106. Постановка проблемы
Дисперсионный анализ является статистическимметодом
анализа
результатов
наблюдений,
зависящих от различных одновременно действующих
факторов, с целью выбора наиболее значимых
факторов и оценки их влияния на исследуемый
процесс.
Методами дисперсионного анализа устанавливается
наличие влияния заданного фактора на изучаемый
процесс (на выходную переменную процесса) за счёт
статистической
обработки
наблюдаемой
совокупности выборочных данных.
107. Однофакторный дисперсионный анализ
Предположим, что анализируется влияние наслучайную величину X фактора A, изучаемого на k
уровнях (A1, A2,…, Ak). На каждом уровне Ai
проведены n наблюдений (xi1, xi2,…,xin) случайной
Номер
величины X.
Уровни фактора A
наблюдения
Расположим
экспериментальные
данные в
виде таблицы
A1
A2
…
Ai
…
Ak
1
x11
x21
…
xi1
…
xk1
2
x12
x22
…
xi2
…
xk2
….
…
…
…
…
…
…
j
x1j
x2j
…
xij
…
xkj
…
…
…
…
…
…
…
n
x1n
X2n
…
xin
…
xkn
Σ
X1
X2
…
Xi
…
Xn
108. Однофакторный дисперсионный анализ
Рассмотрим оценки различных дисперсий, возникающие при анализетаблицы
результатов
наблюдений.
Для
оценки
дисперсии,
характеризующей изменение данных на уровне Ai (по строкам таблицы),
имеем:
2
n
n
1
1
1
2
2
2
xij xij .
Si
( xij xi )
n 1 j 1
n 1 j 1
n j 1
n
Из предпосылок дисперсионного анализа следует, что должно иметь место
равенство всех дисперсий. При выполнении этого условия находим оценку
дисперсии, характеризующей рассеяние значений xij вне влияния фактора
A, по формуле:
2
k n
k n
1
1
1
1
2
2
2
2
xij xij
S 0 Si
( xij xi )
k i 1
k (n 1) i 1 j 1
k (n 1) i 1 j 1
n i 1 j 1
k
k
n
109. Однофакторный дисперсионный анализ
Для упрощения вычислений приведемВычисляем последовательно суммы:
k
n
k
2
xij
1
2
Q2 X i
n i 1
Q1 Q2
2
S0
Q2 Q3
2
SA
Q1
i 1 j 1
k (n 1)
алгоритм
их
выполнения.
1
Q3 X i
kn i 1
k
2
k 1
Сравниваем S A2 и S02 устанавливаем наличие влияния фактора A.
k (n 1) Q2 Q3
> F [k 1; k (n 1)] , то влияние A – значимо.
Если
k 1 Q1 Q2
110. Двухфакторный дисперсионный анализ
Рассмотренный ранее однофакторный дисперсионный анализ обладает информативностью, небольшей, чем методы множественного сравнения
средних. Информативность дисперсионного анализа
возрастает при одновременном изучении влияния
нескольких факторов.
Рассмотрим случай, когда анализируется влияние
одновременно двух факторов A и B.
111. Двухфакторный дисперсионный анализ
Пусть результатытаблицей:
B/А
B1
B2
….
Bj
…
Bm
Σ
A1
x11
x12
…
x1j
…
x1n
X1
эксперимента
Уровни фактора A
A2
…
Ai
…
x21
…
xi1
…
x22
…
xi2
…
…
…
…
…
x2j
…
xij
…
…
…
…
…
X2n
…
xin
…
X2
…
Xi
…
представлены
Ak
xk1
xk2
…
xkj
…
xkn
Xn
Σ
X1’
X2’
…
X j’
…
Xm’
112. Двухфакторный дисперсионный анализ
Дисперсионный анализ для двухфакторных таблицпроводится в следующей последовательности.
Вычисляются суммы:
k
m
Q1
i 1 j 1
2
xij
1 k 2
Q2 X i
m i 1
1 m 2
Q3 X j
k j 1
1
1 k
X /
Q4
Xi
mk i 1
mk j 1 j
k
2
Далее находятся оценки дисперсий:
S0
2
Q1 Q4 Q2 Q3
(k 1)(m 1)
SA
2
Q2 Q4
k 1
SB
2
Q3 Q4
m 1
2
Если
SA
Если
S B2
> F ( f1 , f 2 ) , то влияние фактора B признается значимым.
2
S0
2
S0
> F ( f1, f 2 ) , то влияние фактора A признается значимым.
2
113. Двухфакторный дисперсионный анализ
Приведенный анализ предполагает независимость факторов A и B. Если онизависимы, то взаимодействие факторов C=AB также является фактором,
которому соответствует своя дисперсия. Для того чтобы выделить такое
взаимодействие, необходимы параллельные наблюдения в каждой клетке
таблицы, т.е. при каждом сочетании факторов A и B на уровнях Ai и Bj
соответственно необходимо не одно наблюдение, а серия наблюдений.
Для оценки влияния взаимодействия факторов AB вычисляем
дополнительную сумму:
k
m
n
2
Q5 xijv
i 1 j 1 v 1
Далее анализ проводится, как и ранее, с той лишь разницей, что в клетках
таблицы вместо отдельных значений используется их средние значения.
Вычисляется оценка дисперсии и проверяется значимость взаимодействия
факторов:
2
Q5 nQ1
2
nS0
S AB
> F ( f1 , f 2 )
f1 (k 1)(m 1)
f 2 mk (n 1)
2
mk (n 1)
S AB
114. Планирование эксперимента при дисперсионном анализе
Дисперсионныйанализ
тесно
связан
с
соответствующим
планированием эксперимента. Удачно спланированный эксперимент,
выявляя все необходимые эффекты, оказывается всегда либо более
точным, либо менее трудоемким по сравнению с непродуманным
экспериментом.
Если на результат эксперимента действуют одновременно несколько
факторов, то наилучший эффект дает одновременный дисперсионный
анализ всех этих факторов (многофакторный анализ).
Методы дисперсионного анализа позволяют исследовать и такой
случай, когда некоторые сочетания уровней пропущены. Такой
эксперимент называется дробным факторным экспериментом (ДФЭ).
Планирование при ДФЭ приобретает особо важную роль, ибо
пропущенные сочетания уровней не так-то просто нейтрализовать.
115. Планирование эксперимента при дисперсионном анализе
Такие способы планирования существуют и притом неединственные; согласно Фишеру их называют латинскими
квадратами. Эти расположения приводятся в специальных
справочниках; для примера приведен один вид такого квадрата:
A1
B1 C1
B2 C2
… …
Bk-1 Ck-1
Bk Ck
A2
C2
C3
…
Ck
C1
…
…
…
…
…
…
Ak-1 Ak
Ck-1 Ck
Ck C1
… …
Ck-3 Ck-2
Ck-2 Ck-1
116. Планирование эксперимента при дисперсионном анализе
k kСхема расчетов для латинского квадрата очень
2
Q1 xij
похожа на обычный двухфакторный анализ:
i 1 j 1
Находим сумму квадратов по столбцам,
1 k 2
Q2 X i
k i 1
деленную на число наблюдений в столбце:
Находим сумму квадратов итогов по строкам,
1 k
2
Q3 X j
k j 1
деленную на число наблюдений в строке:
2
2
Находим квадрат общего итога, деленный на
1 k
1 k
Q4 2 X i 2 X j
число всех наблюдений:
k i 1
k j 1
Находим сумму квадратов итогов по уровням
1 k 2
Q5 Y
фактора C, деленную на число уровней:
k 1
117. Планирование эксперимента при дисперсионном анализе
Перейдем теперь к вычислению и оценке значимости дисперсий:S02
Q1 2Q4 Q2 Q3 Q5
(k 1)( k 2)
SA
Q Q4
Q2 Q4
2
, SB 3
k 1
k 1
2
S A S0
S S0
2
2
A, B
B
k
k
2
Если отличие будет значимым, то
SC
2
2
Q5 Q4
k 1
SC S 0
2
C
k
2
Если отличие будет значимым, то
2
2
2
118. ВОПРОСЫ ?
118119. АНАЛИЗ ТРЕНДОВ И ВРЕМЕННЫХ РЯДОВ
119120. Введение
Временные ряды отличаются от обычных данных ободном временном срезе в том отношении, что в случае
временных
рядов
сама
последовательность
наблюдений несет в себе важную информацию.
Теперь чтобы охарактеризовать совокупность данных в
целом, уже недостаточно знать лишь типичное
значение этих данных (среднее значение) или даже
изменчивость этой совокупности данных (дисперсия). В
этом случае желательно знать, что, скорее всего,
произойдет дальше. НУЖЕН ПРОГНОЗ!
121. Введение
ПРИМЕР. Чтобы составить бюджет на следующийквартал, требуется достоверная оценка ожидаемого
объема продаж. Этот прогноз послужит основой для
прогнозирования
других
показателей
бюджета
(возможно, с помощью регрессионного анализа).
Проанализировав
временной
ряд
фактических
квартальных объемов продажи за последние несколько
лет,
можно
выдать
прогноз,
который
будет
представлять собой наиболее достоверную оценку,
базирующуюся на общих тенденциях продаж, с учетом
любых сезонных колебаний спроса.
122. Анализ трендов и сезонности
Анализ трендов и сезонности представляет собойнепосредственный, интуитивный подход к оцениванию
четырех базовых компонентов помесячных или
поквартальных временных рядов: долгосрочный тренд
(тенденция), сезонность, циклическая вариация и
нерегулярный компонент.
Базовая модель временного ряда представляет числа в
этом ряде в виде произведения, получаемого путем
умножения перечисленных компонентов.
Данные = Тренд Сезонность Цикличность Нерегулярн ость
123. Анализ трендов и сезонности
124. Анализ трендов и сезонности
Тренд исреднее
циклический
компонент:
скользящее
Скользящее среднее представляет собой новый ряд,
полученный путем усреднения соседних наблюдений
временного ряда и перехода к следующему периоду
времени – в итоге получается более гладкий ряд.
Скользящее среднее = Тренд Цикличность
125. Анализ трендов и сезонности
Сезонный индекс: среднее значение отношения кскользящему
среднему
отражает
сезонное
поведение
Чтобы выделить сезонное поведение, прежде всего,
следует получить отношение исходных значений к
скользящему среднему. Полученный результат будет
включать сезонный и нерегулярный компоненты,
поскольку скользящее среднее исключает из данных
тренд и циклический компонент.
Данные
Сезонность Нерегулярность =
Скользящее среднее
126. Анализ трендов и сезонности
Затем, чтобы устранить нерегулярный компонент, надоусреднить эти значения для каждого сезона. Сезонный
компонент проявляется, поскольку он присутствует
ежегодно, тогда как нерегулярный компонент, как
правило, удается усреднить.
Данные
Сезонный индекс = Среднее значение
*
скользящее среднее
* - за соответствующий сезон
127. Анализ трендов и сезонности
Поправка на сезон: деление ряда на сезонный индекс.Поправка на сезонные колебания устраняет из
результатов
измерения
ожидаемый
сезонный
компонент (путем деления ряда на сезонный индекс
для соответствующего периода), что позволяет нам
непосредственно сравнивать один квартал или месяц с
другим (после внесения поправки на сезон), выявляя те
или иные скрытые тенденции.
Данные
Значение с поправкой на сезон
Сезонный индекс
Тренд Цикличность Нерегулярность
128. Анализ трендов и сезонности
Долгосрочный тренд и прогноз с поправкой насезонные колебания: линия регрессии
Когда временной ряд демонстрирует долгосрочную
линейную тенденцию к нарастанию или снижению, для
оценки этой тенденции и прогнозирования будущего
можно воспользоваться регрессионным анализом.
129. Анализ трендов и сезонности
Прогноз: тренд с учетом сезонностиЧтобы
прогнозировать
будущее,
надо
учесть
сезонность в долгосрочном тренде, вернув ему
ожидаемую сезонную вариацию. Для этого достаточно
умножить значение тренда на значение сезонного
индекса для того периода времени, который вы
прогнозируете. Этот процесс является обратным по
отношению к внесению поправки на сезонные
колебания.
Результирующий
прогноз
включает
долгосрочный тренд и сезонную вариацию.
130. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
АRIМА-процессыБокса-Дженкинса
представляют
собой
семейство линейных статистических моделей, основанных на
нормальном распределении, которые позволяют имитировать
поведение множества различных реальных временных рядов
путем комбинирования процессов авторегрессии, процессов
интегрирования и процессов скользящего среднего.
ARIMA - сокращение от Autoregressive Integrated Moving Average
131. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс случайного шума не обладает памятью:отправная точка
Процесс случайного шума состоит
из случайной выборки (независимых
наблюдений)
из
нормального
распределения с постоянным средним
и стандартным отклонением. Какиелибо тенденции (тренды) в этом
случае отсутствуют, поскольку – по
причине независимости - наблюдения
не помнят о прошлом поведении ряда.
Yt t
132. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессии (AR) обладает памятью о своемпрошлом
Любое
наблюдение
процесса
авторегрессии (часть "AR" названия
ARIMA) представляет собой линейную
функцию от предыдущего наблюдения
плюс случайный шум. Таким образом,
процесс авторегрессии помнит о
своем предыдущем состоянии и
использует эту информацию для
определения своего дальнейшего
поведения.
Yt Yt 1 t
133. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс скользящего среднего (МА) имеетограниченную память
Любое наблюдение процесса скользящего
среднего
состоит
из
константы,
(долгосрочное среднее значение процесса),
плюс независимый случайный шум минус
часть
предыдущего
случайного
шума.
Процесс скользящего среднего не помнит в
точности своего прошлого, но помнит
компонент случайного шума того состояния, в
котором он (процесс) находился. Таким
образом, его память ограничена одним шагом
в будущее; за пределами этого шага для
процесса все начинается заново.
Yt t t 1
134. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессии и скользящего среднего(ARMA) сочетает в себе AR и МА
Любое наблюдение процесса авторегрессии и
скользящего среднего состоит из линейной
функции от предыдущего наблюдения плюс
независимый случайный шум минус некоторая
доля предыдущего случайного шума. Процесс
авторегрессии
и
скользящего
среднего
запоминает как свое предыдущее состояние,
так
и
компонент
случайного
шума
предыдущего состояния. Таким образом, его
память сочетает в себе память процесса
авторегрессии
с
памятью
процесса
скользящего среднего.
Yt Yt 1 t t 1
135. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Чистый интегрированный (I) процесс помнит, где оннаходился, и затем движется случайно
Y
Y
t
t
1
t
чистого
Каждое
наблюдение
интегрированного (I) процесса (pure
integrated (I) process), называемого
также
случайным
блужданием,
заключается в случайном шаге в
сторону от текущего наблюдения. Этот
процесс знает, где он находится, но
забыл, как он попал туда.
136. Моделирование циклического поведения с помощью ARIMA-процессов Бокса-Дженкинса
Процесс авторегрессионного интегрированногоскользящего среднего (ARIMA) помнит свои изменения
Yt Yt 1 (Yt 1 Yt 2 ) t t 1
Процесс состоит из линейной функции
предыдущего
изменения
плюс
независимый случайный шум минус
определенная
доля
предыдущего
случайного шума. Этот процесс знает,
где он находится, помнит, как он попал
в это состояние, и помнит даже часть
предыдущего шумового компонента.
137. ВОПРОСЫ ?
137138. ИДЕНТИФИКАЦИЯ СТАТИЧЕСКИХ МОДЕЛЕЙ ОБЪЕКТОВ
138139. Общие понятия
Идентификация – это процесс построения моделей объектов различнойприроды. Теория идентификации имеет в своем арсенале достаточно
эффективные методы и алгоритмы, на базе которых разработаны и широко
используются программные комплексы.
Процесс идентификации складывается из двух взаимосвязанных этапов:
идентификации структуры моделей и идентификации параметров в моделях
выбранной структуры. При построении структуры модели (или набора
конкурирующих либо взаимодополняющих структур) используется априорная
информация об объекте. Для каждого класса объектов формируются банки
структур с сопутствующей информацией.
Модели делятся на статические и динамические. Первые из них описывают
объекты в стационарных режимах их работы. Динамические модели
описывают переходные процессы в объектах, например, возникающие при
переходе с одного стационарного режима работы объекта на другой.
140. Постановка задачи подстройки параметров нелинейных моделей
u*
Объект
h h(u , a )
Модель
h h(u , )
Считаем, что выход объекта состоит из полезного сигнала η(u, a) и
центрированной помехи ξ.
Сигнальная часть выхода представляет собой известную функцию от входа с
неизвестными параметрами a. В структуру функции η(u, a) . Все, что не
удается описать в объекте, относят к помехе.
Модель объекта берем в виде функции η(u, α). Основная задача теперь
сводится к расчету параметров α модели.
Алгоритмы расчета будем строить, используя
критерий наименьших
квадратов и близкие к нему критерии, например наименьших модулей
невязок. В зависимости от свойств помехи критерий наименьших квадратов
приобретает различные формы – от простейшей до самой общей.
141. Критерий наименьших квадратов
Считаем, что в каждый момент времени ti (момент измерения входа ивыхода объекта) помехи ξi, являются центрированными случайными
величинами с дисперсиями σi2. Если дисперсии различны, то измерения
называются неравноточными.
Тогда критерий наименьших квадратов имеет вид:
1 *
I 2 (hi hi ) 2 min
,
i 1 i
n
hi h(ui , )
При равноточных измерениях весовые коэффициенты 1/σi2, характеризующие
информативность измерений, одинаковы. Тогда критерий имеет вид:
1 n *
I 2 (hi hi ) 2 min
i 1
142. Критерий наименьших квадратов
Если все помехи ξi коррелированны, т. е:12 k12 k1n
1
K M { T }, , K 1 (cij )
2
k
k
n
n1 n 2 n
то критерий наименьших квадратов базируется на элементах cij матрицы,
обратной корреляционной:
n
n
I ( ) ( h*i hi )cij ( h*j h j ) min
i 1 j 1
Это общая форма критерия. Она включает в себя (при соответствующих
упрощениях) все предыдущие формы. Запишем критерий в матричной форме.
h1*
h(u1 , ) h1
1
H * , H ( )
,
*
h(u , ) h
n
n
n
hn
I ( ) ( H * H ( ))T K 1 ( H * H ( )) min
143. Метод наименьших квадратов при линейной параметризации модели
Модель объекта задана в виде линейной комбинации известных(базисных) функций φ1(u),…, φm(u):
1
1 (u )
m
T
T
,
(
u
)
h(u, ) j (u ) j (u ) (u ),
j 1
(u )
m
m
T (u1 ) T (u1 )
1 (u1 ) 2 (u1 ) m (u1 )
H ( )
T
T
(u ) (u ) (u )
(
u
)
(
u
)
m
n
1 n 2 n
n
n
Параметры α находим по критерию наименьших квадратов:
I ( ) ( H * ) T K 1 ( H * ) min
144. Метод наименьших квадратов при линейной параметризации модели
Пример расчета параметров:*
h
h
(
u
,
)
c
D
h( u , )
h
h(u , ) c Dh(u , )
*
h1
h(u , ) 1 2 (u u )
u1
u
u
145. Метод последовательной линеаризации при подстройке параметров на основе критерия наименьших квадратов
Построимитерационную
процедуру
расчета
параметров
α
модели
в соответствии с критерием наименьших квадратов. Так как функционал квадратичный,
то первая стадия метода не реализуется и на каждой итерации используется только
линейная аппроксимация выхода модели по параметрам:
dH ( l ) l 1
H ( ) H ( )
d
l
l 1 l
dH ( l ) l 1 T 1 *
dH ( l ) l 1
l
I ( ) ( H H ( )
) K ( H H ( )
) min
d
d
l 1
*
l
l 1
Необходимое условие минимума приводит к системе линейных алгебраических
уравнений:
dH T 1 dH l 1 dH T 1 *
l
K
K ( H H ( ))
d
d
d
l 1 l l l 1 , l 0, 1, 2,
146. Робастные оценки параметров
Параметры модели (которые являются оценками параметров объекта),полученные на основе критерия наименьших квадратов, сильно реагируют на
выбросы помех. Аномальные отклонения в измерениях очень редки, но
амплитуда их велика.
n
I1 ( ) | h*i | min
i 1
Так же существуют другие критерии вида:
n
I ( ) pi 1 ( ei ) min ,
i 1
Примеры функции ψ(e):
a
ei h*i h(ui , )
б
(e)
0
e
(e)
0.8
0
e
в
(e)
0
e
147. Простейший адаптивный алгоритм подстройки параметров
Линейная параметризация модели:h(u, ) T (u )
На каждой итерации, например n и n-1, параметры модели находим из условия
равенства выходов модели и объекта:
h*n T (un ) n , h*n 1 T (un 1 ) n 1
Каждому уравнению в пространстве параметров соответствует своя линия
2
n
|| n ||2 min
n
n 1
n 1
a
1
( h*n T (un ) n 1 )
n n 1
(un ) n 1 ( h*n T (un ) n 1 )( T (un ))
T
(un ) (un )
n
n > a T
(un )
n
(un ) (un )
n n 1 n 1 ( n n 1 ), n 1, 2, ... .
148. Простейший адаптивный алгоритм подстройки параметров
Нелинейная модель: На каждом шаге линеаризуем модель иприращения параметров отыскиваем из равенства выхода
модели и линеаризованной модели:
h h(u n , n 1 ) h(u n , n 1 ) n
*
n
T
В итоге получаем алгоритм перестройки параметров
нелинейной модели:
(h*n h(un , n 1 ))
n n 1 T
h(un , n 1 )
h(un , n 1 ) h(un , n 1 )
149. ВОПРОСЫ ?
149150. ИДЕНТИФИКАЦИЯ И АДАПТИВНОЕ УПРАВЛЕНИЕ ДИНАМИЧЕСКИМИ ОБЪЕКТАМИ
150151. Дискретные динамические модели стохастических объектов
В динамическом режиме поведение объектов описывается различнымидинамическими
уравнениями:
обыкновенными
дифференциальными,
интегральными, интегродифференциальными уравнениями; уравнениями с
запаздываниями; уравнениями в частных производных и их дискретными
аналогами. С целью упрощения будем рассматривать наиболее простые
дискретные модели. Последние выбраны именно потому, что получаемые
алгоритмы идентификации и управления напрямую реализуемы на цифровой
вычислительной технике (мини-,микро-ЭВМ, микропроцессоры).
Дискретные модели привязаны к номерам дискретных моментов времени и
поэтому основным аргументом для входных u(t) и выходных
x(t), y(t)
переменных является номер дискреты t = 0, 1, 2,…
Например:
x(t ) Ax (t 1) Bu(t 1), t 1, 2, ..., x(0) x0
x(t ) f ( x(t 1), u(t 1),(t 1), ), t 1, 2, ..., x(0) x0
152. Дискретные динамические модели стохастических объектов
Считаем, что объект описывается дискретным уравнением:x (t ) ax (t 1) bu(t 1) e(t ) ce(t 1), t 1, 2, ... .
Модель имеет вид:
y (t ) ax(t 1) b u (t 1) с ( x(t 1) y (t 1))
e( t )
q
c
u( t )
q
b
(t )
a
x (t )
q
153. Дискретные динамические модели стохастических объектов
Если объект имеет вид:x (t ) ax (t 1) b(u(t 1) e(t 1))
То оптимальная модель имеет вид:
y (t ) ay (t 1) b u(t 1), t 1, 2, ... .
e( t )
u( t )
q
b
x (t )
a
q
154. Подстройка параметров с использованием функций чувствительности
Для примера рассмотрим модель:y (t | (t )) a (t ) x (t 1) b (t )u(t 1) c (t )[ x (t 1) y (t 1 | (t ))]
T
Построим алгоритм расчета параметров: (t ) ( a (t ), b (t ), c (t ))
Линеаризуем модель относительно параметров α(t-1) , вычисленных в
предыдущий момент времени:
y (t | (t )) y (t | (t 1)) a (t ) a (t ) b (t ) b (t ) c (t ) c (t ) y (t | (t 1)) T (t ) (t )
Здесь y(t|α(t-1)) – выход модели в момент времени t при значениях
параметров, полученных в предыдущий момент времени t-1
y(t | (t 1)) a (t 1) x(t 1) b (t 1)u(t 1) c (t 1)[ x(t 1) y(t 1 | (t 1))]
ω(t) – вектор-столбец функций чувствительности выхода модели к
параметрам модели.
155. Подстройка параметров с использованием функций чувствительности
Функции чувствительности удовлетворяют уравнениям чувствительности:a (t ) c (t 1) a (t 1) x(t 1), a (0) 0
b (t ) c (t 1) b (t 1) u(t 1), b (0) 0
c (t ) c (t 1) c (t 1) ( x(t 1) y (t 1 (t 1))), c (0) 0
Каждое уравнение чувствительности получается дифференцированием
уравнения модели по соответствующему параметру.
Для расчета параметров α(t) можно использовать, например, простейший
адаптивный алгоритм:
(t )( x (t ) y (t ( (t 1))
(t ) (t 1)
T (t ) (t )
156. Применение простейшего адаптивного алгоритма
Рассчитаем параметры линейных и нелинейных динамических моделей наоснове простейшего адаптивного алгоритма.
(t )( x (t ) y (t ( (t 1))
(t ) (t 1)
T (t ) (t )
Пример: Рассмотрим модель без обратной связи:
y (t ) ai x (t i ) b j u (t j )
n
m
i 1
j 1
Функциями чувствительности выхода модели к ее параметрам являются
измеренные значения выхода и входа объекта:
a i (t ) x(t i ), i 1, n, b j (t ) u(t j ), j 1, m
157. Применение простейшего адаптивного алгоритма
В каждый текущий момент времени t на основе измерений x(t);x(t-1), u(t-1); x(t-2), u(t-2) параметры корректируем по простейшему
адаптивному алгоритму:
x (t ) y (t | (t 1))
ai (t ) ai (t 1) n
x (t i ); i 1, n
m
2
2
(
t
)
ai
b (t )
i 1
j 1
j
x (t ) y (t | (t 1))
b j (t ) b j (t 1) n
u (t j ); j 1, m
m
2
2
(
t
)
ai
b (t )
i 1
j 1
j
m
y (t | (t 1) ai (t 1)x (t i ) b j (t 1)u(t j )
n
i 1
j 1
158. Применение простейшего адаптивного алгоритма
Рассмотрим нелинейную модель без обратной связи:y(t ) f ( x(t 1), u(t 1), 1 , 2 )
Получаем следующие выход модели и функции чувствительности:
y(t | (t 1) f ( x(t 1), u(t 1), 1 (t 1), 2 (t 1))
f ( x(t 1), u(t 1), 1 (t 1), 2 (t 1))
1
f ( x(t 1), u(t 1), 1 (t 1), 2 (t 1))
2 (t )
2
1 (t )
Алгоритм перестройки параметров:
x (t ) y (t | (t 1))
1 (t ) 1 (t 1)
1 (t )
2
2
1 (t ) 2 (t )
2 (t ) 2 (t 1)
x (t ) y (t | (t 1))
2 ( t )
2
2
1 (t ) 2 (t )
159. Адаптивные системы обработки информации
В адаптивных системах обработки информации и управленияпроисходит приспособление к изменяющимся условиям и
неизвестным характеристикам объекта.
u
z
Объект
управления
x
Регулятор
фиксированной
структуры
Блок перестройки
параметров
регулятора
Устройство управления
x
u
z
Объект
управления
x
x
Синтезируемый
регулятор
x*
Блок перестройки
параметров модели
Устройство управления
x*
160. Постановка задачи адаптивного управления
Рассматриваем адаптивную систему с идентификацией (АСИ). Синтезируем алгоритмрасчета управления (алгоритм работы устройства управления) u(t) в каждый текущий
момент времени t. Исходными экспериментальными данными о входе и выходе объекта.
Необходимо рассчитать управляющее воздействие u(t) , обеспечивающее достижение
следующей цели: наименьшего уклонения выхода системы x от заданной траектории x*
в каждый текущий момент времени.
Считаем, что поведение объекта в динамическом режиме описывается разностным
уравнением:
x(t ) f ( x(t 1), u (t 1), a ) (t ), t 1, 2,
Обозначим через y(k|α(t)) выход модели в момент времени k при значении вектора
параметров α(t), вычисленных в момент времени. Если шум – белый, то
y ( k | (t )) f ( x ( k 1), u ( k 1), (t ))
161. Примеры синтеза устройств управления для простейших линейных систем
Пример 1. Считаем, что объект описывается уравнением:x(t ) x(t 1) u (t 1) h(t 1)
h(t )
Формируем модель объекта:
y ( k | (t )) x ( k 1) u( k 1) (t )
u (t )
q u(t 1)
x(t 1) q
Находим параметры:
Объект
(t ) x (t ) x (t 1) u(t 1)
v (t )
Из локального квадратичного критерия оптимальности
I (u ) ( y (t 1 | (t )) x (t 1))
*
2
(t )
min
u1 ( t ) u ( t ) u2 ( t )
Рассчитываем оптимальное управление:
u1 (t ), если v(t ) u1 (t ),
u (t ) v(t ), если u1 (t ) v(t ) u 2 (t ),
u (t ), если u (t ) v(t ).
2
2
q
q
x* (t 1)
q
Устройство x(t 1)
управления
x (t )
162. Примеры синтеза устройств управления для простейших линейных систем
Пример 2. Объект описывается уравнением:x(t ) a0 a1 x(t 1) a2 u(t 1) e(t )
Модель объекта:
y(k | (t )) 0 (t ) 1 (t ) x(k 1) 2 (t )u(k 1)
Параметры:
x (t ) y (t | (t 1))
0 (t ) 0 (t 1)
0 (t 1) (t )
2
2
1 x (t 1) u (t 1)
1 (t ) 1 (t 1) (t ) x(t 1)
2 (t ) 2 (t 1) (t )u(t 1)
Находим управляющее воздействие :
v (t ) 2 1 (t )( x * | t 1) 0 (t ) 1 (t ) x (t ))
163. Синтез алгоритмов управления для линейных систем
nm
Объект: x (t ) a0 ai x (t i ) a n j u(t j ) e(t )
i 1
j 1
e(t )
u(t )
q
q
an 1
q
q
a1
q
q
an
0
1
x (t )
a0 1
an m
1
n 1
q
an 2
x* (t 1)
1
n 2
q
n m
Идентификатор
n
164. Алгоритмы адаптивного управления для нелинейных систем
Объект описывается нелинейным разностным уравнением:x (t ) f ( x (t 1), u(t 1), a, t 1) e(t ), t 1, 2, ... .
e(t )
e(t )
u(t )
q
f ( )
x (t )
u(t )
q
a
q
x* (t 1)
q
v(t )
f
1
( )
x* (t 1)
(t )
Идентификатор
x (t )
q
q
165. Управление динамическими системами с чистыми запаздываниями
Рассматриваем объект, описываемый разностным уравнением:x (t ) f ( x (t 1), u(t 1 ), a ) e(t ), t 1, 2, ....
Строим модель объекта:
y ( k | (t )) f ( x ( k 1), u( k 1 ), (t ))
Выход модели находим из критерия наименьших квадратов:
I (u) ( y (t 1 | (t )) x * (t 1 ))2 min
u1 u ( t ) u2
Решение получается в форме
u1, если v(t ) u1,
u (t ) v(t ), если u1 v(t ) u2 ,
u , если u v(t ),
2
2
166. Управление динамическими системами с чистыми запаздываниями
x* , 5x (t ),
80 o
60 o
40 o
20 o
0
100
20
40
60
80
100
t
80
100
t
u( t ) [ 0;100]
50
0
0
20
40
60
Пример: на примере гальванической ванны
одного из заводов при однопроцентном уровне
помех
приведены
входная
и
выходная
переменные замкнутой системы управления, а
также
кусочно-постоянный
заданный
температурный режим x*(t). В начальный момент
температура ванны равна 20 С. На первых
двадцати
тактах
происходит
основная
настройка параметров модели, хотя и далее
алгоритм коррекции параметров продолжает
непрерывно
работать.
Если
в
объекте
произойдут
какие-либо
изменения,
то
идентификатор отследит их. После основной
коррекции параметров алгоритм управления
обеспечивает перевод системы на новый
уровень стабилизации за минимальное время и
без перерегулирования.