Парная линейная регрессия и метод наименьших квадратов
Цели лекции
Виды зависимостей между переменными
Виды статистических зависимостей
Пример: Регрессионная зависимость
Что такое регрессионный анализ?
Определение регрессии
Регрессионные модели
Пример: Парная регрессия
Пример: Множественная регрессия
Регрессионные уравнения
Причины обязательного присутствия случайного фактора
Этапы построения качественного уравнения регрессии
Этапы построения качественного уравнения регрессии
Выбор формы парной регрессии
Примеры взаимосвязи между переменными
Парная линейная регрессия
Модель Кейнса
Модель парной линейной регрессии
Задачи линейного регрессионного анализа
Эмпирическое уравнение регрессии
Эмпирическое уравнение регрессии
Эмпирическое и теоретическое уравнения регрессии
Задача определения коэффициентов регрессии
Метод наименьших квадратов
Метод наименьших квадратов
Метод наименьших квадратов
Метод наименьших квадратов
Оценки метода наименьших квадратов
Матричная форма записи
Выводы
Выводы
Другие методы определения коэффициентов регрессии
Пример (A) построения уравнения регрессии
Пример (A) построения уравнения регрессии
Пример (A) построения уравнения регрессии
Пример (A) построения уравнения регрессии
Пример (A). Таблица расчетов по МНК
279.50K
Категория: МатематикаМатематика

Парная линейная регрессия и метод наименьших квадратов

1. Парная линейная регрессия и метод наименьших квадратов

Лекция

2. Цели лекции

Раскрыть понятие регрессии.
Познакомиться с методом наименьших
квадратов – методом построения
линейного уравнения регрессии.
2

3. Виды зависимостей между переменными

1. Функциональные: Y = f(X).
Имеют место при исследовании связей между
неслучайными переменными. Такие связи в
эконометрике не рассматриваются.
2. Статистические: изменение одной из величин
влечет изменение закона распределения другой
(доход – потребление, цена – спрос и т.д.).
3

4. Виды статистических зависимостей

а) Корреляционные: при изменении одной из величин
изменяется среднее значение другой (связь между
переменными не носит направленного характера)
M[Y/X = x] = Mx[Y] = (x), M[X/Y = y] = My[X] = (y),
где M[Y/X = x] м. о. случайной величины Y,
вычисленное при условии, что случайная величина X
приняла значение x, (x) const, (y) const.
б) Регрессионные: односторонняя зависимость среднего
значения случайной величины Y от одной X или
нескольких X1, ,Xm случайных величин.
4

5. Пример: Регрессионная зависимость

y
2
Y=2+x
Возможные
значения y для
данного значения x
x
5

6. Что такое регрессионный анализ?

Регрессионный анализ – наиболее часто
используемый инструмент в
эконометрике.
Регрессионный анализ представляет
собой анализ форм связи,
устанавливающих количественные
соотношения между случайными
величинами изучаемого случайного
процесса.
6

7. Определение регрессии

Регрессия – функциональная зависимость
между объясняющими переменными и
условным математическим ожиданием
(средним значением) зависимой
переменной, которая строится с целью
прогнозирования этого среднего
значения при фиксированных значениях
объясняющих переменных.
7

8. Регрессионные модели

Mx[Y] = (X) парная регрессия,
Mx[Y] = (X1, ,Xm) множественная регрессия,
где (X) const,
X объясняющая, входная, предсказывающая,
экзогенная, неслучайная переменная, фактор,
регрессор, факторный признак;
Y зависимая, объясняемая, выходная,
результирующая, эндогенная, случайная
переменная, результирующий признак.
8

9. Пример: Парная регрессия

Мы хотим определить зависимость
между продажами и затратами на
рекламу.
y – продажи.
x – рекламные расходы.
9

10. Пример: Множественная регрессия

Мы хотим определить связь между
потреблением, доходом семьи,
финансовыми активами семьи и размером
семьи.
y – потребительские расходы.
x1 – доход семьи.
x2 – финансовые активы семьи.
x3 – размер семьи.
10

11. Регрессионные уравнения

Y = M[Y/x] + = (x) + уравнение парной
регрессии,
Y = M[Y/x1 , , xm] + = (x1 , , xm) +
уравнение множественной регрессии,
где случайный фактор (остаток),
обусловленный многими причинами.
В зависимости от вида функции (x) модели
делятся на линейные и нелинейные.
11

12. Причины обязательного присутствия случайного фактора

1.
2.
3.
4.
5.
6.
Невключение в модель всех объясняющих
переменных.
Неправильный выбор функциональной формы
модели.
Агрегирование переменных (факторы
представляют собой комбинацию других
переменных).
Ошибки измерений.
Ограниченность статистических данных.
Непредсказуемость человеческого фактора.
12

13. Этапы построения качественного уравнения регрессии

1.
Определение конечных целей эконометрического
моделирования, набора участвующих в модели
факторов и их роли (постановочный этап).
2. Предмодельный анализ экономической
сущности изучаемого явления (априорный этап).
3. Сбор необходимой статистической информации
(информационный этап).
13

14. Этапы построения качественного уравнения регрессии

4. Выбор формулы уравнения регрессии
(спецификация уравнения регрессии).
5. Определение параметров выбранного уравнения
(параметризация).
6. Анализ качества уравнения и проверка его
адекватности эмпирическим данным,
совершенствование уравнения (верификация).
14

15. Выбор формы парной регрессии

В случае парной регрессии выбор формулы
обычно осуществляется по графическому
изображению реальных статистических
данных в виде точек (корреляционное
поле или диаграмма рассеивания).
15

16. Примеры взаимосвязи между переменными

а) Взаимосвязь между Y и X близка к линейной: Y = a + bX
б) Взаимосвязь близка к квадратической: Y = a + bX + cX2
в) Взаимосвязь между Y и X отсутствует. Какую бы мы ни
выбрали форму связи, результаты проверки ее качества
будут неудачными
16

17. Парная линейная регрессия

Модель линейной регрессии является
наиболее распространенной (и простой)
зависимостью между переменными, а также
может служить начальной точкой
эконометрического анализа.
17

18. Модель Кейнса

Рассмотрим модель Кейнса зависимости частного
потребления С от располагаемого дохода I: С = С0+bI,
где С0 величина автономного потребления, b предельная
склонность к потреблению (0 < b 1)
18

19. Модель парной линейной регрессии

Теоретическая парная линейная регрессионная
модель:
yi M [Y / X xi ] i 0 1 xi i
где 0, 1 теоретические коэффициенты регрессии,
i случайное отклонение.
В общем виде теоретическую парную линейную
регрессионную модель будем представлять в виде:
Y 0 1 X
19

20. Задачи линейного регрессионного анализа

Задачи линейного регрессионного анализа состоят в
том, чтобы по имеющимся статистическим данным
(xi, yi), i = 1, 2, , n, для переменных X и Y:
а) получить наилучшие оценки параметров 0 и 1;
б) проверить статистические гипотезы о параметрах
модели;
в) проверить, адекватность модели данным
наблюдений.
20

21. Эмпирическое уравнение регрессии

По выборке ограниченного объема нельзя точно
определить теоретические значения 0 и 1..
Можно лишь построить эмпирическое уравнение
регрессии:
y i b0 b1 xi
где b0 и b1 – оценки параметров 0 и 1 эмпирические
коэффициенты регрессии).
y i – оценка условного м. о. M[Y/X = xi].
21

22. Эмпирическое уравнение регрессии

yi b0 b1 xi ei
В результате имеем:
где ei – оценка теоретического случайного отклонения i .
Оценки b0 и b1 отличаются от истинных значений 0 и 1,
что приводит к несовпадению эмпирической и
теоретической линий регрессии. По различным
выборкам из одной и той же генеральной
совокупности получают разные значения оценок
коэффициентов регрессии.
22

23. Эмпирическое и теоретическое уравнения регрессии

Соотношение между теоретическим и эмпирическим
уравнениями регрессии схематично имеет вид:
23

24. Задача определения коэффициентов регрессии

Задача состоит в нахождении по выборке данных
оценок b0 и b1 так, чтобы построенная линия регрессии
была наилучшей в определенном смысле среди всех
других прямых. Решение основано на минимизации:
g ( yi , xi , b0 , b1 ) min,
i 1, n
где g – некоторая функция.
24

25. Метод наименьших квадратов

Наиболее распространена методом наименьших квадратов
(МНК), реализующий минимизацию суммы квадратов
отклонений:
n
n
i 1
i 1
2
2
(
y
b
b
x
)
e
i 0 1 i i min
Основные особенности МНК:
1)
Он наиболее простой с вычислительной точки зрения.
2)
Оценки коэффициентов регрессии по МНК при
определенных предпосылках обладают рядом оптимальных
свойств.
25

26. Метод наименьших квадратов

Пусть по выборке данных (xi, yi), i = 1, 2, , n,
требуется определить оценки b0 и b1 эмпирического
уравнения регрессии:
26

27. Метод наименьших квадратов

В этом случае минимизируется функция:
n
n
n
Q(b0 , b1 ) e ( yi yi ) ( yi b0 b1 xi ) .
i 1
2
i
i 1
2
2
i 1
Т.к. функция Q(b0,b1) непрерывна, выпукла и ограничена
снизу, то она имеет минимум.
Необходимым условием минимума Q(b0,b1) является
равенство нулю ее частных производных по неизвестным
параметрам b0 и b1.
27

28. Метод наименьших квадратов

Приравняем нулю частные производные и затем
разделим на n оба уравнения:
Q
b 2 ( yi b0 b1 xi ) 0
0
Q
2 ( yi b0 b1 xi ) xi 0
b1
nb0 b1 xi yi
2
b
x
b
x
0 i 1 i xi yi
b0 b1 x y
2
b0 x b1 x xy
28

29. Оценки метода наименьших квадратов

Решив последнюю систему уравнений, получим:
b1
xy x y
x x
2
2
Co~v ( x, y )
Var( y )
rxy
Var( x )
Var( x )
b0 y b1 x
29

30. Матричная форма записи

1 x1
1 x2
X
... ...
1 xn
y1
y2
Y
...
yn
b0
B
b1
e Y XB
МНК эквивалентен ортогональности матрицы Х и вектора е:
X e 0
T
X (Y XB) 0 B ( XT X ) 1 XT Y
T
30

31. Выводы

1.
Оценки МНК являются функциями от выборки,
что позволяет их легко рассчитать.
2.
Оценки МНК являются точечными оценками
теоретических коэффициентов регрессии.
3.
Эмпирическая прямая регрессии обязательно
проходит через точку ( x, y ).
31

32. Выводы

4.
Эмпирическое уравнение регрессии
построено так, что ei 0, e 0.
5.
Случайные отклонения ei не
коррелированы с наблюдаемыми
значениями yi зависимой переменной Y.
6.
Случайные отклонения ei не
коррелированы с наблюдаемыми
значениями xi независимой переменной X.
32

33. Другие методы определения коэффициентов регрессии

Другие методы определения коэффициентов
регрессии:
метод наименьших модулей (МНМ),
метод моментов (ММ),
метод максимального правдоподобия (ММП).
33

34. Пример (A) построения уравнения регрессии

При анализе зависимости объема потребления Y (у.е.)
домохозяйства от располагаемого дохода X (у.е.) отобрана
выборка объема n = 12 (помесячно в течение года),
результаты которой приведены в таблице:
34

35. Пример (A) построения уравнения регрессии

Для определения вида зависимости построим
корреляционное поле:
35

36. Пример (A) построения уравнения регрессии

По расположению точек на корреляционном поле
делаем предположение о линейной зависимости:
Y b0 b1 X .
Согласно МНК, имеем:
b1
xy x y
x x
2
2
15298,08 125,25 120,67 184,583
0,9361
2
15884,75 (125,25)
197,188
b0 y b1 x 120,67 0,9361 125,25 3,423
36

37. Пример (A) построения уравнения регрессии

Т.о., уравнение парной линейной регрессии имеет вид:
Y 3,423 0,9361X
Изобразим данную прямую регрессии на корреляционном
поле. По этому уравнению рассчитаем y i , а также ei yi y i .
Для анализа степени линейной зависимости вычислим:
rxy
xy x y
x x
2
2
y y
2
2
184,1625
0,9914
14,04 13,23
Отсюда можно сделать вывод о сильной прямой линейной
зависимости между переменными.
37

38. Пример (A). Таблица расчетов по МНК

38

39.

Конец лекции
39
English     Русский Правила