Метод найменших квадратів
План
4.1. Суть методу найменших квадратів
Суть методу найменших квадратів (МНК)
4.2. Передумови застосування МНК
4.3. Система нормальних рівнянь
Система нормальних рівнянь
335.50K

Метод найменших квадратів. (Тема 4)

1. Метод найменших квадратів

Тема 4
Метод найменших
квадратів
Лектор: к.е.н., доц., доцент кафедри вищої математики,
економетрії і статистики ДЕМЧИШИН М.Я.
1

2. План

4.1. Суть методу найменших квадратів (МНК).
4.2. Передумови застосування МНК.
4.3. Система нормальних рівнянь.
2

3. 4.1. Суть методу найменших квадратів

y
0
y
x
0
y
x
0
x
Рис. 4.1. Способи знаходження прямих регресії
3

4.

y
0
x
Рис. 4.2. Геометрична інтерпретація методу найменших квадратів
4

5. Суть методу найменших квадратів (МНК)

полягає у знаходженні такої теоретичної лінії
регресії, яка в порівнянні з іншими проходить
найближче до емпіричної лінії регресії,
тобто дає
найменшу суму квадратів відхилень
фактичних значень результативної ознаки від
розрахункових (теоретичних) значень
5

6.

n
2
~
y
y
min
i i
i 1
• де y – емпіричні (вихідні) дані показника
• ỹ– теоретичні (розраховані за рівнянням
регресії)
6

7. 4.2. Передумови застосування МНК

1) Існує лінійний зв’язок між
результуючою змінною у та факторною
змінною x, який описується рівняннями
регресії
y 0 1x
~
y b0 b1 x
7

8.

i j
,
2) Факторна змінна x є детерміністичною (невипадковою) величиною.
3) Математичне сподівання (середнє значення) випадкового вектора дорівнює
нулю, а дисперсія є невеликою постійною додатньою величиною, яка не
залежить від індексу i, тобто
.
E 0
2
2 величинами, тобто для
4) Компоненти вектора є некорельованими
випадковими
D
E
i
i
кожного i
.
i, j 1,2,..., n
5) Часто вважають, що випадкова величина має нормальний закон розподілу з
рівним нулю математичним
і постійною додатньою невеликою
cov i , j сподіванням
0
дисперсією
У даному випадку модель називається класичною нормальною лінійною регресійною
моделлю.
2
•Зауваження. У випадку класичної нормальної лінійної регресійної моделі умова 4
еквівалентна умові статистичної незалежності помилок .
~ N 0,

9. 4.3. Система нормальних рівнянь

Будемо вважати, що зв’язок між ознаками х та
у є лінійним і описується лінійним рівнянням
регресії
y b0 b1 x
(4.3)
де у – результуюча змінна; b0, b1– параметри
рівняння регресії; х – факторна змінна; ε–
випадкова величина.
9

10.

У загальному випадку nарна лінійна регресія є
лінійною функцією мiж залежною змінною У i
однiєю пояснюючою змінною Х:
y b0 b1 x
Це спiввiдношення називається теоретичною
лінійною регресiйною моделлю
b0 i b1 - теоретичні параметри
(теоретичні коефіцієнти) peгpeciї.
10

11.

x1
x2
x3
. . . xn-1
xn
y1
y2
y3
...
yn-1
yn
11

12.

n
n
n
i 1
i 1
i 1
ui ( yi yi ) ( yi b0 b1xi )
n
n
u y
i 1
n
ui
i 1
2
i
i 1
n
n
i
yˆ i yi aˆ0 aˆ1 xi
метод найменших
модулів (МНМ).
i 1
n
( yi yˆi ) ( yi b0 b1 xi )
i 1
2
i 1
2
~
Q y y min
2
метод найменших
квадратів (МНК).
12

13.

y
.
u{
1
u2{ .
.
..
.
.
.
.
.
. u. .
i
0
x1
xi
x
13

14.

n
n
n
i 1
i 1
2
2
ˆ
u
Q
(
b
,
b
)
(
y
y
)
(
y
b
b
x
)
i
i i i 0 1 i min
0 1
2
i 1
Необхідною умовою існування мінімуму неперервно
диференційованої функції двох змінних є рівність нулю її
частинних похідних.
Так як
y
x;
b1
y
xi ;
b1 i
y
1;
b0
y
1;
b0 i
14

15.

n
Q
b 2 yi b1 xi b0 xi 0
i 1
1
n
Q
2 yi b1 xi b0 0
b0
i 1
n
n
n 2
b1 xi b0 xi xi yi ;
i 1
i 1
i 1
n
n
b x b n y
1
i
0
i
i 1
i 1
15

16. Система нормальних рівнянь

b0 n b1 x y
2
b0 x b1 x xy
16

17.

n
n
n 2
xi xi yi ;
xi
b0 i 1 i 1
b1 i 1
n
n
n
n
n
x
yi ;
i
i 1
i 1
b
b
0
1 n
n n
Позначимо:
xi
x
n
x2
xi
i 1
n
n
y
i 1
n
y
i 1
i
n
n
2
xy
x y
i
i 1
i
n
17

18.

одержимо
b x 2 b x xy
1
0
b1x b0 y
звідки маємо
xy x y
b1 2
2
x x
b y b x
0
1
18

19.

Неважко помітити, що
за формулою:
b1
можна обчислити
n
b1
( xi x )( yi y )
i 1
n
( xi x )
2
S xy
S x2
i 1
S xy
1 n
cov( x, y ) ( xi x )( y i y ) -вибірковий кореляційний
n i 1
момент випадкових
величин X і Y;
19

20.

n
n
1
1
2
2
2
S x ( xi x ) xi x 2 x 2 x 2
n i 1
n i 1
вибіркова дисперсія X
S x S x2
aˆ1
S xy
S
2
x
—стандартне відхилення X.
S xy
Sy
Sx S y Sx
rxy
Sy
Sx
rxy
—вибірковий коефіцієнт кореляції;
Sy
—стандартне відхилення Y.
20

21.

Коефіцієнт кореляції
rxy
S xy
Sx S y
xy x y
x x y y
2
2
2
2
0 rxy 1
21
English     Русский Правила