Многомерная линейная регрессия
Линейная зависимость от нескольких переменных.
Пример 10-4 на многомерный МНК- потребление –производство –градус-дней
183.00K
Категория: МатематикаМатематика

Многомерная линейная регрессия

1. Многомерная линейная регрессия

Тема 10-1
Многомерная линейная
регрессия
Рябева Е.В.
2015

2.

y 0 1 x1 2 x2

3. Линейная зависимость от нескольких переменных.

yi xi1 1 xi2 2 ... xir r i
n-число проведенных экспериментов,
Параметров может быть несколько: 1, 2,…, r. r-число
параметров в общем случае может быть произвольно
xi – известные величины (факторы), определяющие i-тый номер эксперим
Имеем линейную зависимость y от параметров θ
1
y1
; y ;
y
r
n
T
Перейдем к
матричной форме
написания
уравнения. Введем
обозначения
1
n

4.

• Запишем систему линейных уравнений
в матричном виде

5.

Для случая двух параметров система выглядела таким образом
y1 ax1 b 1
y 2 ax2 b
2
...................
y n axn b n
1
2
...
n
y X
y1
y
2
y
...
yn
b
a
1
1
X
..
1
T
x1
x2
..
xn

6.

Для случая r параметров система
y1 x11 1 x12 2 ... x1r r 1
y2 x21 1 x22 2 ... x2 r r 2
..................................................
yn xn1 1 xn 2 2 ... xnr r n
1
2
...
n
y X
y1
y
y 2
...
yn
1
...
r
x11
X
x
n1
T
x1r
xnr

7.

y X 0
Эту систему уравнений надо решить относительно , используя
метод максимального правдоподобия и тот факт, что погрешности
измерений yi с дисперсиями i подчиняются нормальному
распределению, т.е.:
2
2
( yi i )
i
1
1
f ( yi )
exp
exp 2
2
2 i
2 i
2 i
i

8.

Функция правдоподобия для n измерений имеет вид:
2
n
1
1
i
L f ( yi ) (2 ) ( i ) exp 2
i 1
i 1
2 i 1 i
n
n
2
n
Логарифмическая функция правдоподобия
2
n
n
1
n
l ln L ln 2 ln i 1 i2
2
i 1
2 i 1 i
Это выражение достигает максимума, когда последнее слагаемое будет
минимально.Условие МНК
T
( yi xi )2
Q
min
2
i
i 1
i 1
n
2
i
2
i
n
Как записать i, используя введённые матричные обозначения
T
y x 0 y x i yi xi
Введём вектор-столбец
xi ( xi1 , xi2 ...xir )

9.

матрица ошибок.
12
2
0 2
C y Cε
0
0
n2
Обратная ей матрица называется весовой:
gi
1
i2
g1
G y = Gε
0
1
0 12
gn
0
0
1
n2
С учётом введённых обозначений для Gy можно переписать
T
i2
Q 2 G y min
i 1 i
n
или
Q ( y X ) Gy ( y X ) min
T

10.

Для получения min необходимо образовать частные производные Q по
i и приравнять их к 0.
T
xT
Q
0 ; i=1...r
i
T
T
T
Q
T
Gy
G y x G y G y x x T G y x T G y 2x T G y
2x TG y ( y x ) 0
x T G y y x T G y x
Для получения искомой оценки параметра
необходимо подействовать оператором
(x Gy x) x Gy y
T
-1
T
T
(x Gy x)
-1
Оценка параметров θ МНК
линейный случай

11.

Оценка дисперсии оценок параметров
Дисперсия элементов вектора оценок (ковариационная
матрица оценок параметров) то же может быть записана в
векторном виде
var( ) C y 2 (X T X) -1
Дисперсию y можно оценить как и двухмерном случае суммой квадратов
отклонений от выровненной (рассчитанной) поверхности
n
r
1
S
( yi ( xij j ))
n r 1 i 1
j 1
2
y
2
2
y
диагональные
элементы этой
матрицы- дисперсии
оценок
S i C i,i
2

12.

случайная величина
2
Sy
а величины
i
S i
2
y
n2 r 1
tn r 1
могут быть использованы для проверки гипотезы о значимости
(отличие от 0 ) θ

13. Пример 10-4 на многомерный МНК- потребление –производство –градус-дней

Пример 10-4
на многомерный МНКпотребление –производство –
градус-дней

14.

15.

16.

( x Gy x) x Gy y
T
1 T
Рассмотрим применение этой оценка к простым случаям
Случай простой линейной регрессии
Зависимость от двух параметров θ0 и θ1 и одной переменной х
y= θ0 + θ1x
Пусть произвели только 2 измерения
y1 x11 1 0
y2 x12 1 0
Можно представить задание в матричной форме:
x11
x
x12
1
1
y1
( 0 , 1 )
y
y2 Решение для
простой линейной
регрессии в
матричном виде
x10 1
x20 1
x x xT y
T
1

17.

Оценить для прямых неравноточных измерений.
В этом случае: yi = + i i = 1,…n.
( x Gy x) x Gy y
1 T
T
; x0 0 ;
1
1
x
1
g1
Gy
gn
gi
1
i2
1
y1
1 n
n
g
g
1
1
1
1,1...1
1,1...1
gi g i yi
gn
g n i 1 i 1
yn
1
English     Русский Правила