Лекція 11
Регресійний аналіз
Регресія
Відтворення функції регресії
Початкові умови регресійного аналізу
Ідентифікація регресії
Кореляційні поля
Лінійний регресійний аналіз
Довірче оцінювання емпіричної лінії регресії
Нелінійний регресійний аналіз
Метод найменших квадратів
Метод найменших квадратів
Ортогональні поліноми Чебишева
Ортогональні поліноми Чебишева
Зведення нелінійний залежностей до лінійних
Зведення нелінійний залежностей до лінійних
Підбір оптимальної лінії регресії
Множинний аналіз
Множинна кореляція
Множинна кореляція
Багатовимірний регресійний аналіз
Багатовимірний регресійний аналіз
Висновки
295.00K

Аналіз вимірювання ПЗ. Регресійний аналіз. (Лекція 11)

1. Лекція 11

Аналіз вимірювання ПЗ:
регресійний аналіз

2.

1. Лінійний та нелінійний регресійний аналіз.
2. Побудова лінії регресії.
3. Багатомірний регресійний аналіз.

3. Регресійний аналіз

• Найпростішою
формою
оцінки
стохастичного зв'язку є одновимірний
регресійний аналіз, за яким формуються
обчислювальні процедури відтворення лінії
регресії.
• Припускається,
що
дві
нормально
розподілені випадкові величини η та ξ
пов'язані між собою лінійною регресійною
залежністю
• де ε - похибка, яка має нормальний розподіл

4. Регресія

• Регресією називають таку криву, вздовж
якої розсіювання результатів
спостереження мінімальне.
• Лінійну регресію визначають записом у
формі
y ( x) a bx

5. Відтворення функції регресії

• ідентифікації вигляду регресійної
залежності;
• вибору типу функції регресії y ( x) ( x; ) ;
• оцінювання нелінійних регресійних
залежностей, якщо вони мають місце;
• оцінювання точності оцінок параметрів ;
• перевірки адекватності відтворення
регресійної залежності.

6. Початкові умови регресійного аналізу

• Сумісний розподіл випадкових величин η, ξ має
бути нормальним.
• Дисперсія залежної змінної у залишається
постійною при зміні значення аргументу х, отже,
• Підсумки спостережень xі, yі — стохастично
незалежні, отже, результати, одержані на і -му
кроці експерименту, не пов’язані з попереднім (і 1) -м кроком і не містять інформації для (і + 1) - го
кроку.
• Якщо обсяг вибірок досить великий, припускається
порушення першої умови.

7. Ідентифікація регресії

• Метою процедури ідентифікації вигляду регресії є:
– виявлення наявності зв'язку між X та Y;
– якщо зв'язок виявлено, проведення класифікації на
лінійність або нелінійність як відносно змінних X та Y, так і
відносно вектора параметрів .
• Процедура ідентифікації зумовлює реалізацію як
візуальної схеми, так і кількісної оцінки зв'язку. При
візуалізації оцінюються початкові масиви, які
відображаються на у вигляді кореляційного поля.

8. Кореляційні поля

9. Лінійний регресійний аналіз

• Лінійний зв’язок визначається

10. Довірче оцінювання емпіричної лінії регресії

• 1. Обчислення коефіцієнта детермінації R2.
• 2. Побудова довірчого інтервалу для лінії регресії
(x)=a+b(x- x ) з урахуванням її оцінки yˆ ( x) aˆ bˆ( x x ) .
• 3. Оцінка відхилень окремих значень y j = i 1, n
залежної змінної від емпіричної регресії yˆ ( xi ) .
• 4. Дослідження значущості і точності оцінок
параметрів aˆ , bˆ .

11. Нелінійний регресійний аналіз

• У процесі ідентифікації кореляційного поля
виявляється, що у багатьох випадках треба
відтворювати нелінійну регресійну залежність.
При цьому підбір кривої може бути здійснено на
підставі:
• поліноміальної регресії другого
2
y
(
x
)
a
bx
cx
або більш високого порядку
y ( x) a0 a1 x a2 x 2 ... ak x k
, k ≥ 3;
• нелінійних залежностей як відносно параметрів,
так і відноcно аргументів лінії регресії.

12. Метод найменших квадратів

• Використовується
для
параболічної регресії
• Де
• МНК:
, де

відтворення
і cˆ отримують з

13. Метод найменших квадратів

• Після розв’язку системи отримуємо

14. Ортогональні поліноми Чебишева

• Найпростіша обчислювальна схема відтворення
поліноми регресії основана на ортогональних
поліномах Чебишева
• З умови
• знаходять оцінки параметрів:

15. Ортогональні поліноми Чебишева

Підвищуючи ступінь полінома, для кожної
приєднаної функції φк(х) обчислюють коефіцієнт
регресії, зберігаючи одержані раніше параметри.
Оцінку якості відхилення емпіричної регресії (х) від
теоретичної оцінюють на підставі статистичної
характеристики
чим вище порядок регресійної кривої, тим більшим
є розбіг довірчих меж при віддаленні від
середнього

16. Зведення нелінійний залежностей до лінійних

• Умовно всі квазілінійні регресійні
залежності поділено на чотири групи:


До першої групи віднесені залежності з двома
невідомими параметрами, які приводяться до
лінійного вигляду після відповідного перетворення
координат без додаткових обчислень.
До другої групи віднесено залежності з трьома
невідомими параметрами. Параметр у них
визначається за формулою

17. Зведення нелінійний залежностей до лінійних

– До третьої групи віднесені теоретичні залежності, які після
першого перетворення координат приводяться до вигляду
параболічної регресії. Тоді параметри визначаються за
вищенаведеними процедурами.
– До четвертої групи відносяться теоретичні залежності, які
після перетворення приводяться до лінійного рівняння з
трьома невідомими параметрами.
• Подальший аналіз проводять для перетвореної в
лінійну форму залежності, після чого, при
необхідності, виконують зворотне перетворення.

18. Підбір оптимальної лінії регресії

• Задача в загальному випадку зводиться до
побудови декількох ліній регресії та
порівнянні оптимальних значень регресій з
фактичними.
• Вибирається лінія регресії, у якої відхилення
фактичних значень найменше

19. Множинний аналіз

• Множинна кореляція
• Множинний регресійний аналіз

20. Множинна кореляція

• Множинний коефіцієнт кореляції rx x ,..., x , x ,..., x
є мірою лінійної залежності між змінною Xi та
набором Х1, ..., Xi-1, Хі+1, ..., Хk, причому
0 < rx x ,..., x , x ,..., x < 1
• Якщо rx x ,..., x , x ,..., x = 0,
• то говорять про відсутність залежності Хі від
інших змінних з множини X.
i
i
i
1
i 1
1
i 1
i 1
k
i 1
k
1
i 1
i 1
k

21. Множинна кореляція

• У випадку, коли rx x ,..., x , x ,..., x = 1
• має місце лінійна залежність, при якій
змінна Xt визначається лінійною комбінацією
змінних Х1, ..., Xi-1, Хі+1, ..., Хk:
• Xi = β0 + β1 X1 + βi-1 Xi-1 + βi+1 Xi+1 + ...+ βk Xk.
• Квадрат коефіцієнта множинної кореляції
r 2 x x ,..., x , x ,..., x оцінює частку дисперсії X , яка
і
пояснюється лінійною регресією Х1, ..., Xi-1,
Хі+1, ..., Хk.
i
i
1
i 1
i 1
k
1
i 1
i 1
k

22. Багатовимірний регресійний аналіз

• Багатовимірний статистичний аналіз
визначає причинно-наслідкові зв’язки
об’єкта дослідження і його показників
(вхідних та вихідних характеристик)

23. Багатовимірний регресійний аналіз

• Задачею регресійного аналізу є дослідження
зв’язку між залежними та незалежними
величинами
• Для вирішення поставленої задачі
початковий масив даних переформуються у
матриці спостережень

24. Висновки

• Задачею регресійного аналізу є виявлення
виду закономірностей у залежностях між
метриками програмного забезпечення
English     Русский Правила