Метод найменших квадратів. (Тема 4) презентация

План 4.1. Суть методу найменших квадратів (МНК). 4.2. Передумови застосування МНК. 4.3. Система нормальних рівнянь.

Слайд 1Метод найменших квадратів
Лектор: к.е.н., доц., доцент кафедри вищої математики, економетрії і

статистики ДЕМЧИШИН М.Я.

Тема 4


Слайд 2План
4.1. Суть методу найменших квадратів (МНК).
4.2. Передумови застосування МНК.
4.3. Система нормальних

рівнянь.

Слайд 34.1. Суть методу найменших квадратів

Рис. 4.1. Способи знаходження прямих регресії


Слайд 4

Рис. 4.2. Геометрична інтерпретація методу найменших квадратів


Слайд 5Суть методу найменших квадратів (МНК)
полягає у знаходженні такої теоретичної лінії регресії,

яка в порівнянні з іншими проходить найближче до емпіричної лінії регресії,
тобто дає
найменшу суму квадратів відхилень фактичних значень результативної ознаки від розрахункових (теоретичних) значень

Слайд 6





де y – емпіричні (вихідні) дані показника
ỹ– теоретичні (розраховані за

рівнянням регресії)



Слайд 74.2. Передумови застосування МНК
1) Існує лінійний зв’язок між результуючою змінною у

та факторною змінною x, який описується рівняннями регресії





Слайд 82) Факторна змінна x є детерміністичною (невипадковою) величиною.
3) Математичне сподівання (середнє

значення) випадкового вектора дорівнює нулю, а дисперсія є невеликою постійною додатньою величиною, яка не залежить від індексу i, тобто
.
4) Компоненти вектора є некорельованими випадковими величинами, тобто для кожного
.
5) Часто вважають, що випадкова величина має нормальний закон розподілу з рівним нулю математичним сподіванням і постійною додатньою невеликою дисперсією

У даному випадку модель називається класичною нормальною лінійною регресійною моделлю.
Зауваження. У випадку класичної нормальної лінійної регресійної моделі умова 4 еквівалентна умові статистичної незалежності помилок .






,



Слайд 94.3. Система нормальних рівнянь
Будемо вважати, що зв’язок між ознаками х та

у є лінійним і описується лінійним рівнянням регресії

(4.3)
де у – результуюча змінна; b0, b1– параметри рівняння ре­гресії; х – факторна змінна; ε– випадкова величина.


Слайд 10У загальному випадку nарна лінійна регресія є лінійною функцією мiж залежною

змінною У i однiєю пояснюючою змінною Х:




Це спiввiдношення називається теоретичною лінійною регресiйною моделлю
b0 i b1 - теоретичні параметри
(теоретичні коефіцієнти) peгpeciї.


Слайд 12


метод найменших модулів (МНМ).
метод найменших квадратів (МНК).


Слайд 13y
x
x1
.
.
.
.
u1{

.
.
.
xi
ui
0
.
.
.
.
.
.

u2{


Слайд 14
Необхідною умовою існування мінімуму неперервно диференційованої функції двох змінних є рівність

нулю її частинних похідних.

Так як



Слайд 16Система нормальних рівнянь



Слайд 17

Позначимо:




Слайд 18

одержимо

звідки маємо


Слайд 19Неважко помітити, що можна обчислити
за формулою:



-вибірковий

кореляційний
момент випадкових
величин X і Y;


Слайд 20
вибіркова дисперсія X
—стандартне відхилення X.


—вибірковий коефіцієнт кореляції;


—стандартне відхилення Y.


Слайд 21
Коефіцієнт кореляції


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика