Многомерный регрессионный анализ. Использование для решения задачи однооткликового метода наименьших квадратов презентация

Содержание

4. Многомерный регрессионный анализ Общая (теоретическая) последовательность решения для получения коэффициентов и оценки точности для множественной 1-откликовой регрессии – сведения процесса поиска коэффициентов к задаче поиска экстремума целевой функции (функции качества).

Слайд 14. Многомерный регрессионный анализ
Использование для решения задачи однооткликового метода наименьших квадратов:
В

моделях - объясняющих переменных xi несколько, результирующая переменная (отклик) y, одна – множественная (многофакторная) регрессия (с 1-откликом).
Общий вид

Линейная форма (модель)

Неизвестных v и ai больше числа уравнений – надо дополнительная информация, например на поправки v.
Требование: найти такие ai чтобы Ф = [v2] = vTv была минимальной для всех наборов ai – метод наименьших квадратов (МНК)

1








Слайд 24. Многомерный регрессионный анализ
Общая (теоретическая) последовательность решения для получения коэффициентов и

оценки точности для множественной 1-откликовой регрессии – сведения процесса поиска коэффициентов к задаче поиска экстремума целевой функции (функции качества).
Алгебраический и матричный подход. Шаги:
1. Из линейной модели

выражаем поправки v


2








Слайд 34. Многомерный регрессионный анализ
2. Запишем целевую функцию Ф

которую надо минимизировать

в точке ai
3. От функции Ф возьмем производные по а1, а2 , …,аk и полученные выражения приравняем к нулю






3










Слайд 44. Многомерный регрессионный анализ
4. Систему делим на 2, раскрываем сумму с

группировкой и имеем




совместную систему нормальных уравнений (?). Размер
по числу определяемых коэффициентов ai. Решение – необходимые коэффициенты ai.
Алгебраический вид: не совсем удобен для выводов, может быть удобен для анализа.

4











Слайд 54. Многомерный регрессионный анализ
Минимизация целевой функции в матричном виде по шагам:
1.

Линейная модель в матричном виде

система уравнений поправок с матрицей плана Х и вектором свободных членов у


,

5









Слайд 64. Многомерный регрессионный анализ
Условие МНК – Ф = vTv = [v2]

=min,
Минимизация в матричном виде сразу по всему вектору а


Откуда лемма Гаусса


Подставив вид v - совместная система нормальных уравнений

6







Слайд 74. Многомерный регрессионный анализ
Из вида уравнений поправок


левая трансформация Гаусса




та же

совместная система нормальных уравнений. Решение – через обратную матрицу


7







Слайд 84. Многомерный регрессионный анализ
Практическая реализация по шагам:
Составляется модель (например линейная многофакторная

с 1-откликом)


2. Строится матрица плана Х их коэффициентов при определяемых величинах в модели и вектор свободных членов из элементов моделируемого ряда у





8







Слайд 94. Многомерный регрессионный анализ
3. Для системы нормальных уравнений
строится матрица нормальных уравнений

N и вектор свободных членов системы нормальных уравнений b


4. Решаем систему с полученными матрицами методом обращения

5. Модельные значения

Шаги универсальны для любых моделей линейного (полиномиального) или линеаризованного вида.

9







Слайд 104. Многомерный регрессионный анализ
Графическая трактовка метода наименьших квадратов
Модель в векторах -

. Тогда имеем
Гиперплоскость – матрица плана Х, вектор моделируемых величин - у



10






Разложение у на ортогональные составляющие




Слайд 114. Многомерный регрессионный анализ
Оценка точности: модель, коэффициенты модели ai, смоделированные величины

и поправки v. Основа – формула погрешности Бесселя и теорема переноса ошибок.
для оценки модели надо и тогда по Бесселю



Вычисления поправок v


и целевой функции Ф

11








Слайд 124. Многомерный регрессионный анализ
- для оценки точности вектора коэффициентов регрессии а:
Выражаем

коэффициенты линейно через измерения у с известной ковариационной матрицей Ку
a = (Q·XT)·y
По теореме переноса ошибок


Окончательно


так как у – вектор, и
Эта оценка через ковариационную матрицу. Извлечь корень.

12









Слайд 134. Многомерный регрессионный анализ
Оценка через матрицу обратных весов Q (матрицу кофакторов)


Оценка

смоделированных значений . Линейное выражение

По теореме переноса ошибок


13







Оценка через матрицу обратных весов Q (матрицу кофакторов


Слайд 143. Многомерный регрессионный анализ
Использование для решения задачи многооткликовой регрессии метода наименьших

квадратов
Основные виды:
Матричный метод наименьших квадратов
Метод «растяжения».
Основная модель для обоих методов: из k рядов k1 –факторные X, k2 - отклик Y

14




Слайд 153. Многомерный регрессионный анализ


15






k2
n
Y
=
X
k1
n
×
k1
k2
A
D
+
n
k2
Линейная модель с размерами
Более удобная линейная

модель с размерами




k2

n

Y

=

X

k1

n

×

k1

k2

A



1

d

d

или с расширенными матрицами


Слайд 163. Многомерный регрессионный анализ


16


Не дает естественную алгебраическую запись- транспонирование
Реальная

модель с матрицей поправок V




k2

n

YT

=

XT

k1

n

×

k1

k2

AT



1

d

или с расширенными матрицами

Решается под матричным условием МНК с


Слайд 173. Многомерный регрессионный анализ
Минимизация целевой функции Ф с



совместная система нормальных уравнений через правую трансформацию Гаусса (домножение на Х')

М⋅ N = b.
Решение через обращение

,

17




Слайд 183. Многомерный регрессионный анализ
Оценка точности производится по обычной схеме:
– погрешность модели



п0 – число всех измерений, k – число необходимых измерений. Матричная операции vec(X), для растягивания по столбцам матрицы Х в вектор-столбец чтобы получить вектор поправок v из матрицы поправок V

Квадратичную форму Ф = vTv, можно определить на основе известной формулы

18








Слайд 193. Многомерный регрессионный анализ
– погрешности определения коэффициентов через ковариационную матрицу


где

матрица кофакторов оцененных параметров определена как


Здесь Е – единичная матрица размера (k2 + 1)×(k2 + 1), ⊗ - символ произведения Кронекера.
Упрощения из-за дублирования – вычисляют 1 блок, все остальные эквивалентны.

19








Слайд 203. Многомерный регрессионный анализ
Метод растяжения
Основная матричная модель




С расширенными матрицами


Переписывается так, чтобы

матрица неизвестных А стала вектором неизвестных а. модификация X и Y-сведение к обычному векторному МНК с стандартной схемой и оценкой точности.

20










k2

n

Y

=

X

k1

n

×

k1

k2

A



1

d


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика