🗊Презентация Метод наименьших квадратов

Категория: Математика
Нажмите для полного просмотра!
Метод наименьших квадратов, слайд №1Метод наименьших квадратов, слайд №2Метод наименьших квадратов, слайд №3Метод наименьших квадратов, слайд №4Метод наименьших квадратов, слайд №5Метод наименьших квадратов, слайд №6Метод наименьших квадратов, слайд №7Метод наименьших квадратов, слайд №8Метод наименьших квадратов, слайд №9Метод наименьших квадратов, слайд №10Метод наименьших квадратов, слайд №11Метод наименьших квадратов, слайд №12Метод наименьших квадратов, слайд №13Метод наименьших квадратов, слайд №14Метод наименьших квадратов, слайд №15Метод наименьших квадратов, слайд №16Метод наименьших квадратов, слайд №17Метод наименьших квадратов, слайд №18Метод наименьших квадратов, слайд №19Метод наименьших квадратов, слайд №20Метод наименьших квадратов, слайд №21Метод наименьших квадратов, слайд №22Метод наименьших квадратов, слайд №23Метод наименьших квадратов, слайд №24Метод наименьших квадратов, слайд №25Метод наименьших квадратов, слайд №26Метод наименьших квадратов, слайд №27Метод наименьших квадратов, слайд №28Метод наименьших квадратов, слайд №29Метод наименьших квадратов, слайд №30Метод наименьших квадратов, слайд №31Метод наименьших квадратов, слайд №32Метод наименьших квадратов, слайд №33Метод наименьших квадратов, слайд №34Метод наименьших квадратов, слайд №35Метод наименьших квадратов, слайд №36Метод наименьших квадратов, слайд №37Метод наименьших квадратов, слайд №38Метод наименьших квадратов, слайд №39Метод наименьших квадратов, слайд №40Метод наименьших квадратов, слайд №41Метод наименьших квадратов, слайд №42Метод наименьших квадратов, слайд №43Метод наименьших квадратов, слайд №44Метод наименьших квадратов, слайд №45Метод наименьших квадратов, слайд №46Метод наименьших квадратов, слайд №47

Содержание

Вы можете ознакомиться и скачать презентацию на тему Метод наименьших квадратов. Доклад-сообщение содержит 47 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





МЕТОД НАИМЕНЬШИХ КВАДРАТОВ
Описание слайда:
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ

Слайд 2





Истинная модель  парной линейной регрессии   Y = а + b*X + e.
Истинная модель  парной линейной регрессии   Y = а + b*X + e.
Для ее оценки используется выборка:
(Y1, X1)
………
(Yn, Xn)
Получается выборочное уравнение регрессии
Описание слайда:
Истинная модель парной линейной регрессии Y = а + b*X + e. Истинная модель парной линейной регрессии Y = а + b*X + e. Для ее оценки используется выборка: (Y1, X1) ……… (Yn, Xn) Получается выборочное уравнение регрессии

Слайд 3





Для элемента (Yi, Xi) выборки, i = 1, …, n, можно записать:
Для элемента (Yi, Xi) выборки, i = 1, …, n, можно записать:
Описание слайда:
Для элемента (Yi, Xi) выборки, i = 1, …, n, можно записать: Для элемента (Yi, Xi) выборки, i = 1, …, n, можно записать:

Слайд 4





Как оцениваются по выборке коэффициенты регрессии?
Описание слайда:
Как оцениваются по выборке коэффициенты регрессии?

Слайд 5





Выборка (Yi, Xi), по которой мы должны оценить теоретическую модель 
Выборка (Yi, Xi), по которой мы должны оценить теоретическую модель 
Y = a + b*X + e,
графически представляется в виде «облачка» точек:
Описание слайда:
Выборка (Yi, Xi), по которой мы должны оценить теоретическую модель Выборка (Yi, Xi), по которой мы должны оценить теоретическую модель Y = a + b*X + e, графически представляется в виде «облачка» точек:

Слайд 6


Метод наименьших квадратов, слайд №6
Описание слайда:

Слайд 7





По этим точкам мы хотим получить такое выборочное уравнение 
По этим точкам мы хотим получить такое выборочное уравнение 
                                                    
(т. е. оценки a и b), которое как можно точнее представляло бы истинную линию регрессии
Описание слайда:
По этим точкам мы хотим получить такое выборочное уравнение По этим точкам мы хотим получить такое выборочное уравнение (т. е. оценки a и b), которое как можно точнее представляло бы истинную линию регрессии

Слайд 8





Интуиция подсказывает:
Чем лучше оцененная прямая регрессии представляет выборку, тем точнее она приближает истинную прямую регрессии.
Описание слайда:
Интуиция подсказывает: Чем лучше оцененная прямая регрессии представляет выборку, тем точнее она приближает истинную прямую регрессии.

Слайд 9


Метод наименьших квадратов, слайд №9
Описание слайда:

Слайд 10





Если выборка состоит только из двух точек, то проблем нет:
Описание слайда:
Если выборка состоит только из двух точек, то проблем нет:

Слайд 11





Если точек больше двух:
Описание слайда:
Если точек больше двух:

Слайд 12


Метод наименьших квадратов, слайд №12
Описание слайда:

Слайд 13


Метод наименьших квадратов, слайд №13
Описание слайда:

Слайд 14





Принцип метода наименьших квадратов
Для данной выборки (X1, Y1), …, (Xn, Yn) параметры  a и   b   рассчитываются таким образом, чтобы получить минимальное значение суммы квадратов остатков:
                           min
Описание слайда:
Принцип метода наименьших квадратов Для данной выборки (X1, Y1), …, (Xn, Yn) параметры a и b рассчитываются таким образом, чтобы получить минимальное значение суммы квадратов остатков: min

Слайд 15





Или 
Или
Описание слайда:
Или Или

Слайд 16





Решаем систему уравнений:
 
 
Описание слайда:
Решаем систему уравнений:    

Слайд 17





После преобразований получаем систему нормальных уравнений для коэффициентов регрессии
Описание слайда:
После преобразований получаем систему нормальных уравнений для коэффициентов регрессии

Слайд 18


Метод наименьших квадратов, слайд №18
Описание слайда:

Слайд 19





Решение уравнения регрессии в Excel
Описание слайда:
Решение уравнения регрессии в Excel

Слайд 20





Решение уравнения регрессии в Excel
Описание слайда:
Решение уравнения регрессии в Excel

Слайд 21





Коэффициент детерминации показывает, насколько хорошо в выборке изменения Y объяснены изменениями Х. Т. е., насколько хорошо выборочная модель регрессии объясняет поведение Y в выборке.
Коэффициент детерминации показывает, насколько хорошо в выборке изменения Y объяснены изменениями Х. Т. е., насколько хорошо выборочная модель регрессии объясняет поведение Y в выборке.
Изменения фактора Y измеряются его дисперсией 2(Y).
Описание слайда:
Коэффициент детерминации показывает, насколько хорошо в выборке изменения Y объяснены изменениями Х. Т. е., насколько хорошо выборочная модель регрессии объясняет поведение Y в выборке. Коэффициент детерминации показывает, насколько хорошо в выборке изменения Y объяснены изменениями Х. Т. е., насколько хорошо выборочная модель регрессии объясняет поведение Y в выборке. Изменения фактора Y измеряются его дисперсией 2(Y).

Слайд 22





Коэффициент детерминации:
 
- часть дисперсии Y, объясненная уравнением регрессии, т. е. изменениями в выборке фактора Х.
Описание слайда:
Коэффициент детерминации: - часть дисперсии Y, объясненная уравнением регрессии, т. е. изменениями в выборке фактора Х.

Слайд 23





Еще одно дополнение к R2
Мы знаем, что 0 ≤ R2 ≤ 1.
Однако, если модель регрессии не имеет свободного члена, например,     Y = b*x + e, то возможны отрицательные значения R2.
Это также недостаток R2.
Описание слайда:
Еще одно дополнение к R2 Мы знаем, что 0 ≤ R2 ≤ 1. Однако, если модель регрессии не имеет свободного члена, например, Y = b*x + e, то возможны отрицательные значения R2. Это также недостаток R2.

Слайд 24





Статистические свойства МНК-оценок коэффициентов регрессии.
ТЕОРЕМА ГАУССА-МАРКОВА
Описание слайда:
Статистические свойства МНК-оценок коэффициентов регрессии. ТЕОРЕМА ГАУССА-МАРКОВА

Слайд 25





Почему при оценке параметров модели a и b минимизируется именно
Почему при оценке параметров модели a и b минимизируется именно

                    ?
   
Потому что при выполнении некоторых условий оценки a и b, полученные по МНК, оказываются очень хорошими: несмещенными, эффективными, состоятельными.
Описание слайда:
Почему при оценке параметров модели a и b минимизируется именно Почему при оценке параметров модели a и b минимизируется именно ? Потому что при выполнении некоторых условий оценки a и b, полученные по МНК, оказываются очень хорошими: несмещенными, эффективными, состоятельными.

Слайд 26





Каких условий?
МНК-оценки   a  и  b  являются случайными величинами, свойства которых существенным образом зависят от свойств случайного члена   e   модели регрессии.
Описание слайда:
Каких условий? МНК-оценки a и b являются случайными величинами, свойства которых существенным образом зависят от свойств случайного члена e модели регрессии.

Слайд 27





Условия Гаусса-Маркова
1. Математическое ожиданиет значений остатков e равно 0:
М(ei) = 0 для всех наблюдений хi
2. Значение дисперсии ошибки является постоянной величиной σei2 = σ2 = const для всех наблюдений Xi
(условие гомоскедастичности)
3. Значения e, для разных значений хi независимы между собой
(отсутствие автокорреляции в остатках)
4. Значения хi и ei для одного и того же наблюдения независимы между собой     σXi, ei = 0 для всех наблюдений
5. Модель является линейной относительно параметров
Описание слайда:
Условия Гаусса-Маркова 1. Математическое ожиданиет значений остатков e равно 0: М(ei) = 0 для всех наблюдений хi 2. Значение дисперсии ошибки является постоянной величиной σei2 = σ2 = const для всех наблюдений Xi (условие гомоскедастичности) 3. Значения e, для разных значений хi независимы между собой (отсутствие автокорреляции в остатках) 4. Значения хi и ei для одного и того же наблюдения независимы между собой σXi, ei = 0 для всех наблюдений 5. Модель является линейной относительно параметров

Слайд 28





Условия Гаусса-Маркова
Для уравнения множественной регрессии:
6. Факторы xi независимы между собой в том смысле, что их выборочные парные линейные коэффициенты корреляции не превышают некоторого порога p:
			
			(условие отсутствия мультиколлинеарности)
7. Остатки являются нормально распределенной случайной величиной, т.е. подчиняются закону нормального распределения.
Описание слайда:
Условия Гаусса-Маркова Для уравнения множественной регрессии: 6. Факторы xi независимы между собой в том смысле, что их выборочные парные линейные коэффициенты корреляции не превышают некоторого порога p: (условие отсутствия мультиколлинеарности) 7. Остатки являются нормально распределенной случайной величиной, т.е. подчиняются закону нормального распределения.

Слайд 29


Метод наименьших квадратов, слайд №29
Описание слайда:

Слайд 30


Метод наименьших квадратов, слайд №30
Описание слайда:

Слайд 31





Если 1-е условие Г-М не выполняется, МНК дает смещенную оценку для b.
Если 1-е условие Г-М не выполняется, МНК дает смещенную оценку для b.
Описание слайда:
Если 1-е условие Г-М не выполняется, МНК дает смещенную оценку для b. Если 1-е условие Г-М не выполняется, МНК дает смещенную оценку для b.

Слайд 32





2. σei2 = σ2 = const для всех наблюдений Xi

Условие гомоскедастичности ошибок.
   Когда оно не выполняется, говорят о гетероскедастичности ошибок.
Описание слайда:
2. σei2 = σ2 = const для всех наблюдений Xi Условие гомоскедастичности ошибок. Когда оно не выполняется, говорят о гетероскедастичности ошибок.

Слайд 33


Метод наименьших квадратов, слайд №33
Описание слайда:

Слайд 34


Метод наименьших квадратов, слайд №34
Описание слайда:

Слайд 35


Метод наименьших квадратов, слайд №35
Описание слайда:

Слайд 36





3. σei, ej = 0 для всех Xi и Xj,  i  j .
Условие некоррелированности ошибок для разных наблюдений.
Это условие часто нарушается, когда данные являются временными рядами, из-за наличия в динамике экономических показателей различных регулярных колебаний.
При невыполнении (3) говорят об автокоррелированности остатков.
Описание слайда:
3. σei, ej = 0 для всех Xi и Xj, i  j . Условие некоррелированности ошибок для разных наблюдений. Это условие часто нарушается, когда данные являются временными рядами, из-за наличия в динамике экономических показателей различных регулярных колебаний. При невыполнении (3) говорят об автокоррелированности остатков.

Слайд 37


Метод наименьших квадратов, слайд №37
Описание слайда:

Слайд 38


Метод наименьших квадратов, слайд №38
Описание слайда:

Слайд 39





4. σXi, ei = 0 для всех наблюдений.
Случайный член распределен независимо от объясняющей переменной.
 Это всегда выполняется, если объясняющие переменные не являются случайными величинами.
Описание слайда:
4. σXi, ei = 0 для всех наблюдений. Случайный член распределен независимо от объясняющей переменной. Это всегда выполняется, если объясняющие переменные не являются случайными величинами.

Слайд 40





Дополнительное условие:

7. Случайный член, i=1, …, n,  имеет нормальное распределение,
 ei ~ N(0, e2)
Описание слайда:
Дополнительное условие: 7. Случайный член, i=1, …, n, имеет нормальное распределение, ei ~ N(0, e2)

Слайд 41





Это условие не нужно для обеспечения хороших свойств оценок a и b. 
Это условие не нужно для обеспечения хороших свойств оценок a и b. 
Но оно позволяет корректно проводить проверку гипотез о коэффициентах регрессии.
Реальность предположения о нормальности ei обеспечивается Центральной предельной теоремой.
Описание слайда:
Это условие не нужно для обеспечения хороших свойств оценок a и b. Это условие не нужно для обеспечения хороших свойств оценок a и b. Но оно позволяет корректно проводить проверку гипотез о коэффициентах регрессии. Реальность предположения о нормальности ei обеспечивается Центральной предельной теоремой.

Слайд 42





Теорема Гаусса-Маркова
Если предпосылки МНК соблюдаются, то оценки, полученные по МНК, обладают следующими свойствами:
Оценки параметров являются несмещенными, т.е. М(bi)= bi и М(а)= а. Это вытекает из того, что М(еi)= 0 и говорит об отсутствии систематической ошибки в определении положения линии регрессии
Оценки параметров состоятельны, т.к. дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю. Т.е. При увеличении объема выборки надежность оценок возрастает.
Оценки параметров эффективны, т.е. Они имеют наименьшую дисперсию по сравнению с другими оценками данных параметров.
Описание слайда:
Теорема Гаусса-Маркова Если предпосылки МНК соблюдаются, то оценки, полученные по МНК, обладают следующими свойствами: Оценки параметров являются несмещенными, т.е. М(bi)= bi и М(а)= а. Это вытекает из того, что М(еi)= 0 и говорит об отсутствии систематической ошибки в определении положения линии регрессии Оценки параметров состоятельны, т.к. дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю. Т.е. При увеличении объема выборки надежность оценок возрастает. Оценки параметров эффективны, т.е. Они имеют наименьшую дисперсию по сравнению с другими оценками данных параметров.

Слайд 43





F-критерий Фишера
Описание слайда:
F-критерий Фишера

Слайд 44





t-статистика Стьюдента
Описание слайда:
t-статистика Стьюдента

Слайд 45





Формулы для расчета случайных ошибок:
Описание слайда:
Формулы для расчета случайных ошибок:

Слайд 46





Расчет доверительного интервала прогноза
Описание слайда:
Расчет доверительного интервала прогноза

Слайд 47





Расчет прогнозного значения
Описание слайда:
Расчет прогнозного значения



Похожие презентации
Mypresentation.ru
Загрузить презентацию