🗊Презентация Парный регрессионный анализ

Категория: Математика
Нажмите для полного просмотра!
Парный регрессионный анализ, слайд №1Парный регрессионный анализ, слайд №2Парный регрессионный анализ, слайд №3Парный регрессионный анализ, слайд №4Парный регрессионный анализ, слайд №5Парный регрессионный анализ, слайд №6Парный регрессионный анализ, слайд №7Парный регрессионный анализ, слайд №8Парный регрессионный анализ, слайд №9Парный регрессионный анализ, слайд №10Парный регрессионный анализ, слайд №11Парный регрессионный анализ, слайд №12Парный регрессионный анализ, слайд №13Парный регрессионный анализ, слайд №14Парный регрессионный анализ, слайд №15Парный регрессионный анализ, слайд №16Парный регрессионный анализ, слайд №17Парный регрессионный анализ, слайд №18Парный регрессионный анализ, слайд №19Парный регрессионный анализ, слайд №20Парный регрессионный анализ, слайд №21Парный регрессионный анализ, слайд №22Парный регрессионный анализ, слайд №23Парный регрессионный анализ, слайд №24Парный регрессионный анализ, слайд №25Парный регрессионный анализ, слайд №26Парный регрессионный анализ, слайд №27Парный регрессионный анализ, слайд №28Парный регрессионный анализ, слайд №29Парный регрессионный анализ, слайд №30Парный регрессионный анализ, слайд №31Парный регрессионный анализ, слайд №32Парный регрессионный анализ, слайд №33Парный регрессионный анализ, слайд №34Парный регрессионный анализ, слайд №35Парный регрессионный анализ, слайд №36Парный регрессионный анализ, слайд №37Парный регрессионный анализ, слайд №38Парный регрессионный анализ, слайд №39

Содержание

Вы можете ознакомиться и скачать презентацию на тему Парный регрессионный анализ. Доклад-сообщение содержит 39 слайдов. Презентации для любого класса можно скачать бесплатно. Если материал и наш сайт презентаций Mypresentation Вам понравились – поделитесь им с друзьями с помощью социальных кнопок и добавьте в закладки в своем браузере.

Слайды и текст этой презентации


Слайд 1





 Парный регрессионный анализ
Описание слайда:
Парный регрессионный анализ

Слайд 2





Модель парной линейной регрессии
Коэффициент корреляции показывает, что две переменные связаны друг с другом, однако он не дает представления о том, каким образом они связаны. 
Рассмотрим более подробно те случаи, в которых мы предполагаем, что одна переменная зависит от другой.
Описание слайда:
Модель парной линейной регрессии Коэффициент корреляции показывает, что две переменные связаны друг с другом, однако он не дает представления о том, каким образом они связаны. Рассмотрим более подробно те случаи, в которых мы предполагаем, что одна переменная зависит от другой.

Слайд 3





Начнем с простейшей модели - модели парной линейной регрессии: 
Начнем с простейшей модели - модели парной линейной регрессии: 
                y = α+βx+u.
Описание слайда:
Начнем с простейшей модели - модели парной линейной регрессии: Начнем с простейшей модели - модели парной линейной регрессии: y = α+βx+u.

Слайд 4





Величина y, рассматриваемая как зависимая переменная, состоит из двух составляющих: 
Величина y, рассматриваемая как зависимая переменная, состоит из двух составляющих: 
неслучайной составляющей α+βx, где x выступает как объясняющая (независимая) переменная, а постоянные величины α и β - как параметры уравнения; 
случайного члена u.
Описание слайда:
Величина y, рассматриваемая как зависимая переменная, состоит из двух составляющих: Величина y, рассматриваемая как зависимая переменная, состоит из двух составляющих: неслучайной составляющей α+βx, где x выступает как объясняющая (независимая) переменная, а постоянные величины α и β - как параметры уравнения; случайного члена u.

Слайд 5





x1, x2, x3, x4 - это четыре гипотетических значения объясняющей переменной.
x1, x2, x3, x4 - это четыре гипотетических значения объясняющей переменной.
 Если бы соотношение между y и x было линейным, то значения y были бы представлены точками Q1, Q2, Q3, Q4 на прямой.
Описание слайда:
x1, x2, x3, x4 - это четыре гипотетических значения объясняющей переменной. x1, x2, x3, x4 - это четыре гипотетических значения объясняющей переменной. Если бы соотношение между y и x было линейным, то значения y были бы представлены точками Q1, Q2, Q3, Q4 на прямой.

Слайд 6





Случайный член положителен в первом и четвертом наблюдениях и отрицателен в двух других. 
Случайный член положителен в первом и четвертом наблюдениях и отрицателен в двух других. 
Если отметить на графике реальные значения y при соответствующих значениях x, то  получим точки P1, P2, P3, P4
Фактические значения α и β и, следовательно, положения точек Q неизвестны.
Описание слайда:
Случайный член положителен в первом и четвертом наблюдениях и отрицателен в двух других. Случайный член положителен в первом и четвертом наблюдениях и отрицателен в двух других. Если отметить на графике реальные значения y при соответствующих значениях x, то получим точки P1, P2, P3, P4 Фактические значения α и β и, следовательно, положения точек Q неизвестны.

Слайд 7






Задача регрессионного анализа состоит в получении оценок α и β и, следовательно, в определении положения прямой по точкам P. 
Если бы случайный член отсутствовал, то точки P совпали бы с точками Q и точно показали бы положение прямой.
 В этом случае достаточно было бы просто построить эту прямую и определить значения α и β.
Описание слайда:
Задача регрессионного анализа состоит в получении оценок α и β и, следовательно, в определении положения прямой по точкам P. Если бы случайный член отсутствовал, то точки P совпали бы с точками Q и точно показали бы положение прямой. В этом случае достаточно было бы просто построить эту прямую и определить значения α и β.

Слайд 8





Причины существования случайного члена
1. Невключение объясняющих переменных. 
Соотношения между y и x является большим упрощением. В действительности существуют другие факторы, влияющие на y, которые не учтены в формуле y=α+βx+u. 
Влияние этих факторов приводит к тому, что наблюдаемые точки лежат вне прямой.
Описание слайда:
Причины существования случайного члена 1. Невключение объясняющих переменных. Соотношения между y и x является большим упрощением. В действительности существуют другие факторы, влияющие на y, которые не учтены в формуле y=α+βx+u. Влияние этих факторов приводит к тому, что наблюдаемые точки лежат вне прямой.

Слайд 9





Часто происходит так, что имеются переменные, которые мы хотели бы включить в регрессионное уравнение, но не можем этого сделать потому, что не знаем, как их измерить, например психологические факторы. 
Часто происходит так, что имеются переменные, которые мы хотели бы включить в регрессионное уравнение, но не можем этого сделать потому, что не знаем, как их измерить, например психологические факторы. 
Возможно, что существуют также другие факторы, которые можно измерить, но которые оказывают такое слабое влияние, что их не стоит учитывать.
Описание слайда:
Часто происходит так, что имеются переменные, которые мы хотели бы включить в регрессионное уравнение, но не можем этого сделать потому, что не знаем, как их измерить, например психологические факторы. Часто происходит так, что имеются переменные, которые мы хотели бы включить в регрессионное уравнение, но не можем этого сделать потому, что не знаем, как их измерить, например психологические факторы. Возможно, что существуют также другие факторы, которые можно измерить, но которые оказывают такое слабое влияние, что их не стоит учитывать.

Слайд 10





Кроме того, могут быть факторы, которые являются существенными, но которые мы из-за отсутствия опыта таковыми не считаем. 
Кроме того, могут быть факторы, которые являются существенными, но которые мы из-за отсутствия опыта таковыми не считаем. 
Объединив все эти составляющие, мы получаем то, что обозначено как u. 
Если бы мы точно знали, какие переменные присутствуют здесь, и имели возможность точно их измерить, то могли бы включить их в уравнение и исключить соответствующий элемент из случайного члена.
 Проблема состоит в том, что мы никогда не можем быть уверены, что входит в данную совокупность, а что - нет.
Описание слайда:
Кроме того, могут быть факторы, которые являются существенными, но которые мы из-за отсутствия опыта таковыми не считаем. Кроме того, могут быть факторы, которые являются существенными, но которые мы из-за отсутствия опыта таковыми не считаем. Объединив все эти составляющие, мы получаем то, что обозначено как u. Если бы мы точно знали, какие переменные присутствуют здесь, и имели возможность точно их измерить, то могли бы включить их в уравнение и исключить соответствующий элемент из случайного члена. Проблема состоит в том, что мы никогда не можем быть уверены, что входит в данную совокупность, а что - нет.

Слайд 11





2. Агрегирование переменных. 
2. Агрегирование переменных. 
Во многих случаях рассматриваемая зависимость - это попытка объединить вместе некоторое число микроэкономических соотношений. 
Например, функция суммарного потребления - это попытка общего выражения совокупности решений отдельных индивидов о расходах.
 Так как отдельные соотношения, вероятно, имеют разные параметры, любая попытка определить соотношение между совокупными расходами и доходом является лишь аппроксимацией. 
Наблюдаемое расхождение при этом приписывается наличию случайного члена.
Описание слайда:
2. Агрегирование переменных. 2. Агрегирование переменных. Во многих случаях рассматриваемая зависимость - это попытка объединить вместе некоторое число микроэкономических соотношений. Например, функция суммарного потребления - это попытка общего выражения совокупности решений отдельных индивидов о расходах. Так как отдельные соотношения, вероятно, имеют разные параметры, любая попытка определить соотношение между совокупными расходами и доходом является лишь аппроксимацией. Наблюдаемое расхождение при этом приписывается наличию случайного члена.

Слайд 12





3. Неправильное описание структуры модели.
3. Неправильное описание структуры модели.
 Структура модели может быть описана неправильно или не вполне правильно. 
Например, если зависимость относится к данным о временном ряде, то значение y может зависеть не от фактического значения x, а от значения, которое ожидалось в предыдущем периоде.
 Если ожидаемое и фактическое значения тесно связаны, то будет казаться, что между y и x существует зависимость, но это будет лишь аппроксимация, и расхождение вновь будет связано с наличием случайного члена.
Описание слайда:
3. Неправильное описание структуры модели. 3. Неправильное описание структуры модели. Структура модели может быть описана неправильно или не вполне правильно. Например, если зависимость относится к данным о временном ряде, то значение y может зависеть не от фактического значения x, а от значения, которое ожидалось в предыдущем периоде. Если ожидаемое и фактическое значения тесно связаны, то будет казаться, что между y и x существует зависимость, но это будет лишь аппроксимация, и расхождение вновь будет связано с наличием случайного члена.

Слайд 13





4. Неправильная функциональная спецификация. 
4. Неправильная функциональная спецификация. 
Функциональное соотношение между y и x математически может быть определено неправильно.
 Например, истинная зависимость может не являться линейной, а быть более сложной. 
 Безусловно, надо постараться избежать возникновения этой проблемы, используя подходящую математическую формулу, но любая самая изощренная формула является лишь приближением, и существующее расхождение вносит вклад в остаточный член.
Описание слайда:
4. Неправильная функциональная спецификация. 4. Неправильная функциональная спецификация. Функциональное соотношение между y и x математически может быть определено неправильно. Например, истинная зависимость может не являться линейной, а быть более сложной. Безусловно, надо постараться избежать возникновения этой проблемы, используя подходящую математическую формулу, но любая самая изощренная формула является лишь приближением, и существующее расхождение вносит вклад в остаточный член.

Слайд 14





Ошибки измерения.
Ошибки измерения.
 Если в измерении одной или более взаимосвязанных переменных имеются ошибки, то наблюдаемые значения не будут соответствовать точному соотношению, и существующее расхождение будет вносить вклад в остаточный член.
Остаточный член является суммарным проявлением всех этих факторов.
Описание слайда:
Ошибки измерения. Ошибки измерения. Если в измерении одной или более взаимосвязанных переменных имеются ошибки, то наблюдаемые значения не будут соответствовать точному соотношению, и существующее расхождение будет вносить вклад в остаточный член. Остаточный член является суммарным проявлением всех этих факторов.

Слайд 15





Регрессия по методу наименьший квадратов.
Допустим, имеется четыре наблюдения для x и y, и поставлена задача - определить значения α и β в уравнении y=α+βx+u. 
Можно отложить четыре точки P и построить прямую, в наибольшей степени соответствующую этим точкам
Описание слайда:
Регрессия по методу наименьший квадратов. Допустим, имеется четыре наблюдения для x и y, и поставлена задача - определить значения α и β в уравнении y=α+βx+u. Можно отложить четыре точки P и построить прямую, в наибольшей степени соответствующую этим точкам

Слайд 16





Отрезок, отсекаемый прямой на оси y, представляет собой оценку α и обозначен a, а угловой коэффициент прямой представляет собой оценку β и обозначен b. 
Отрезок, отсекаемый прямой на оси y, представляет собой оценку α и обозначен a, а угловой коэффициент прямой представляет собой оценку β и обозначен b. 
Невозможно рассчитать истинные значения α и β, можно получить только оценки, и они могут быть хорошими или плохими
Описание слайда:
Отрезок, отсекаемый прямой на оси y, представляет собой оценку α и обозначен a, а угловой коэффициент прямой представляет собой оценку β и обозначен b. Отрезок, отсекаемый прямой на оси y, представляет собой оценку α и обозначен a, а угловой коэффициент прямой представляет собой оценку β и обозначен b. Невозможно рассчитать истинные значения α и β, можно получить только оценки, и они могут быть хорошими или плохими

Слайд 17





Первым шагом является определение остатка для каждого наблюдения.
Первым шагом является определение остатка для каждого наблюдения.
На рисунке при х=x1 соответствующей ему точкой на линии регрессии будет R1 со значением ,
Описание слайда:
Первым шагом является определение остатка для каждого наблюдения. Первым шагом является определение остатка для каждого наблюдения. На рисунке при х=x1 соответствующей ему точкой на линии регрессии будет R1 со значением ,

Слайд 18





Соответственно, для других наблюдений остатки будут обозначены как e1, e2, e3 и e4.
Соответственно, для других наблюдений остатки будут обозначены как e1, e2, e3 и e4.
Описание слайда:
Соответственно, для других наблюдений остатки будут обозначены как e1, e2, e3 и e4. Соответственно, для других наблюдений остатки будут обозначены как e1, e2, e3 и e4.

Слайд 19





Очевидно, что мы хотим построить линию регрессии таким образом, чтобы остатки были минимальными.
Очевидно, что мы хотим построить линию регрессии таким образом, чтобы остатки были минимальными.
 Очевидно также, что линия, строго соответствующая одним наблюдениям, не будет соответствовать другим, и наоборот. 
Необходимо выбрать такой критерий подбора, который будет одновременно учитывать величину всех остатков.
Описание слайда:
Очевидно, что мы хотим построить линию регрессии таким образом, чтобы остатки были минимальными. Очевидно, что мы хотим построить линию регрессии таким образом, чтобы остатки были минимальными. Очевидно также, что линия, строго соответствующая одним наблюдениям, не будет соответствовать другим, и наоборот. Необходимо выбрать такой критерий подбора, который будет одновременно учитывать величину всех остатков.

Слайд 20





Одним из способов решения поставленной проблемы состоит в минимизации суммы квадратов остатков S — метод наименьших квадратов МНК. 
Одним из способов решения поставленной проблемы состоит в минимизации суммы квадратов остатков S — метод наименьших квадратов МНК. 
Для рисунка верно такое соотношение: S=e12+e22+e32+e42.
Описание слайда:
Одним из способов решения поставленной проблемы состоит в минимизации суммы квадратов остатков S — метод наименьших квадратов МНК. Одним из способов решения поставленной проблемы состоит в минимизации суммы квадратов остатков S — метод наименьших квадратов МНК. Для рисунка верно такое соотношение: S=e12+e22+e32+e42.

Слайд 21





Величина S будет зависеть от выбора a и b, так как они определяют положение линии регрессии. 
Величина S будет зависеть от выбора a и b, так как они определяют положение линии регрессии. 
Чем меньше S, тем строже соответствие. Если S=0, то получено абсолютно точное соответствие.
 В этом случае линия регрессии будет проходить через все точки, однако, вообще говоря, это невозможно из-за наличия случайного члена.
Описание слайда:
Величина S будет зависеть от выбора a и b, так как они определяют положение линии регрессии. Величина S будет зависеть от выбора a и b, так как они определяют положение линии регрессии. Чем меньше S, тем строже соответствие. Если S=0, то получено абсолютно точное соответствие. В этом случае линия регрессии будет проходить через все точки, однако, вообще говоря, это невозможно из-за наличия случайного члена.

Слайд 22





Рассмотрим случай, когда имеется n наблюдений двух переменных x и y. 
Рассмотрим случай, когда имеется n наблюдений двух переменных x и y. 
Предположив, что y зависит от x, мы хотим подобрать уравнение
Описание слайда:
Рассмотрим случай, когда имеется n наблюдений двух переменных x и y. Рассмотрим случай, когда имеется n наблюдений двух переменных x и y. Предположив, что y зависит от x, мы хотим подобрать уравнение

Слайд 23





Вывод выражений для a и b
Выразим квадрат i-го остатка через a и b и наблюдения значений x и y:
Описание слайда:
Вывод выражений для a и b Выразим квадрат i-го остатка через a и b и наблюдения значений x и y:

Слайд 24





Мы можем влиять на величину S, только задавая a и b. 
Мы можем влиять на величину S, только задавая a и b. 
Значения x и y, которые определяют положение точек на диаграмме рассеяния, уже не могут быть изменены после того, как мы взяли определенную выборку.
 Условия первого порядка для минимума, принимают вид:
Описание слайда:
Мы можем влиять на величину S, только задавая a и b. Мы можем влиять на величину S, только задавая a и b. Значения x и y, которые определяют положение точек на диаграмме рассеяния, уже не могут быть изменены после того, как мы взяли определенную выборку. Условия первого порядка для минимума, принимают вид:

Слайд 25






Первое уравнение позволяет выразить a
Описание слайда:
Первое уравнение позволяет выразить a

Слайд 26





Подставив выраженное a во второе уравнение, затем поделив на 2n и перегруппировав, получим: bVar(x)=Cov(x,y), и таким образом получим уравнение: 
Подставив выраженное a во второе уравнение, затем поделив на 2n и перегруппировав, получим: bVar(x)=Cov(x,y), и таким образом получим уравнение: 
b=Cov(x,y)/Var(x).
Описание слайда:
Подставив выраженное a во второе уравнение, затем поделив на 2n и перегруппировав, получим: bVar(x)=Cov(x,y), и таким образом получим уравнение: Подставив выраженное a во второе уравнение, затем поделив на 2n и перегруппировав, получим: bVar(x)=Cov(x,y), и таким образом получим уравнение: b=Cov(x,y)/Var(x).

Слайд 27





Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки α и β.
Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки α и β.
Описание слайда:
Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки α и β. Существуют и другие достаточно разумные решения, однако при выполнении определенных условий метод наименьших квадратов дает несмещенные и эффективные оценки α и β.

Слайд 28





 Качество оценки: коэффициент детерминации R2
Цель регрессивного анализа состоит в объяснении поведения зависимой переменной y.
 В любой данной выборке y оказывается сравнительно низким в одних наблюдениях и сравнительно высоким - в других.
Разброс значений y в любой выборке можно суммарно описать с помощью выборочной дисперсии Var(y).
Описание слайда:
Качество оценки: коэффициент детерминации R2 Цель регрессивного анализа состоит в объяснении поведения зависимой переменной y. В любой данной выборке y оказывается сравнительно низким в одних наблюдениях и сравнительно высоким - в других. Разброс значений y в любой выборке можно суммарно описать с помощью выборочной дисперсии Var(y).

Слайд 29





В парном регрессионном анализе мы пытаемся объяснить поведение y путем определения регрессионной зависимости y от соответственно выбранной независимой переменной x. 
В парном регрессионном анализе мы пытаемся объяснить поведение y путем определения регрессионной зависимости y от соответственно выбранной независимой переменной x. 
После построения уравнения  регрессии мы можем разбить значение yi в каждом наблюдении на две составляющих -
Описание слайда:
В парном регрессионном анализе мы пытаемся объяснить поведение y путем определения регрессионной зависимости y от соответственно выбранной независимой переменной x. В парном регрессионном анализе мы пытаемся объяснить поведение y путем определения регрессионной зависимости y от соответственно выбранной независимой переменной x. После построения уравнения регрессии мы можем разбить значение yi в каждом наблюдении на две составляющих -

Слайд 30


Парный регрессионный анализ, слайд №30
Описание слайда:

Слайд 31


Парный регрессионный анализ, слайд №31
Описание слайда:

Слайд 32


Парный регрессионный анализ, слайд №32
Описание слайда:

Слайд 33





Если в выборке отсутствует видимая связь между y и x, то коэффициент R2 будет близок к нулю.
Если в выборке отсутствует видимая связь между y и x, то коэффициент R2 будет близок к нулю.
При прочих равных условиях желательно, чтобы коэффициент R2 был как можно больше. 
В частности, мы заинтересованы в таком выборе коэффициентов a и b, чтобы максимизировать R2
Описание слайда:
Если в выборке отсутствует видимая связь между y и x, то коэффициент R2 будет близок к нулю. Если в выборке отсутствует видимая связь между y и x, то коэффициент R2 будет близок к нулю. При прочих равных условиях желательно, чтобы коэффициент R2 был как можно больше. В частности, мы заинтересованы в таком выборе коэффициентов a и b, чтобы максимизировать R2

Слайд 34





Принцип минимизации суммы квадратов остатков эквивалентен минимизации дисперсии остатков. 
Принцип минимизации суммы квадратов остатков эквивалентен минимизации дисперсии остатков. 
Однако, если мы минимизируем Var(e), то при этом в соответствии с 
R2=1-Var(e)/Var(y) автоматически максимизируется коэффициент R2.
Описание слайда:
Принцип минимизации суммы квадратов остатков эквивалентен минимизации дисперсии остатков. Принцип минимизации суммы квадратов остатков эквивалентен минимизации дисперсии остатков. Однако, если мы минимизируем Var(e), то при этом в соответствии с R2=1-Var(e)/Var(y) автоматически максимизируется коэффициент R2.

Слайд 35





Пример вычисления коэффициента R2
Описание слайда:
Пример вычисления коэффициента R2

Слайд 36





Общая сумма квадратов TSS – сумма квадратов отклонений y  от своего среднего значения
Общая сумма квадратов TSS – сумма квадратов отклонений y  от своего среднего значения
Объясненная сумма квадратов (ESS) отклонений – сумма квадратов отклонений a+bx от выборочного среднего.
Необъясненная (остаточная) сумма квадратов отклонений (RSS) – сумма квадратов остатков всех наблюдений.
Описание слайда:
Общая сумма квадратов TSS – сумма квадратов отклонений y от своего среднего значения Общая сумма квадратов TSS – сумма квадратов отклонений y от своего среднего значения Объясненная сумма квадратов (ESS) отклонений – сумма квадратов отклонений a+bx от выборочного среднего. Необъясненная (остаточная) сумма квадратов отклонений (RSS) – сумма квадратов остатков всех наблюдений.

Слайд 37





Другая формула для коэффициента детерминации
Описание слайда:
Другая формула для коэффициента детерминации

Слайд 38





Связь между коэффициентом детерминации и коэффициентом корреляции
Описание слайда:
Связь между коэффициентом детерминации и коэффициентом корреляции

Слайд 39





Чем ближе коэффициент детерминации к 1 , тем ближе выборка к линии регрессии y=a+bx, а не к истинной прямой.
Чем ближе коэффициент детерминации к 1 , тем ближе выборка к линии регрессии y=a+bx, а не к истинной прямой.
Это один из недостатков МНК.
Описание слайда:
Чем ближе коэффициент детерминации к 1 , тем ближе выборка к линии регрессии y=a+bx, а не к истинной прямой. Чем ближе коэффициент детерминации к 1 , тем ближе выборка к линии регрессии y=a+bx, а не к истинной прямой. Это один из недостатков МНК.



Похожие презентации
Mypresentation.ru
Загрузить презентацию