Клммр мультиколлинеарность гетероскедостичность автокорреляция

Автор: Пользователь скрыл имя, 21 Апреля 2012 в 18:27, контрольная работа

Краткое описание

Цель исследования: изучение удельного веса трудоспособного населения Оренбургской области через эконометрические модели на базе эмпирических данных.
Нами был выбран результативный признак У –удельный вес трудоспособного населения и факторные переменные Х (х6 – общий коэффициент смертности (на 1000 человек); х17 – уровень брачности населения (на 1000 человек); х19 – коэффициент миграционного прироста (на 1000 человек); х20 – среднемесячная номинальная начисленная заработная плата (тыс. руб.); х21 – число пострадавших с утратой трудоспособности (на 1000 человек); х22 – средний размер пенсий (руб.)).

Оглавление

Введение…………………………………………………………………………...3
Глава 1. КЛММР…………………………………………………………………..4
Теория………………………………………………………………………….4
Решение………………………………………………………………………..4
Глава 2. Мультиколлинеарность…………………………………………………9
2.1 Теория………………………………………………………………………….9
2.2 Решение………………………………………………………………………10
Глава 3. Гетероскедестичность…………………………………………………18
3.1 Теория………………………………………………………………………...18
3.2 Решение………………………………………………………………………19
Глава 4. Автокорреляция………………………………………………………..24
4.1 Теория………………………………………………………………………...24
4.2 Решение………………………………………………………………………24
Заключение………………………………………………………………………27
Приложение А…………………………………………………………………...28
Приложение Б……………………………

Файлы: 1 файл

ргз!!!.doc

— 739.50 Кб (Скачать)

         1.2.5 дать экономическую  интерпретацию полученным  результатам 

         Таким образом, при увеличении на 1 коэффициента смертности, повлечет за собой уменьшение трудоспособного населения на 0,72. (С экономической точки зрения – верно). 

 

         Глава 2 Мультиколлинеарность

         2.1 Теория 

       Под мультиколлинеарностью понимается совместная или множественная взаимозависимость объясняющих переменных.

       Если  существует функциональная линейная зависимость  между объясняющими переменными, то говорят, что существует полная мультиколлинеарность.

       Реальная  или частичная мультиколлинеарность возникает в случае существования  достаточно тесных линейных статистических связей между объясняющими переменными.

       Последствия мультиколлинеарности зависят от того, насколько сильная корреляционная зависимость.

       Полную  мультиколлинеарность не трудно избежать путем исключения на предварительном этапе дублирующих признаков.

       Признаки  мультиколлинеарности:

       Внешние (косвенные, неформальные) признаки:

  1. оценки коэффициентов уравнения регрессии имеют неправильные с точки зрения экономической теории знаки или неоправданно большие значения;
  2. небольшие изменения некоторых статистических данных приводят к существенному изменению оценок коэффициента модели вплоть до изменения знака;
  3. среди коэффициентов уравнения регрессии много (все) не значимы, а модель значима;
  4. стандартные отклонения велики настолько, что сравнимы или даже превосходят сами коэффициенты.

             Формальные:

  1. среди оценок коэффициентов парной или частной корреляции между объясняющими переменными есть такие, которые по абсолютной величине превышают 0,7;
  2. достаточно высокие значения множественных коэффициентов корреляции (детерминации) одной из объясняющих переменных на другие;
  3. существование тесных статистических связей между объясняющими переменными: приводит к плохой обусловленности системы;
  4. достаточно плохой коллинеарностью являются большие значения числа обусловленности М порядка.

             Методы устранения мультиколлинеарности:

    1. метод пошаговой регрессии со включением переменных
    2. метод пошаговой регрессии с исключением
    3. метод «Ридж-регрессии»
    4. метод главных компонент
 

2.2 Решение

2.2.1 Выявление мультиколлинеарности 

       Оценка  модели регрессии выглядит следующим  образом:    

               ŷ= 54,08-0,762Х6+0,348Х17-0,02Х19 -0,0001Х20+0,036Х21+0,004Х22

                  (6,94)  (0,122)      (0,285)    (0,045)   (0,0002)    (0,0038)   (0,002) 

       В круглых скобках записаны стандартные ошибки оценки коэффициентов .

     Итак, в целом модель значима, но из шести коэффициентов при объясняющих переменных значим только один. Стандартные ошибки остальных коэффициентов превышают или сравнимы по абсолютной величине с оценками коэффициентов, что свидетельствует о возможности включения точки 0 в соответствующие доверительные интервалы. Одной из возможных причин  перечисленных проблем может быть мультиколлинеарность – наличие тесных статистических связей между объясняющими переменными. Перейдем к рассмотрению критериев по выявлению мультиколлинеарности.

      Расчет  парной корреляции между объясняющими переменными: 

      Таблица 1 – Расчет парной корреляции

  X6 X17 X19 X20 X21 X22
X6 1          
X17 -0,28638 1        
X19 -0,11984 0,378796 1      
X20 -0,20662 0,326373 0,357437 1    
X21 0,045009 -0,2003 0,277362 -0,21877 1  
X22 0,043295 0,252978 0,385534 0,695649 -0,13576 1

 

       Как видно из таблицы, между объясняющими переменными х20 и х21  (r=0,696) наблюдается тесная связь. Это является одним из признаков мультиколлинеарности.

       Более подробное изучение вопроса наличия  взаимосвязи между объясняющими переменными достигается с помощью расчета значений коэффициентов детерминации  каждой из объясняющих переменных по всем остальным переменным .  

        0,17 (х6)

        0,29 (х17)

        0,39 (х19)

        0,56 (х20)

        0,27 (х21)

        0,55 (х22)

       Анализ  оценок коэффициентов детерминации показал наличие тесной линейной связи между объясняющей переменной х20 и х22 и всеми остальными признаками.

       Таким образом, можно говорить о наличии  мультиколлинеарности объясняющих  переменных Х1,….,Х9  в построенном  уравнении регрессии.

      В случае, если между объясняющими переменными  существует частичная мультиколлинеарность, то оценки коэффициентов линейной модели, полученные по МНК, становятся неустойчивыми, незначительное изменение состава выборки или состава объясняющих переменных может вызвать кардинальное изменение модели, что делает модель непригодной для практических целей. Наиболее распространенные в таких случаях приемы оценивания параметров регрессионной модели: методы пошаговой регрессии, использование гребневой регрессии (ридж-регрессии), переход от первоначальных переменных к их главным компонентам [1,3].

       Будем устранять мультиколлинеарность методом  пошаговой регрессии с включением, суть которого заключается в переходе от исходного количества объясняющих переменных Х1,…, Хk к меньшему числу Х1,…,Хp, отобрав наиболее существенные с точки зрения их влияния на результативный признак.

       2.2.2 устранение мультиколлинеарности  методом пошаговой  регрессии с исключением

     Методом пошаговой регрессии с исключением.

     1 ШАГ строится уравнение регрессии  на все n факторных признаков и если среди его коэффициентов есть незначимые, то исключают из модели переменные с наименьшим значением |t|-статистики

     2 ШАГ строится уравнение регрессии  на коэффициенты, но такие исключения из модели переменных с наименьшим значением |t|.

     Процедура повторяется до тех пор, пока в  ней не останется все значимые коэффициенты уравнения регрессии.

       1) В первой главе мы выяснили, что только х6 - значимый, исключаем коэффициент х21, т.к. он имеет наименьшую ltl-статистику.

     Получили  следующее уравнение регрессии:

               ŷ= 54,08-0,762Х6+0,348Х17-0,02Х19 -0,0001Х20+0,004Х22

                  (6,94)  (0,122)      (0,285)    (0,045)   (0,0002)     (0,002) 

       2)

       Рисунок 2.1 – Регрессионный анализ для 5 объясняющих  переменных

        

       Х6:

Н0: β1=0

Н1: β1 0

tнабл= 6,32

Найдем  tкр(α)=2,41 

     tнабл >tкр , значит х6 – значим 

     х17:

Н0: β1=0

Н1: β1 0

tнабл= 1,22

     tнабл <tкр , значит х17 – не значим 

х19:

Н0: β1=0

Н1: β1 0

tнабл= 0,4

     tнабл <tкр , значит х19 – не значим 

     х20:

Н0: β1=0

Н1: β1 0

tнабл= 0,85

     tнабл <tкр , значит х20 – не значим 

     х22:

Н0: β1=0

Н1: β1 0

tнабл= 2,025

     tнабл <tкр , значит х22 – не значим 

     Из 5 объясняющих переменных значим только х6.

     Искючаем  х19 (имеет наименьшую статистику)

     Получили  следующее уравнение регрессии:

                    ŷ= 54,53-0,76Х6+0,33Х17 +0,00013Х20+0,004Х22

                        (6,6)  (0,12)       (0,27)      (0,0002)     (0,002) 

3)

Рисунок 2.2 – Регрессионный анализ для 4 объясняющих  переменных 

       Х6:

Н0: β1=0

Н1: β1 0

tнабл= 6,37

Найдем  tкр(α)=2,57 

     tнабл >tкр , значит х6 – значим 

     х17:

Н0: β1=0

Н1: β1 0

tнабл= 1,17

     tнабл <tкр , значит х17 – не значим 
 

     х20:

Н0: β1=0

Н1: β1 0

tнабл= 0,83

     tнабл <tкр , значит х20 – не значим 

     х22:

Н0: β1=0

Н1: β1 0

tнабл= 2,01

     tнабл <tкр , значит х22 – не значим 

     Из 5 объясняющих переменных значим только х6.

     Искючаем  х20 (имеет наименьшую статистику)

     Получили  следующее уравнение регрессии:

                    ŷ= 54,43-0,76Х6+0,3Х17 +0,004Х22

                        (6,1)  (0,12)     (0,26)       (0,002)

4)

Рисунок 2.3 –  Регрессионный анализ для 3 объясняющих  переменных 

       Х6:

Н0: β1=0

Н1: β1 0

tнабл= 6,92

Найдем  tкр(α)=2,802 

     tнабл >tкр , значит х6 – значим 

     х17:

Н0: β1=0

Н1: β1 0

tнабл= 0,33

     tнабл <tкр , значит х17 – не значим 

     х22:

Н0: β1=0

Информация о работе Клммр мультиколлинеарность гетероскедостичность автокорреляция