Автор: Пользователь скрыл имя, 21 Апреля 2012 в 18:27, контрольная работа
Цель исследования: изучение удельного веса трудоспособного населения Оренбургской области через эконометрические модели на базе эмпирических данных.
Нами был выбран результативный признак У –удельный вес трудоспособного населения и факторные переменные Х (х6 – общий коэффициент смертности (на 1000 человек); х17 – уровень брачности населения (на 1000 человек); х19 – коэффициент миграционного прироста (на 1000 человек); х20 – среднемесячная номинальная начисленная заработная плата (тыс. руб.); х21 – число пострадавших с утратой трудоспособности (на 1000 человек); х22 – средний размер пенсий (руб.)).
Введение…………………………………………………………………………...3
Глава 1. КЛММР…………………………………………………………………..4
Теория………………………………………………………………………….4
Решение………………………………………………………………………..4
Глава 2. Мультиколлинеарность…………………………………………………9
2.1 Теория………………………………………………………………………….9
2.2 Решение………………………………………………………………………10
Глава 3. Гетероскедестичность…………………………………………………18
3.1 Теория………………………………………………………………………...18
3.2 Решение………………………………………………………………………19
Глава 4. Автокорреляция………………………………………………………..24
4.1 Теория………………………………………………………………………...24
4.2 Решение………………………………………………………………………24
Заключение………………………………………………………………………27
Приложение А…………………………………………………………………...28
Приложение Б……………………………
1.2.5
дать экономическую
интерпретацию полученным
результатам
Таким
образом, при увеличении на 1 коэффициента
смертности, повлечет за собой уменьшение
трудоспособного населения на 0,72. (С экономической
точки зрения – верно).
Глава 2 Мультиколлинеарность
2.1
Теория
Под
мультиколлинеарностью
Если существует функциональная линейная зависимость между объясняющими переменными, то говорят, что существует полная мультиколлинеарность.
Реальная
или частичная
Последствия мультиколлинеарности зависят от того, насколько сильная корреляционная зависимость.
Полную мультиколлинеарность не трудно избежать путем исключения на предварительном этапе дублирующих признаков.
Признаки мультиколлинеарности:
Внешние (косвенные, неформальные) признаки:
Формальные:
Методы устранения мультиколлинеарности:
2.2 Решение
2.2.1
Выявление мультиколлинеарности
Оценка модели регрессии выглядит следующим образом:
ŷ= 54,08-0,762Х6+0,348Х17-0,02Х19 -0,0001Х20+0,036Х21+0,004Х22
(6,94) (0,122) (0,285)
(0,045) (0,0002) (0,0038)
(0,002)
В круглых скобках записаны стандартные ошибки оценки коэффициентов .
Итак, в целом модель значима, но из шести коэффициентов при объясняющих переменных значим только один. Стандартные ошибки остальных коэффициентов превышают или сравнимы по абсолютной величине с оценками коэффициентов, что свидетельствует о возможности включения точки 0 в соответствующие доверительные интервалы. Одной из возможных причин перечисленных проблем может быть мультиколлинеарность – наличие тесных статистических связей между объясняющими переменными. Перейдем к рассмотрению критериев по выявлению мультиколлинеарности.
Расчет
парной корреляции между объясняющими
переменными:
Таблица 1 – Расчет парной корреляции
X6 | X17 | X19 | X20 | X21 | X22 | |
X6 | 1 | |||||
X17 | -0,28638 | 1 | ||||
X19 | -0,11984 | 0,378796 | 1 | |||
X20 | -0,20662 | 0,326373 | 0,357437 | 1 | ||
X21 | 0,045009 | -0,2003 | 0,277362 | -0,21877 | 1 | |
X22 | 0,043295 | 0,252978 | 0,385534 | 0,695649 | -0,13576 | 1 |
Как видно из таблицы, между объясняющими переменными х20 и х21 (r=0,696) наблюдается тесная связь. Это является одним из признаков мультиколлинеарности.
Более подробное изучение вопроса наличия взаимосвязи между объясняющими переменными достигается с помощью расчета значений коэффициентов детерминации каждой из объясняющих переменных по всем остальным переменным .
0,17 (х6)
0,29 (х17)
0,39 (х19)
0,56 (х20)
0,27 (х21)
0,55 (х22)
Анализ оценок коэффициентов детерминации показал наличие тесной линейной связи между объясняющей переменной х20 и х22 и всеми остальными признаками.
Таким образом, можно говорить о наличии мультиколлинеарности объясняющих переменных Х1,….,Х9 в построенном уравнении регрессии.
В случае, если между объясняющими переменными существует частичная мультиколлинеарность, то оценки коэффициентов линейной модели, полученные по МНК, становятся неустойчивыми, незначительное изменение состава выборки или состава объясняющих переменных может вызвать кардинальное изменение модели, что делает модель непригодной для практических целей. Наиболее распространенные в таких случаях приемы оценивания параметров регрессионной модели: методы пошаговой регрессии, использование гребневой регрессии (ридж-регрессии), переход от первоначальных переменных к их главным компонентам [1,3].
Будем устранять мультиколлинеарность методом пошаговой регрессии с включением, суть которого заключается в переходе от исходного количества объясняющих переменных Х1,…, Хk к меньшему числу Х1,…,Хp, отобрав наиболее существенные с точки зрения их влияния на результативный признак.
2.2.2
устранение
Методом
пошаговой регрессии с
1
ШАГ строится уравнение
2
ШАГ строится уравнение
Процедура повторяется до тех пор, пока в ней не останется все значимые коэффициенты уравнения регрессии.
1) В первой главе мы выяснили, что только х6 - значимый, исключаем коэффициент х21, т.к. он имеет наименьшую ltl-статистику.
Получили следующее уравнение регрессии:
ŷ= 54,08-0,762Х6+0,348Х17-0,02Х19 -0,0001Х20+0,004Х22
(6,94) (0,122) (0,285)
(0,045) (0,0002) (0,002)
2)
Рисунок 2.1 – Регрессионный анализ для 5 объясняющих переменных
Х6:
Н0: β1=0
Н1: β1 0
tнабл= 6,32
Найдем
tкр(α)=2,41
tнабл
>tкр , значит х6 – значим
х17:
Н0: β1=0
Н1: β1 0
tнабл= 1,22
tнабл
<tкр , значит х17 – не значим
х19:
Н0: β1=0
Н1: β1 0
tнабл= 0,4
tнабл
<tкр , значит х19 – не значим
х20:
Н0: β1=0
Н1: β1 0
tнабл= 0,85
tнабл
<tкр , значит х20 – не значим
х22:
Н0: β1=0
Н1: β1 0
tнабл= 2,025
tнабл
<tкр , значит х22 – не значим
Из 5 объясняющих переменных значим только х6.
Искючаем х19 (имеет наименьшую статистику)
Получили следующее уравнение регрессии:
ŷ= 54,53-0,76Х6+0,33Х17 +0,00013Х20+0,004Х22
(6,6) (0,12) (0,27)
(0,0002) (0,002)
3)
Рисунок
2.2 – Регрессионный анализ для 4 объясняющих
переменных
Х6:
Н0: β1=0
Н1: β1 0
tнабл= 6,37
Найдем
tкр(α)=2,57
tнабл
>tкр , значит х6 – значим
х17:
Н0: β1=0
Н1: β1 0
tнабл= 1,17
tнабл
<tкр , значит х17 – не значим
х20:
Н0: β1=0
Н1: β1 0
tнабл= 0,83
tнабл
<tкр , значит х20 – не значим
х22:
Н0: β1=0
Н1: β1 0
tнабл= 2,01
tнабл
<tкр , значит х22 – не значим
Из 5 объясняющих переменных значим только х6.
Искючаем х20 (имеет наименьшую статистику)
Получили следующее уравнение регрессии:
ŷ= 54,43-0,76Х6+0,3Х17 +0,004Х22
(6,1) (0,12) (0,26) (0,002)
4)
Рисунок 2.3 –
Регрессионный анализ для 3 объясняющих
переменных
Х6:
Н0: β1=0
Н1: β1 0
tнабл= 6,92
Найдем
tкр(α)=2,802
tнабл
>tкр , значит х6 – значим
х17:
Н0: β1=0
Н1: β1 0
tнабл= 0,33
tнабл
<tкр , значит х17 – не значим
х22:
Н0: β1=0
Информация о работе Клммр мультиколлинеарность гетероскедостичность автокорреляция