Множественная регрессия и корреляция

Автор: Пользователь скрыл имя, 10 Марта 2013 в 22:45, реферат

Краткое описание

Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной. Если строится модель с набором факторов, то для нее рассчитывается показатель детерминации , который фиксирует долю объясненной вариации результативного признака за счет рассматриваемых в регрессии факторов. Влияние других, не учтенных в модели факторов, оценивается как с соответствующей остаточной дисперсией .

Файлы: 1 файл

Множественная Регрессия.docx

— 305.26 Кб (Скачать)

МНОЖЕСТВЕННАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ

Парная  регрессия может дать хороший  результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить  уравнение множественной регрессии

,

где – зависимая переменная (результативный признак),

 – независимые, или объясняющие,  переменные (признаки-факторы).

Множественная регрессия широко используется в  решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время  множественная регрессия – один из наиболее распространенных методов  в эконометрике. Основная цель множественной  регрессии – построить модель с большим числом факторов, определив  при этом влияние каждого из них  в отдельности, а также совокупное их воздействие на моделируемый показатель.

Спецификация  модели. Отбор факторов при построении уравнения множественной регрессии

Построение  уравнения множественной регрессии  начинается с решения вопроса  о спецификации модели. Он включает в себя два круга вопросов: отбор  факторов и выбор вида уравнения  регрессии.

Включение в уравнение множественной регрессии  того или иного набора факторов связано  прежде всего с представлением исследователя  о природе взаимосвязи моделируемого  показателя с другими экономическими явлениями. Факторы, включаемые во множественную  регрессию, должны отвечать следующим  требованиям.

  1. Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.
  2. Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи.

Включение в модель факторов с высокой интеркорреляцией, может привести к нежелательным последствиям – система нормальных уравнений может оказаться плохо обусловленной и повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.

Если  между факторами существует высокая  корреляция, то нельзя определить их изолированное  влияние на результативный показатель и параметры уравнения регрессии  оказываются неинтерпретируемыми.

Включаемые  во множественную регрессию факторы  должны объяснить вариацию независимой  переменной. Если строится модель с  набором  факторов, то для нее рассчитывается показатель детерминации , который фиксирует долю объясненной вариации результативного признака за счет рассматриваемых в регрессии факторов. Влияние других, не учтенных в модели факторов, оценивается как с соответствующей остаточной дисперсией .

Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число  факторов, практически в этом нет  необходимости. Отбор факторов производится на основе качественного теоретико-экономического анализа. Однако теоретический анализ часто не позволяет однозначно ответить на вопрос о количественной взаимосвязи  рассматриваемых признаков и  целесообразности включения фактора  в модель. Поэтому отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.

Коэффициенты  интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если . Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множественной регрессии как метода исследования комплексного воздействия факторов в условиях их независимости друг от друга.

Пусть, например, при изучении зависимости  матрица парных коэффициентов корреляции оказалась следующей:

Таблица 2.1

 

1

0,8

0,7

0,6

0,8

1

0,8

0,5

0,7

0,8

1

0,2

0,6

0,5

0,2

1


Очевидно, что факторы  и дублируют друг друга. В анализ целесообразно включить фактор , а не , хотя корреляция с результатом слабее, чем корреляция фактора с , но зато значительно слабее межфакторная корреляция . Поэтому в данном случае в уравнение множественной регрессии включаются факторы , .

По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой и нельзя оценить воздействие каждого фактора в отдельности.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:

  1. Затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл.
  2. Оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.

Если  бы факторы не коррелировали между  собой, то матрица парных коэффициентов  корреляции между факторами была бы единичной матрицей, поскольку  все недиагональные элементы были бы равны нулю. Так, для уравнения, включающего три объясняющих переменных

матрица коэффициентов корреляции между  факторами имела бы определитель, равный единице:

.

Если  же, наоборот, между факторами существует полная линейная зависимость и все  коэффициенты корреляции равны единице, то определитель такой матрицы равен  нулю:

.

Чем ближе  к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.

Существует  ряд подходов преодоления сильной  межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.

Одним из путей учета внутренней корреляции факторов является переход к совмещенным  уравнениям регрессии, т.е. к уравнениям, которые отражают не только влияние  факторов, но и их взаимодействие. Так, если , то возможно построение следующего совмещенного уравнения:

.

Рассматриваемое уравнение включает взаимодействие первого порядка (взаимодействие двух факторов). Возможно включение в  модель и взаимодействий более высокого порядка, если будет доказана их статистическая значимость по -критерию Фишера, но, как правило, взаимодействия третьего и более высоких порядков оказываются статистически незначимыми.

Отбор факторов, включаемых в регрессию, является одним из важнейших этапов практического использования методов  регрессии. Подходы к отбору факторов на основе показателей корреляции могут  быть разные. Они приводят построение уравнения множественной регрессии  соответственно к разным методикам. В зависимости от того, какая методика построения уравнения регрессии  принята, меняется алгоритм ее решения  на ЭВМ.

Наиболее  широкое применение получили следующие  методы построения уравнения множественной  регрессии:

  1. Метод исключения – отсев факторов из полного его набора.
  2. Метод включения – дополнительное введение фактора.
  3. Шаговый регрессионный анализ – исключение ранее введенного фактора.

При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6–7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение  нарушено, то число степеней свободы  остаточной дисперсии очень мало. Это приводит к тому, что параметры  уравнения регрессии оказываются  статистически незначимыми, а  -критерий меньше табличного значения.

Метод наименьших квадратов (МНК).

Свойства  оценок на основе МНК

Возможны разные виды уравнений  множественной регрессии: линейные и нелинейные.

Ввиду четкой интерпретации параметров наиболее широко используется линейная функция. В линейной множественной регрессии  параметры при называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизмененном значении других факторов, закрепленных на среднем уровне.

Рассмотрим  линейную модель множественной регрессии

.     (2.1)

Классический  подход к оцениванию параметров линейной модели множественной регрессии  основан на методе наименьших квадратов (МНК). МНК позволяет получить такие  оценки параметров, при которых сумма  квадратов отклонений фактических  значений результативного признака от расчетных минимальна:

.       (2.2)

Как известно из курса математического анализа, для того чтобы найти экстремум  функции нескольких переменных, надо вычислить частные производные  первого порядка по каждому из параметров и приравнять их к нулю.

Имеем функцию  аргумента:

.

Находим частные производные первого  порядка:

После элементарных преобразований приходим к системе  линейных нормальных уравнений для  нахождения параметров линейного уравнения  множественной регрессии (2.1):

 (2.3)

Для двухфакторной  модели данная система будет иметь  вид:

Метод наименьших квадратов применим и к уравнению  множественной регрессии в стандартизированном  масштабе:

      (2.4)

где – стандартизированные переменные:

, , для которых среднее значение равно нулю: , а среднее квадратическое отклонение равно единице: ;

 – стандартизированные коэффициенты  регрессии.

Стандартизованные коэффициенты регрессии показывают, на сколько единиц изменится в  среднем результат, если соответствующий  фактор изменится на одну единицу при неизменном среднем уровне других факторов. Стандартизованные коэффициенты регрессии можно сравнивать между собой. Сравнивая их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой.

Применяя  МНК к уравнению множественной  регрессии в стандартизированном  масштабе, получим систему нормальных уравнений вида

    (2.5)

где и – коэффициенты парной и межфакторной корреляции.

Коэффициенты  «чистой» регрессии  связаны со стандартизованными коэффициентами регрессии следующим образом:

.         (2.6)

Поэтому можно переходить от уравнения регрессии  в стандартизованном масштабе (2.4) к уравнению регрессии в натуральном  масштабе переменных (2.1), при этом параметр определяется как .

Информация о работе Множественная регрессия и корреляция