Автор: Пользователь скрыл имя, 23 Января 2011 в 17:16, доклад
Эконометрия – наука, изучающая количественные взаимосвязи экономических объектов и процессов при помощи математических и статистических методов и моделей. Основная задача эконометрии – построение количественно определенных экономико-математических моделей, разработка методов определения их параметров по статистическим данным и анализ их свойств. Наиболее часто используемым математическим аппаратом решения задач данного класса служат методы корреляционно-регрессионного анализа.
Уравнение с оцененными параметрами будет иметь вид:
Чтобы определить значения коэффициентов a0, a1 и a2, воспользуемся методом наименьших квадратов.
Как и ранее, задача формулируется следующим образом:
Q = |
Приравяв частные производные нулю и выполнив преобразования, получим систему уравнений:
|
Решив
систему, можно получить формулы
для расчета коэффициентов
Рассмотрим более общий случай - зависимость переменной y от m факторов.
Обозначим:
A = {aj}, j = 0, 1, 2, ..., m - вектор оценок параметров регрессии;
Y = {yi}, - вектор значений зависимой переменной;
X = {xij}, , j = 0, 1, 2, ..., m - матрица значений независимых переменных;
при этом m - количество независимых переменных, n - объем выборки.
Уравнение регрессии может быть представлено в следующим образом.
Для конкретного yi:
(6.5) |
или в матричном виде:
Y = A ∙ X, |
|
Обратите внимание на то, что в матрицу X дополнительно введен столбец, все элементы которого равны 1, т.е. условно полагается, что в уравнении (6.5) свободный член a0 умножается на фиктивную переменную xi0, принимающую значение 1 для всех i.
Можно показать, что для общего случая множественной линейной регрессии, коэффициенты уравнения могут быть определены из следующего соотношения:
A = (Xт∙X)-1∙Xт∙Y. | (6.6) |
5.
Сравнение коэффициентов
регрессии
Допустим, в результате анализа получено следующее уравнение регрессии:
y = 2,4 + 0,8x1 + 3,2x2. |
Если величины x1 и x2 являются соизмеримыми, то мы можем сопоставить влияние факторов x1 и x2 путем непосредственного сравнения соответствующих коэффициентов. В нашем примере можно сказать, что фактор x2 воздействует на y в четыре раза сильнее.
В тех случаях, когда x1 и x2 измеряются в разных величинах для сравнения степени их влияния прибегают к нормированию коэффициентов регрессии и определяют так называемый бета-коэффициент ( ):
(6.7) |
где aj - соответствующий коэффициент уравнения регрессии;
,
- среднеквадратическое отклонение значений
переменной xj (m – число учитываемых
факторов);
- среднеквадратическое
Математически бета-коэффициент показывает, на какую часть величины среднеквадратического отклонения меняется среднее значение зависимой переменной с изменением независимой переменной на одно среднеквадратическое отклонение при фиксированном на постоянном уровне значении остальных независимых переменных.
Заметим,
что некоторые авторы именуют бета-коэффициент
стандартизированным
коэффициентом регрессии.
Для целей сравнения коэффициентов регрессии (сравнения силы влияния каждого фактора на отклик) также может быть использован коэффициент эластичности (Э):
Эj
= aj ∙ |
(6.8) |
Коэффициент
эластичности показывает, на сколько
процентов изменяется зависимая
переменная при изменении соответствующего
фактора на один процент.
6.
Коэффициент множественной
корреляции
Экономические
явления чаще всего адекватно
описываются именно многофакторными
моделями. Поэтому возникает
Теснота линейной взаимосвязи между переменной y и рядом переменных xj, рассматриваемых в целом, может быть определена с помощью коэффициента множественной корреляции.
Предположим, что переменная y испытывает влияние двух переменных - x и z. В этом случае коэффициент множественной корреляции может быть определен по формуле:
(6.9) |
где ryx, ryz, rxz - простые коэффициенты линейной парной корреляции, определенные из соотношения (6.4).
Коэффициент множественной корреляции заключен в пределах 0 ≤ R ≤ 1. Он не меньше, чем абсолютная величина любого парного или частного коэффициента корреляции с таким же первичным индексом.
С помощью множественного коэффициента (по мере приближения R к 1) делается вывод о тесноте взаимосвязи, но не о ее направлении. Величина R2, называемая множественным коэффициентом детерминации, показывает, какую долю вариации исследуемой переменной (y) объясняет вариация остальных учтенных переменных (x, z).
7.
Коэффициент частной
корреляции
Иногда представляет интерес измерение частных зависимостей (между y и xj) при условии, что воздействие других факторов, принимаемых во внимание, устранено. В качестве соответствующих измерителей приняты коэффициенты частной корреляции.
Рассмотрим
порядок расчета коэффициента частной
корреляции для случая, когда во
взаимосвязи находятся три
Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и x) при условии, что влияние на них третьего фактора (z) устранено.
Соответствующая расчетная формула:
(6.10) |
Частный
коэффициент корреляции, так же как
и парный коэффициент корреляции
r (рассчитанный по формуле (6.4)), может
принимать значения от -1 до 1.
8.
Оценка параметров
нелинейной регрессии
Пусть
предварительный анализ исходной информации
дает основание предполагать, что регрессионная
зависимость носит нелинейный характер.
Пример корреляционного поля, соответствующего
нелинейной зависимости, представлен
на рисунке 6.5.
Рассмотрим в качестве примера следующее уравнение регрессии:
(6.11) |
Пусть необходимо определить коэффициенты уравнения.
В этом случае, как правило, выполняют линеаризующие преобразования переменных.
Введем обозначения:
z1
= x1; z2 = |
Тогда исходное уравнение (6.11) примет вид:
(6.12) |
Уравнение (6.12) представляет собой уравнение линейной регрессии с четырьмя независимыми переменными. Коэффициенты последнего уравнения находятся по уже известной нам формуле (6.6):
A = (Zт∙Z)-1∙Zт∙Y. |
После
нахождения коэффициентов необходимо
выполнить обратные преобразования
для возврата к исходным переменным.
9.
Индекс корреляции
Индекс корреляции используется для выявления тесноты связи между переменными в случае нелинейной зависимости.
Он показывает тесноту связи между фактором x и зависимой переменной y:
(6.13) |
где ei = yi - i - величина ошибки, т.е. отклонение фактических значений зависимой переменной от рассчитанных по уравнению регрессии.
Индекс корреляции есть неотрицательная величина, не превосходящая 1: 0 ≤ Iyx ≤ 1.
Связь тем сильнее, чем ближе Iyx к единице.
В
случае линейной зависимости Iyx
= | ryx |. Расхождение между Iyx
(формула (6.13)) и ryx (формула (6.4)) может
быть использовано для проверки линейности
корреляционной зависимости.
10.
Проблема мультиколлинеарности
При разработке структуры уравнения регрессии сталкиваются с явлением мультиколлинеарности. Под мультиколлинеарностью понимают взаимосвязь независимых переменных уравнения регрессии.
Пусть имеется уравнение регрессии:
Переменные x1 и x2 могут находиться в некоторой линейной зависимости между собой. Эта зависимость может быть функциональной, тогда имеет место строгая мультиколлинеарность переменных. Чаще, однако, взаимосвязь между переменными не столь жестка и проявляется лишь приблизительно, в этом случае мультиколлинеарность называется нестрогой.
Одно из основных предположений метода наименьших квадратов заключается в том, что между независимыми переменными нет линейной связи. Нарушение этого условия будет приводить к тому, что получаемое уравнение регрессии будет ненадежным, и незначительное изменение исходных выборочных данных будет приводить к резкому изменению оценок параметров.