Функциональная и корреляционная зависимости

Автор: Пользователь скрыл имя, 26 Декабря 2011 в 23:25, доклад

Краткое описание

Корреляция - связь между двумя переменными. Расчёт корреляции основан на формировании парных значений, которые образовываются из рассматриваемых зависимых выборок.
Метод вычисления коэффициента корреляции зависит от вида шкалы, к которой относятся переменные.

Файлы: 1 файл

Документ Microsoft Office Word.docx

— 54.81 Кб (Скачать)

18.

Множественная регрессия - статистическая процедура  изучения зависимости, существующей между  зависимой переменной и несколькими  независимыми переменными. 

Общее назначение множественной регрессии (этот термин был впервые использован в  работе Пирсона - Pearson, 1908) состоит в  анализе связи между несколькими  независимыми переменными (называемыми  также регрессорами или предикторами) и зависимой переменной. Специалисты  по кадрам обычно используют процедуры  множественной регрессии для  определения вознаграждения адекватного  выполненной работе.

Для корректного  использования регрессионного анализа  требуется выполнение определенных условий. Факторные признаки должны быть некоррелированы (отсутствие мультиколлинеарности), они предполагаются замеренными  точно и в их измерениях нет  автокорреляции, т.е. значения признаков  у одного объекта не должны зависеть от значений признаков у других объектов. Результирующий признак должен иметь  постоянную дисперсию (Напомним определения  основных показателей рассеяния (разброса) количественных признаков: дисперсии (D), среднеквадратического отклонения (σ) и коэффициента вариации (V).

здесь n - число объектов; xj- значение признака xдля j -го объекта;   - среднее значение признака X;   . Чем сильнее степень разброса значений признака X, тем больше значения D, σ и V , Коэффициент вариации V - сопоставимая величина для признаков разной природы, его значения выражаются в процентах. Мы не рассматриваем здесь известный вопрос о форме распределения. Отметим лишь, что для признаков, распределение которых близко к нормальному, некоррелированность влечет независимость. Кроме того, при изучении связей таких признаков можно корректно вычислить выборочные оценки, построить доверительные интервалы.), не зависящую от факторных признаков (наличие гомоскепастичности). Число объектов должно превосходить число признаков в несколько раз, чтобы параметры уравнения множественной регрессии были статистически надежными. Исследуемая совокупность должна быть в достаточной мере качественно однородной. Существенные нарушения этих условий приводят к некорректному использованию моделей множественной регрессии.

При построении регрессионных моделей прежде всего  возникает вопрос о виде функциональной зависимости, характеризующей взаимосвязи  между результирующим признаком  и несколькими признаками-факторами. Выбор формы связи должен основываться на качественном, теоретическом и  логическом анализе сущности изучаемых  явлений.

  Одним из основных препятствий эффективного применения множественного регрессионного анализа является мультиколлинеарность. Она связана с линейной зависимостью между аргументами х1, х2, ..., хkВ результате мультиколлинеарности матрица парных коэффициентов корреляции и матрица (XTX) становятся слабообусловленными, т.е. их определители близки к нулю.

  Это приводит к неустойчивости оценок коэффициентов  регрессии (53.12), завышению дисперсии s , оценок этих коэффициентов (53.14), так как в их выражения входит обратная матрица (XTX)-1, получение которой связано с делением на определитель матрицы TХ). Отсюда следуют заниженные значения t(bj). Кроме того, мультиколлинеарность приводит к завышению значения множественного коэффициента корреляции.

  На  практике о наличии мультиколлинеарности обычно судят по матрице парных коэффициентов  корреляции. Если один из элементов  матрицы больше 0,8, т.е. | rjl | > 0,8, то считают, что имеет место мультиколлинеарность, и в уравнение регрессии следует включать один из показателей — хили xl.

  Чтобы избавиться от этого негативного  явления, обычно используют алгоритм пошагового регрессионного анализа или строят уравнение регрессии на главных  компонентах.  

    19.

20. термин “фиктивные переменные” используется как противоположность “значащим” переменным, показывающим уровень количественного показателя, принимающего значения из непрерывного интервала. Как правило, фиктивная переменная — это индикаторная переменная, отражающая качественную характеристику. Чаще всего применяются бинарные фиктивные переменные, принимающие два значения, 0 и 1, в зависимости от определенного условия. Например, в результате опроса группы людей 0 может означать, что опрашиваемый - мужчина, а 1 - женщина.

К фиктивным переменным иногда относят  регрессор, состоящий из одних единиц (т.е. константу, свободный член), а  также временной тренд.

Фиктивные переменные, будучи экзогенными, не создают  каких-либо трудностей при применении ОМНК. Фиктивные переменные являются эффективным инструментом построения регрессионных моделей и проверки гипотез.

Иногда  возникает необходимость включения  в модель фактор, имеющий два или  более качествен¬ных уровней. Это  могут быть разного рода атрибутивные призна¬ки, такие, например, как профессия, пол, образование, климати¬ческие условия, принадлежность к определенному  региону. Для того чтобы ввести такие  переменные в регрессионную модель, им должны быть присвоены те или  иные цифровые метки, т. е. каче¬ственные  переменные необходимо преобразовать  в количествен¬ные. Такого вида сконструированные  переменные в эконометри¬ке принято  называть фиктивными переменными.

Логистическая регрессия или логит регрессия (англ. logit model) — это статистическая модель, используемая для предсказания вероятности возникновения некоторого события путём подгонки данных к логистической кривой.

Логистическая регрессия применяется для предсказания вероятности возникновения некоторого события по значениям множества признаков. Для этого вводится так называемая зависимая переменная y, принимающая лишь одно из двух значений — как правило, это числа 0 (событие не произошло) и 1 (событие произошло), и множество независимых переменных (также называемых признаками, предикторами или регрессорами) — вещественных x1,x2,...,xn, на основе значений которых требуется вычислить вероятность принятия того или иного значения зависимой переменной.

Делается предположение  о том, что вероятность наступления  события = 1 равна:

    Pr{= 1 | x} = f(z),

    где  , и θ — вектора-столбцы значений независимых переменных x1,...,xи параметров (коэффициентов регрессии) — вещественных чисел θ1,...,θn, соответственно, а f(z) — так называемая логистическая функция(иногда также называемая сигмоидом или логит-функцией):

21.

. Основные этапы  проведения факторного анализа  и методика Чеботарева С.В.

Одним из наиболее широко распространенных методов факторного анализа яв-ляется метод цепных подстановок. Сущность этого метода заключается в том, что в исходную базовую формулу для определения результирующего показателя подстав-ляется отчетное значение первого исследуемого фактора. Полученный результат сравнивается с базовым значением результирующего показателя, и это дает оценку влияния первого фактора. Далее в полученную при расчете формулу подставляется отчетное значение следующего исследуемого фактора. Сравнение полученного результата с предыдущим дает оценку влияния второго фактора.

Процедура повторяется  до тех пор, пока в исходную базовую  формулу не будет подставлено  фактическое значение последнего из факторов, введенных в модель.

При использовании  метода цепных подстановок результаты во многом зависят от последовательности подстановки факторов. Существует правило: сначала оцени-вается влияние количественных факторов, характеризующих влияние  экстенсивно-сти, а затем -- качественных факторов, характеризующих влияние  интенсивности. Именно на качественные факторы ложится весь неразложимый остаток.

ОСНОВНЫЕ  ЗАДАЧИ ФАКТОРНОГО АНАЛИЗА.

    1.      Отбор факторов определяющих исследуемые результативные показатели.

    2.      Классификация и систематизация факторов с целью обеспечения комплексного и системного подхода к исследованию их влияния на результаты хозяйственной деятельности.

    3.      Определение формы зависимости между факторами и результативными показателями.

    4.      Моделирование взаимосвязей между факторами и результативными показателями.

    5.      Расчет влияния факторов и оценка роли каждого из них в изменении результативного показателя.

    6.      Работа с факторной моделью. Методика факторного анализа.

    ТИПЫ  ФАКТОРНОГО АНАЛИЗА

    1.      ДЕТЕРМИНИРОВАННЫЙ анализ – методика исследования влияния факторов, связь которых с результативными показателями носит функциональный характер, т.е. результативный показатель представлен в виде произведения, частного, алгебраической суммы факторов.

    2.      СТОХАСТИЧЕСКИЙ анализ – методика исследования факторов, связь которых с результативными показателями является вероятностной (корреляционной).

    3.      Методика ПРЯМОГО факторного анализа – исследование ведется от общего к частному (дедуктивный способ).

    4.      Методика ОБРАТНОГО факторного анализа – исследование ведется от частного к общему (индуктивный способ).

    5.      Методика ОДНОСТУПЕНЧАТОГО факторного анализа – исследуются факторы одного уровня (ступени) подчиненности, без их детализации на составные части.

    6.      Методика МНОГОСТУПЕНЧАТОГО факторного анализа – исследование проводится с детализацией факторов, таким образом изучается влияние факторов различных уровней соподчиненности.

    7.      Методика СТАТИСТИЧЕСКОГО факторного анализа – применяется при анализе на соответствующую дату.

    8.      Методика ДИНАМИЧЕСКОГО ФАКТОРНЫЙ АНАЛИЗ – методика исследования причинно-следственных связей в динамике.

    9.      Методика РЕТРОСПЕКТИВНОГО факторного анализа – изучает причины прироста результативных показателей за прошлые периоды.

    10. Методика ПЕРСПЕКТИВНОГО факторного  анализа – исследует поведение  факторов и результативных показателей  в перспективе. 

22.

Сущностью факторного анализа является процедура вращения факторов, то есть перераспределения  дисперсии по определённому методу. Вращение бывает ортогональным икосоугольным. При первом виде вращения каждый последующий фактор определяется так, чтобы максимизировать изменчивость, оставшуюся от предыдущих, поэтому факторы оказываются независимыми, некоррелированными друг от друга (к этому типу относится МГК). Второй вид — это преобразование, при котором факторы коррелируют друг с другом. Преимущество косоугольного вращения состоит в следующем: когда в результате его выполнения получаются ортогональные факторы, можно быть уверенным, что эта ортогональность действительно им свойственна, а не привнесена искусственно. Однако если цель ортогональных вращений — определение простой структуры факторных нагрузок, то целью большинства косоугольных вращений является определение простой структуры вторичных факторов, то есть косоугольное вращение следует использовать в частных случаях. Поэтому ортогональное вращение предпочтительнее. Существует около 13 методов вращения в обоих видах, в статистической программе SPSS 10 доступны пять: три ортогональных, один косоугольный и один комбинированный, однако из всех наиболее употребителен ортогональный метод «варимакс». Метод «варимакс» максимизирует разброс квадратов нагрузок для каждого фактора, что приводит к увеличению больших и уменьшению малых значений факторных нагрузок. В результате простая структура получается для каждого фактора в отдельности[1][3][2].

Главной проблемой  факторного анализа является выделение  и интерпретация главных факторов. При отборе компонент исследователь  обычно сталкивается с существенными  трудностями, так как не существует однозначного критерия выделения факторов, и потому здесь неизбежен субъективизм интерпретаций результатов. Существует несколько часто употребляемых  критериев определения числа  факторов 

Информация о работе Функциональная и корреляционная зависимости