Автор: Пользователь скрыл имя, 12 Марта 2012 в 14:20, курсовая работа
Обработка статистических данных уже давно применяется в самых разнообразных видах человеческой деятельности. Вообще говоря, трудно назвать ту сферу, в которой она бы не использовалась. Но, пожалуй, ни в одной области знаний и практической деятельности обработка статистических данных не играет такой исключительно большой роли, как в экономике, имеющей дело с обработкой и анализом огромных массивов информации о социально-экономических явлениях и процессах. Всесторонний и глубокий анализ этой информации, так называемых статистических данных, предполагает использование различных специальных методов, важное место среди которых занимает корреляционный и регрессионный анализы обработки статистических данных.
1. Статистическое изучение взаимосвязи социально-
экономических явлений и процессов 4
2. Характеристика регрессионного анализа
2.1 Оценка взаимосвязи между факторным и
результативным признаком на основе регрессионного
анализа 11
2.2 Отбор факторных признаков для построения
множественной регрессионной модели 13
2.3 Проверка адекватности моделей, построенных
на основе уравнений регрессии 16
3. Применение регрессионного анализа для изучения
объекта исследования
В наиболее общем виде задача статистики в области изучения
взаимосвязей состоит в количественной оценке их наличия и направления, а также характеристике силы и формы влияния одних факторов на другие. Для ее решения применяются две группы методов, одна из которых включает в
себя методы корреляционного анализа, а другая – регрессионный анализ. В
то же время ряд исследователей объединяет эти методы в корреляционно-регрессионный анализ, что имеет под собой некоторые основания: наличие целого ряда общих вычислительных процедур, взаимодополнения при интерпретации результатов и др.
2 ХАРАКТЕРИСТИКА РЕГРЕССИОННОГО АНАЛИЗА
2.1 Оценка взаимосвязи между факторным и результативным признаком на основе регрессионного анализа
Парная регрессия характеризует связь между двумя признаками: результативным и факторным. Аналитически связь между ними описывается уравнениями [5]:
Прямой y0=a0+a1x
гиперболы y0=a0+a1
параболы y0=a0+a1+a2x2
и так далее.
Определить тип уравнения можно, исследуя зависимость графически, однако существуют более общие указания, позволяющие выявить уравнение связи, не прибегая к графическому изображению. Если результативный и факторный признаки возрастают одинаково, то это свидетельствует о том, что связь между ними линейная, а при обратной связи - гиперболическая. Если результативный признак увеличивается в арифметической прогрессии, а факторный значительно быстрее, то используется параболическая или степенная регрессия.
Оценка параметров уравнений регрессии (a0, a1, и a2 - в уравнении параболы второго порядка) осуществляется методом наименьших квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности и нахождении параметров модели (a0 , a1), при которых минимизируется сумма квадратов отклонений эмпирических (фактических) значений результативного признака от теоретических, полученных по выбранному уравнению регрессии:
S= Σ (y-yx)2→min
Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет
следующий вид:
где n - объем исследуемой совокупности (число единиц наблюдения).
В уравнениях регрессии параметр a0 показывает усредненное влияние на результативный признак неучтенных в уравнении факторных признаков; коэффициент регрессии a1 показывает, на сколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения.
На практике исследования часто проводятся по большому числу наблюдений. В этом случае исходные данные удобнее представлять в сводной групповой таблице. При этом анализу подвергаются сгруппированные данные и по факторному (x) и по результативному (y) признакам, то есть уравнения парной регрессии целесообразно строить на основе сгруппированных данных [6].
Если значения x и y заданы в определенных интервалах (a, b), то для каждого интервала сначала необходимо определить середину (x’/y’ = (a+b)/2), а затем уже коррелировать значения x’ и y’ и строить уравнения регрессии между ними.
Система нормальных уравнений для определения коэффициентов уравнения регрессии примет вид:
где n= - число анализируемых предприятий;
fx/fy - число предприятий, согласно распределению, соответственно по
факторному и результативному признакам;
yfy / xfx - значения результативного и факторного признака по конкретной группе предприятий.
2.2 Отбор факторных признаков для построения множественной регрессионной модели
Изучение связи между тремя и более связанными
между собой признаками носит название
множественной (многофакторной) регрессии: y1,2,…,k=f(x1,x2,…,xk)
Построение моделей множественной регрессии включает несколько этапов [7]:
1. Выбор формы связи (уравнения регрессии);
2. Отбор факторных признаков;
3. Обеспечение достаточного объема совокупности.
Выбор типа уравнения затрудняется тем, что для любой формы зависимости можно выбрать целый ряд уравнений, которые в определенной степени будут описывать эти связи. Основное значение имеют линейные модели в силу простоты и логичности их экономической интерпретации.
Важным этапом построения уже выбранного уравнения множественной регрессии является отбор и последующее включение факторных признаков.
С одной стороны, чем больше факторных признаков включено в уравнение, тем оно лучше описывает явление. Однако модель размерностью 100 и более факторных признаков сложно реализуема и требует больших затрат машинного времени. Сокращение размерности модели за счет исключения второстепенных, экономически и статистически несущественных факторов способствует простоте и качеству ее реализации.
В то же время построение модели регрессии малой размерности может привести к тому, что такая модель будет недостаточно адекватна исследуемым явлениям и процессам.
Проблема отбора факторных признаков для построения моделей
взаимосвязи может быть решена на основе интуитивно-логических или
многомерных статистических методов анализа [8].
Наиболее приемлемым способом отбора факторных признаков является шаговая регрессия (шаговый регрессионный анализ).
Сущность метода шаговой
регрессии заключается в
Фактор является незначимым, если его включение в уравнение регрессии только изменяет значения коэффициентов регрессии, не уменьшая суммы квадратов остатков и не увеличивая их значения. Если при включении в модель соответствующего факторного признака величина множественного коэффициента корреляции увеличивается, а коэффициента регрессии не изменяется (или меняется несущественно), то данный признак существенен и его включение в уравнение регрессии необходимо. В противном случае, фактор нецелесообразно включать в модель регрессии.
При построении модели регрессии возможна проблема мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель (rxij >0,8).
Наличие мультиколлинеарности между признаками приводит к:
В качестве причин возникновения мультиколлинеарности между признаками, можно выделить следующие:
Устранение мультиколлинеарности может реализовываться через исключение из корреляционной модели одного или нескольких линейно-связанных факторных признаков или преобразование исходных факторных признаков в новые, укрупненные факторы [9].
Вопрос о том, какой из факторов следует отбросить, решается на основании качественного и логического анализа изучаемого явления.
Качество уравнения регрессии зависит от степени достоверности и надежности исходных данных и объема совокупности. Исследователь должен стремиться к увеличению числа наблюдений, так как большой объем наблюдений является одной из предпосылок построения адекватных статистических моделей.
Аналитическая форма связи результативного признака от ряда факторных выражается и называется многофакторным (множественным)
уравнением регрессии или моделью связи.
Линейное уравнение множественной регрессии имеет вид: y1,2,…,k=a0+ax1+ax2+…+axk , (2.8)
где y1,2,…,k - теоретические значения результативного признака, полученные в результате подстановки соответствующих значений факторных признаков в уравнение регрессии; x1,x2,…,xk
x1,x2,…,xk - факторные признаки;
a1,a2,…,ak - параметры модели (коэффициенты регрессии).
Параметры уравнения могут быть определены графическим методом, методом наименьших квадратов и так далее.
2.3 Проверка адекватности моделей, построенных на основе уравнений регрессии
Интерпретация моделей регрессии осуществляется методами той отрасли знаний, к которой относится исследуемое явление. Но всякая интерпретация начинается со статистической оценки уравнения регрессии в целом и оценки значимости входящих в модель факторных признаков.
Чем больше величина коэффициента регрессии, тем значительнее влияние данного признака на моделируемый [10].
Знаки коэффициентов регрессии говорят о характере влияния на результативный признак. Если факторный признак имеет знак плюс, то с увеличением данного фактора результативный признак возрастает; если факторный признак имеет знак минус, то с его увеличением результативный признак уменьшается.
Если экономическая теория подсказывает, что факторный признак должен иметь положительное значение, а он имеет знак минус, то необходимо проверить расчеты параметров уравнения регрессии. Такое
явление чаще всего бывает в силу допущенных ошибок при решении. Однако следует иметь ввиду, что когда рассматривается совокупное влияние факторов, то в силу наличия взаимосвязей между ними характер их влияния может меняться.
С целью расширения возможностей экономического анализа, используются частные коэффициенты эластичности, определяемые по формуле:
Эxi=a1*