Если связь между признаками криволинейная и описывается уравнением параболы, то система нормальных уравнений будет иметь следующий вид:
N*A0 + A1*∑X + A2*∑X2 = ∑Y,
A0*∑X+A1*∑X2+A2*∑X3=∑XYA0*∑X2+A1*∑X3+A2*∑X4= ∑X2Y (2.4)
Оценка обратной зависимости между Х и У осуществляется на основе уравнения гиперболы. Тогда система нормальных уравнений выглядит так: N*A0 + A1*∑1/X = ∑X
A0*∑1/X + A1∑1/X2 = ∑Y/X
11. Множественная регрессия Изучение связи между тремя и более связанными между собой признаками носит название множественной регрессии. Она описывается функцией следующего вида:
Y1,2,….K=F(X1, X2,…..XK) (2.6)
Построение моделей множественной регрессии включает следующие этапы:
1. Выбор формы связи.
2. Выбор факторных признаков.
3. Обеспечение достаточного объёма совокупности для получения несмещённых оценок.
Выбор типа уравнения затрудняется тем, что для любой формы зависимости можно выбрать целый ряд уравнений, которые эти связи будут описывать.
Практика построения многофакторных моделей показывает, что все реально существующие зависимости между социально-экономическими можно описать используя 5 типов моделей.
1. Линейная Y(X)=A0+A1*X1+A2*X2+…+AK*XK (2.7)
2. Степенная Y(X)=A0*X1A1*X2A2*…*XKAK (2.8)
3. Показательная Y(X)=eA0+A1*X1+A2*X2+…+Ak*Xk (2.9)
4. Параболическая Y(X)=A0+A1*X12+A2*X22+…+AK*XK2 (2.10)
5. Гиперболическая Y(X)=A0+A1*1/X1+A2*1/X2+…+AK*1/XK (2.11)
Основное значение имеют линейные уравнения в силу их простоты и логичности экономической интерпретации.
12.Проблемы построения модели регрессии. Пути их преодоления. Важнейшим этапом построения выбранного уравнения множественной регрессии является отбор и последующее включение факторных признаков. Проблема отбора факторных признаков может быть решена на основе интуитивно-логических или многомерных методов анализа. Наиболее приемлемым способом является ШАГОВАЯ РЕГРЕССИЯ. Сущность этого метода заключается в последовательном включении факторов в уравнение регрессии и последующей их проверке на значимость. Факторы поочерёдно вводятся в уравнение прямым методом. При поверке на значимость определяется на сколько уменьшается сумма квадратов остатков и увеличивается величина множественного коэффициента корреляции.
При построении модели регрессии можно столкнуться с проблемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включёнными в модель. Данная проблема существенно влияет на результаты исследования. Устранить её можно, исключив из корреляционной модели один или несколько линейно связанных факторов или преобразовав исходные признаки в новые укрупнённые факторы.
13. Оценка существенности корреляционной зависимости. Измерение тесноты и направленности связи является важной задачей корреляционно-регрессионного анализа. Теснота связи при линейной зависимости измеряется с помощью линейного коэффициента корреляции: R=
(2.12) Значимость линейного коэффициента корреляции проверяется на основе t-критерия Стьюдента, то есть определяется расчётное значение данного показателя: (2.13) Если tр больше tтаб, то это свидетельствует о наличии зависимости между изучаемыми признаками. Теснота связи при криволинейной зависимости измеряется с помощью эмпирического корреляционного отношения: η= (2.14) где -факторная дисперсия, которая показывает вариацию результативного признака под влиянием факторного признака. (2.15) -общая дисперсия, которая показывает вариацию результативного признака под влиянием всех факторов. (2.16) Множественный коэффициент корреляции определяется при наличии линейной связи между результативным и несколькими факторными признаками:где
-остаточная дисперсия, которая показывает вариацию результативного признака под влиянием неучтённых факторов. Проверка значимости множественного коэффициента корреляции определяется на основе F-критерия Стьюдента. (2.19) 14. ПРОВЕРКА АДЕКВАТНОСТИ РЕГРЕССИОННЫХ МОДЕЛЕЙ. Проверка адекватности моделей, построенных на основе уравнения регрессии начинается с оценки значимости каждого коэффициента регрессии, т. е. Определяется расчётное значение t-критерия Стьюдента. (2.20) -дисперсия коэффициента регрессииЕсли t расчётное больше t табличного при (α; V=n-k-1), где α - уровень значимости, V=n-k-1 число степеней свободы.
(2.21)где
- дисперсия результативного признака,k – количество объясняющих переменных.
Проверка адекватности этой модели осуществляется с помощью расчёта средней ошибки аппроксимации
(2.22)Величина данной ошибки не должна превышать 15 %.
15. Понятие случайной переменной. Ее математическое ожидание (М.О.).
Случайная переменная - это любая переменная значение которой, не может быть точно предсказано.
М.О-ие случайной величины- это взвешенное среднее всех ее возможных значений. При этом в качестве весового коэффициента берется вероятность соответствующего исхода.
Пусть случайная величина может принимать некоторые значения (E1,E2, …,En) и вероятность их получения равна (р1,р2,…,рn).Тогда М.О. случайной переменной определяется след.образом:
(3.1)
16. Правила расчета М.О.
Существуют следующие правила расчета М.О.:
Правило1: М.О. суммы нескольких переменных равно сумме их
М.О-ий: (3.2)
Правило2: если случайную величину умножить на константу, то ее М.О-ие увеличится во столько же раз.
Е(а´ε)= а´Е(ε) (3.3)
Правило3: М.О. константы - есть она сама: F(a)=a (3.4)
17. 4-ре условия Гаус Маркова.
Для того чтобы анализ, основанный на методе наименьших квадратов давал лучшие результаты, необходимо выполнение условия Гас- Маркова для случайных составляющих:
1. М.О. случайного члена в любом наблюдении должно быть равно нулю: Е(εi)= 0
В некоторых ситуациях случайный член будет положительным иногда отрицательным, но он не должен иметь систематического смещения не в 1-ом из направлений.
Если уравнение регрессии включает постоянный член, то это условие выполняется автоматически. Т.к. роль константы состоит в том, чтобы
определить любую тенденцию, в которой не учитывают объясняющие переменные, включенные в уравнение регрессии.
2. Дисперсия случ. члена должна быть постоянна для всех наблюдений.
pop.var (Ei)- теоретическая вариация. (3.6)
pop.var(Ei) =
^2Ei -одинакова для всех i. (3.6) Если рассматриваемое условие не выполняется, то коэффициенты регрессии будут не эффективны.3. Это условие предполагает отсутствие системной связи между значениями случайного члена в любых 2-ух наблюдениях.
(3.7) Т.е. если случ. член велик и положителен в олном наблюдении, это не обуславливает тенденцию к тому, что он будет большим и положительным в другом наблюдении. Случ. члены должны быть независемы друг от друга.
4. С.ч-н должен быть независимо распределен от объясняющей переменной. Значение независимой переменной в каждом наблюдении должно считаться полностью определенным внешними причинами, которые не учитываются в уравнении регрессии. Если условие выполняется, то теоретическая вариация между независимой переменной и случ. членом равна 0. Pop var (xi, εi)=0 (3.8)
18.Условия гомо и гетероскедастич-сти. Последствия гетероске-сти.
Первые два условия Гаус Маркова указывают, что случайные члены появ-ся на основе вероят-тных распреде-й, имеющих нолевое мат-кое ожидание и одну и ту же дисперсию. Их факти-кие знач-я иногда будут полож-ми, иногда отриц-ми, но но они не будут иметь сильных отклонений в любом наблю-ии, т.е вероят-ть того, что величина e примет какое-то значение, будет одинаковой для всех наблюде-й. Здесь имеет место условие гомоскедастич-ти:Ф(3.6)
одинакова для всех i. Вместе с тем возможно, что теори-ское распред-е случайного члена яв-ся разным для различ-х наблюд-й выборки. Это не означает, что слячайный член будет иметь особенно большие отклонения в конце выборки, но вероят-сть их получения будет высокая, т.е имеет место условие гетероскедаст-ти: Ф(3.6) не одинакова для всех.