21. Аддитивная модель y=Tt+St+Ct+εt Мультипликативная модель y=Tt*St*Ct*εt Смешанная модель y=Tt*St*Ct+εt . Аддитивная модель примен. относит. пост. созенных колебаний. Мультип.-при возр или уб. амплитуды колебаний. Осн. э т а п ы анализа врем. рядов:
графич. представл. и опис. поведения врем. ряда; выделение и удаление закономерных (неслучайных) составляющих врем. ряа (тренда, сезонных и циклич.оставляющих); сглаживание и фильтрация (удаление низко- или высокочастотных составляющих врем.ряда); исслед.случ.составляющей врем. ряда, построение и проверка адекватности матем. модели для ее опис.; прогнозирование развития изуч. процесса на основе имеющ. врем. ряда; исследование взаимосвязи между разл. врем. рядами.
22. Важное знач. в анализе временных радов имеют стац. врем. ряды, вероятностные с-ва которых не изм. во времени. Стац. врем. ряды примен. при опис. случ. составляющих анализ. рядов. Простейшим примером стац. врем. ряда, у которого мат. ожидание = нулю, а ошибки ε некоррелированы, является «белый шум». В классич. лин. регр. модели случ отклон. образ. белый шум. Автокоррел это коррел. между наблюд. показат. упоряд. во времени или пространстве.Ф-ию r(τ) назыв. выборочн. автокорреляц.
ф-ей, а ее график — коррелограммой.
При расч. r(τ) следует помнить, что с увелич. τ число n- τ пар наблюдений yt, yt+τуменьш., поэтому лаг τ должен быть таким, чтобы число п- τ было достат. для опред. r(τ). Обычно ориентируются на соотн. τ<п/4. Для временных рядов как правило имеет место автокрреляция остатка.Положит. автокорр. означ.,что положит и отриц. отклон. не разбросаны случ. образом вокруг линии регр.,а образ. группы:положит. сосед. с положит.,а отриц. с отриц.Отриц автокор. означ.,что за положит. отклон. след. отриц и наоборот. Осн. причины автокорр: 1)ошибки спецификации – неучет составл. фактора или неправ. выбор ур-я регр. 2)цикличность экономич. развит. 3)эффект запаздывания – многие экономич. показат. реагируют на измен. условий с запаздыванием. 4)сглаживание данных. Последсвтия автокор. остатков: 1)оценки параметров по МНК, оставаясь несмещ. и состоят. перестают быть эффект. 2)дисперсии оценок явл. смещенными и несостоят. 3)выводы по t и F статистикам, опред. значимость коэфф. регр. и детерминации могут быть неверными.
23. Графический метод 1)положит. а/к 2)отсутсвт а/к 3)отриц. а/к . Метод рядов. Рядом назыв. непрерывная проследов. одинак. знаков остатков. Длиной ряда назыв. кол-во знаков в ряду. Если рядов мало по сравн. с объемом выборки, то вероятна полож. автокорр.Если рядов много, то вероятна отриц. автокор. Пусть n- обём выборки. В ней n1-общее кол-во знаков «+» n2-общее кол-во знаков минус. К- кол-во рядов.Разраю таблица критич. знач. кол-ва рядов при n=n1+n2 наблюд. На пересеч. строки n1 и столбца n2 опред нижняя K1 и верхняя K2 критич знач. по уровню знач α=0,05. Если К1<K<K2 то автокор. отсутств. Если К<К1 то присутсвт. положит автокор. Если К>К2, то автокор отриц. Критерий Дарбина-Уотсона.Статистика Дарбина-Уотсона тесно связана с выборочным коэфф. корреляции retet-124. В лин. регр. модели наиболее целесообр методом устран. автокорр. явл. авторегр. схема 1 порядка, суть кот. сост. в след: рассм модель парной лин. регр. yt=α+βxt+εt. Тогда для наблюд. в моменты времени tи t-1 знач. завис. переем. равны : yt=α+βxt+εtyt-1=α+βxt-1+εt-1. Пусть εt подверж. воздействию авторегр. 1 порядка εt=ρ* εt+νt , где νt (t=1,2,...n) – случ. отклон.,удовлет. всем предпосылкам КЛРМ,а ρ-известен. Вычтем из yρ*yt-1yt=α+βxt+εtρ*yt-1=ρα+ρβ(t-1)+ρεt-1. Обозначим yt*=yt-ρyt-1xt=t-ρ(t-1) α*=α(1-ρ) β*=βyt*=α*+β*xt+νt. а* и b* теоретич. параметров α* и β* сделанные по МНК согласно теореме Гаусса-Маркова будут несмещ. уt*=a*+b*xtyHT=aH+bHt
bH=b* aH=a*/1-ρ. Оценка ρ на основе статистики Дарбина-Уотсона. d-статистика Д.-У. тесно связана с коэфф. коррел. соседних остатков. В кач-ве оценки ρ м.б. взят выбор. коэфф. а/к retet-1
rчерез d2(1-r)=dr=d/2-1. Таким образом в опис. выше алгоритме устран. а/к вместо неизв. теоретич. параметра ρ в расч. можно исп. его выбор. оценку r=1-d/2
25. На любой экономич. показат. чаще всего оказ. влияние не один,а неск. факторов. В этом случае вместо ф-ии парной регрессии рассм. ф-ия множеств. регр. M(Y|X1=x1;X2=x2;…Xm=xm)=f(x1;x2;…xm). Теоретич. модель множеств. лин. регр. имеет вид Y=β0+βX1+β2X2+….βmXm+ε .Для индивид. наблюд. yi= β0+βx1+β2x2+….βmxm+ε . Коэфф. βj назыв j-ым теоретич. частным коэфф. регрессии.Параметр β0 опред. знач. Yв случае, когда все факторы xj=0. Пусть имеется n-наблюд. вектора объясн. переменных Х=(Х1,Х2….Хn) (хj1….xjm) Если n=m+1 βjрассчит. едиснтв. образом путем решения сис-мы
Если n<m+1,сис-ма будет иметь бескон. множество решений. Если n>m+1,нельзя подобр. линейную ф-ию Y=β0+βX1+β2X2+….βmXm точно удовлетв. всем наблюд. и возник. необх. оптимиз.Число степен. свободы есть мера независ. варьир. переем. В данном случае K=m+1 число степеней свободы ν=n-m-1.Для обеспеч статист. надежности модели треб.,чтобы выполн. соотн n>3K.Самым распростр. методом оценки парамтров модели –МНК.Предпосвылки МНК. Под мультикаллин. поним. высокая взаимная коррелир. объясняющих переменных, Мультиколлин.может проявл. в функциональной (явной) и стохастической
(скрытой) формах. При функц. формемультиколл. по крайней мере одна из парных связей между объясн. переменными является лин. функц. зависимостью.
Стохастической форме, когда между хотя бы двумя объясняющ. переменными сущ. тесная корреляц. связь. Термин «гетероскедастичность» в широком смысле означ.
предполож. о дисперсии случ. ошибок регресс. модели.Наличие гетероскед. в регресс. модели может привести к негат. последствиям
26. Самым распростран. методом оценки параметров ур-я множеств. лин. регр. явл. метод наим. квадратов. Его суть состоит в минимизации суммы квадратов отклон. наблюд. знач. в завис. перем. Yот ее знач. Ϋ, получ. по ур-ю регр.При выполн. предпосылок множеств. регресс.
анализа оценка метода наим. квадратов b = (X'X)-1X'Y явл. наиболее эффект., т. е. облад. наим. дисперсией в классе лин. несмещ. оценок.Расчет коэфф. Истин. знач. βj по выборке получ. невозможно.На основании выбор. данных необх. найти империч. ур-я регр.Y=β0+βX1+β2X2+….βmXm+ε . Для индивид. наблюд. yi= β0+βx1+β2x2+….βmxm+ε. (b0,b1….bm- империч. коэфф. регрессии). По данным выборки объема nxi1,x2i….xin;yiтребуется оценить βj. Остатки равны ei=yi-b0-b1x1-….bmximсогласно методам наим. квадр. нах. оценок b0,b1….bmмнимиз. сумма квадр остатков . Необх. условием минимума ф-ия Qeявл. равенство нулю частных производных 1 порядка.Приравн. их к нулю получ сис-му m+1 лин. уравнений (далее система): Σ(yi-(b0+Σbjxij)=0
Σ(yi-(b0+Σbjxij))xij=0. Эта сис-ма назыв. сис-мой норм. ур-ий. Существует единственное решение этой сис-мы. Представ. данные наблюд. и соотв. коэфф. в матричной форме. Y-вектор столбец размерности nнаблюдений зависимой переменной.X- матрица размерности n(m+1) в которой i-я строка представ. наблюд. вектора значений переменных.В- вектор столбец параметров ур-я регрессии.
В матричной форме справедливы равенства Y=XB+eQe=Σei2Qe=eTeQe=YTY-2BTXTY+BTXTXBЗдесь XTYTBTeTвекторы матрицы,транспонир. к XYBeсоотв. Необх. условием экстремума ф-ии Qeявл. равенство нулю производной dQe/dB. dQe/dB= -2X-TY+2XTXB. Приравняв dQe/dB к нулевой матрице получим общую формулу оценок параметров модели -2XTY+2XTXB=0
(XTX)B=XTY (XTX)B=XTY B=(XTX)-1XTY
Как и в случае множественной регрессии, статистическая значимость коэффициентов множественной регрессии с m объясняющими переменными проверяется на основе t-статистики: