Если бы мы знали значение
Вместе с тем мы знаем только, что
1. Величина DW меньше, чем
2. Величина DW больше, чем
З. Величина DW находится между
В случаях 1 и 2 тест Дарбина—Уотсона дает определенный ответ, но случай 3 относится к зоне невозможности принятия решения, и изменить создавшееся положение нельзя.
Проверка на отрицательную автокорреляцию проводится по аналогичной схеме, причем зона, содержащая критический уровень, расположена симметрично справа от 2. Величина (4-
Таким образом, если DW находится между
Для нашей модели DW=1.75,
4. Мультиколлинеарность
4.1. Мультиколлинеарность и ее последствия.
Мультиколлинеарность — это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок регрессии. Разумеется, такая зависимость совсем необязательно дает неудовлетворительные оценки. Если все другие условия благоприятствуют, т. е. если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена — мала, то в итоге можно получить вполне хорошие оценки.
Итак, мультиколлинеарность должна вызываться сочетанием нестрогой зависимости и одного (или более) неблагоприятного условия, и это — вопрос степени выраженности явления, а не его вида. Оценка любой регрессии будет страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии.
Эта проблема является обычной для регрессий временных рядов, т. е. когда данные состоят из ряда наблюдений в течение какого-то периода времени. Если две или более независимые переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности.
4.2 Обнаружение мультиколлинеарности
Основной способ проверки наличия мультиколлинеарности среди поясняющих переменных состоит в исследовании корреляционной матрицы, состоящей из выборочных частичных коэффициентов корреляции. Значимость одного или нескольких коэффициентов означает присутствие в регрессионной модели явления автокорреляции.
В случае двух объясняющих переменных частичный выборочный коэффициент корреляции между y и
Остальные частичные коэффициенты корреляции вычисляются аналогично. Для случая трех и более регрессоров также существуют подобные формулы, но вследствие их громоздкости представляется более приятным с практической точки зрения следующий метод: вычисляется матрица Z, обратная к матрице полной корреляции, и тогда частичный выборочный коэффициент между переменными
Вычислим полной корреляции для нашей модели.
х1 | х2 | х3 | х4 | |
х1 | 1 | -0,50916 | -0,664453715 | 0,301554799 |
х2 | -0,509162268 | 1 | 0,741273537 | -0,50786553 |
х3 | -0,664453715 | 0,741274 | 1 | -0,76295918 |
х4 | 0,301554799 | -0,50787 | -0,762959184 | 1 |
Вычислим матрицу Z.
2,187050344 | -0,05801 | 2,322440805 | 1,082952756 |
-0,05800602 | 2,261181 | -1,974634343 | -0,3406974 |
2,322440805 | -1,97463 | 6,478765795 | 3,239841974 |
1,082952756 | -0,3407 | 3,239841974 | 2,972269121 |
Вычислим теперь матрицу частичных коэффициентов корреляции
х1 | х2 | х3 | х4 | |
х1 | 1 | 0,026084 | -0,61698 | -0,42475 |
х2 | 0,026084 | 1 | 0,515909 | 0,131419 |
х3 | -0,61698 | 0,515909 | 1 | -0,7383 |
х4 | -0,42475 | 0,131419 | -0,7383 | 1 |
Коэффициенты частичной корреляции между
5. Спецификация модели
Если точно известно, какие объясняющие переменные должны быть включены в уравнение при проведении регрессионного анализа, то наша задача — ограничиться оцениванием их коэффициентов, определением доверительных интервалов для этих оценок и т. д. Однако на практике мы никогда не можем быть уверены, что уравнение специфицировано правильно. Экономическая теория должна указывать направление, но теория не может быть совершенной. Не будучи уверенными в ней, мы можем включить в уравнение переменные, которых там не должно быть, и в то же время мы можем не включить другие переменные, которые должны там присутствовать. Вообще говоря, в проблему спецификации модели входят также вопросы выбора функциональной зависимости между y и объясняющими переменными. Но так как в данном случае нас интересует непосредственно множественная линейная регрессия, то мы не будем здесь рассматривать приемы функциональной спецификации.