6.2. Корреляция по времени Авторегрессионный процесс первого порядка
Как и раньше, рассмотрим модель
у = Хр + е, (6.5)
где t-я компонента вектора у представляет значение зависимой переменной в момент времени t, t = 1,...,п. Будем для определенности считать, что первым регрессором в X является константа. Запишем подробнее уравнение для наблюдения в момент времени t:
yt = Pi+ fapa. + ?•?+ PkXtk + St= x'tP + St, (6.6)
где x't = (l,xt2, • • • ,xtk) — t-я строка матрицы X.
(6.7)
?t = p?t-1 + VU Один из наиболее простых способов учета коррелированно- сти ошибок (в разные моменты времени) состоит в предположении, что случайная последовательность t — 1,... ,п} образует авторегрессионный процесс первого порядка. Это означает, что ошибки удовлетворяют рекуррентному соотношению где {i/t, t = l,...,n} — последовательность независимых нормально распределенных случайных величин с нулевым средним и постоянной дисперсией <т2,&р — некоторый параметр, называемый коэффициентом авторегрессии (|р| < 1). Строго говоря, для полного описания модели надо определить Єо.
Будем считать, что Єо — нормальная случайная величина с нулевым средним и дисперсией о\ = <73/(1 - /о2), не зависящая от {ut, t = 1,... ,п}. Из дальнейшего станет ясно, почему у єо именно такие параметры. Взяв математическое ожидание от обеих частей (6.7), получим Eet = pEet-i, откуда следует, что Eet = 0, t = 1,...,«. Поскольку et-i выражается через vі, •. •, ft_i (см. (6.7)), то et_i и vt независимы. ПоэтомуЕ (є*) = Е (реы + щ)2 = р2 Е (?.,) + Е v2 = р2Е (є2.,) + о2и.
Легко проверяется, ЧТО если Е (ejj) = ~ Р2)' т0
о2 = Е (г?) = V (et) = <7?/( 1 - р2), t = 1,..., п. (6.8)
Умножая (6.7) наєе_і и вновь пользуясь независимостью ?t-i и vt, получим
E{?t?t-l) = Cov(?t,?t-i) = pV(?t-i)=p02. (6.9)
Аналогично Cov(et,et-2) = P2 Таким образом, последовательность {et} образует стационарный1 случайный процесс. Именно этим обстоятельством диктовался выбор параметров начальной величины єо- На самом деле, с течением времени зависимость ?t от Єо быстро уменьшается, поэтому в большинстве книг по эконометрике проблему начальных условий для {^t} просто не рассматривают, неявно подразумевая, что процесс (6.7) при любом начальном значении быстро сходится к стационарному. Отметим также, что условие \р\ < 1 является необходимым для стационарности.
'Более подробно понятие стационарности будет рассмотрено в главе 11.
Из (6.9) следует, что
р = Cov (et,?t-i)/42 = Cov (et,et_i)/(V (e't)1^2V (et-i)1/2),
т. e. p есть в точности коэффициент корреляции между двумя соседними ошибками. Пользуясь (6.10), можно выписать ковариационную матрицу случайного вектора е:
1
р
Р2 .
• рП-П
я-2
р
1
р
1 -г
Р2
р
1
. pn~z
Рп12
pn~z .
і
Оценивание в модели с авторегрессией
Проблему оценивания системы (6.5) рассмотрим отдельно для случая, когда коэффициент р известен, и отдельно — когда неизвестен.
1. Значение р известно. В этом случае для оценивания системы (6.5) можно применить обобщенный метод наименьших квадратов. Vt-i = i/3 + Ct-i,
умножим обе части на р и вычтем почленно из (6.6). Тогда с учетом (6.7) получим
Vt ~ т-1 = (®t - pxt-i)'P + Щ- (6.11)
При t = 1 достаточно обе части уравнения (6.6) умножить на
у/1 - Р2У\ = \Л -р2 х\р + \Л - Р2еі • (6.12)
В системе (6.11), (6.12) ошибки удовлетворяют условиям уже обычной регрессионной модели. Действительно, в (6.11) случайные величины {t^, t = 2,...,7i} независимы и имеют постоянную дисперсию а2, а в (6.12) ошибка у/1 — р2єі не зависит от {i>t, t = 2,... ,п} и, согласно (6.8), также имеет дисперсию а2.
На практике часто опускают преобразование (6.12), игнорируя тем самым первое наблюдение. С одной стороны, благодаря этому, преобразование исходной модели (6.5) становится единообразным. В частности, для получения оценки параметра /?і достаточно оценку свободного члена в (6.11) разделить на (1—р). С другой стороны, отбрасывание первого наблюдения может привести к потере важной информации, особенно в выборках небольшого размера.
2. Значение р неизвестно. Ситуации, когда параметр авторегрессии р известен, встречаются крайне редко. Поэтому возникает необходимость в процедурах оценивания при неизвестном р. Как правило, они имеют итеративный характер. Опишем три наиболее употребительные. Мы не будем устанавливать сходимость этих процедур, практика их применения показала, что они достаточно эффективны.
Процедура Кохрейна-Оркатта (Cochrane-Orcutt). Начальным шагом этой процедуры является применение обычного метода наименьших квадратов к исходной системе (6.5) и получение соответствующих остатков е = (ei,... ,еп)'. Далее,
1) в качестве приближенного значения р берется его МНК- оценка г в регрессии et = pet-i + vt',
2) проводится преобразование (6.11) (или (6.11), (6.12)) при р = г, и находятся МНК-оценкн /3 вектора параметров /3;
3) строится новый вектор остатков е = у — X /3;
4) процедура повторяется, начиная с п. Процесс обычно заканчивается, когда очередное приближение р мало отличается от предыдущего. Иногда просто фиксируется количество итераций. Процедура Кохрейна-Оркатта реализована в большинстве эконометрических компьютерных программ.
Процедура Хилдрета-JIy (Hildreth-Lu). Суть процедуры достаточно проста. Из интервала (—1,1) возможного изменения коэффициента р берутся последовательно некоторые значения (например, числа с постоянным шагом 0.1 или 0.05) и для каждого из них проводится оценивание преобразованной системы (6.11). Определяется то значение этого параметра, для которого сумма квадратов отклонений в (6.11) минимальна. Затем в некоторой окрестности этого значения устраивается более мелкая сетка и процесс повторяется. Итерации заканчиваются, когда будет достигнута желаемая точность. Время работы процедуры, очевидно, сокращается, если есть априорная информация об области изменения параметра р.
Процедура Дарбина (Durbin). Преобразованная система (6.11) переписывается в следующем виде:
Vt = Р\ (1 - р) + т-1 + 02^2 - pfoxt- 12+--+PkXtk-pPkXt-lk + Vt,
т.е. з/t-i включается в число регрессоров, а р — в число оцениваемых параметров. Для этой системы строятся обычные МНК- оценки г и 9j параметров р и pfij соответственно. В качестве оценки берут в]/г. Можно улучшить качество оценок /3, подставив полученное значение г в систему (6.11), и найти новые МНК- оценки параметров (3.
Еще по теме 6.2. Корреляция по времени Авторегрессионный процесс первого порядка:
- 2.1. Деление гражданского процесса
- III. ЗОЛОТОЕ СЕЧЕНИЕ В ПРИМЕНЕНИИ К РАСЧЛЕНЕНИЮ ВРЕМЕНИ.
- 4.3. ЛИНЕЙНЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ ПЕРВОГО ПОРЯДКА
- 5.3. ЛИНЕЙНЫЕ РАЗНОСТНЫЕ УРАВНЕНИЯ ПЕРВОГО ПОРЯДКА
- 4.3. Частная корреляция
- Глава 6 Гетероскедастичность и корреляция по времени
- 6.2. Корреляция по времени Авторегрессионный процесс первого порядка
- Тест Дарбина-Уотсона на наличие или отсутствие корреляции по времени
- Упражнения
- 7.3. Прогнозирование при наличии авторегрессии ошибок
- 11.2. Динамические модели