Регрессия с ARCH-процессом в ошибке
сии могут иметь практическое значение. Владельцев активов интересует, как получить прогноз риска на ряд следующих периодов, если известна информация за текущий и предшествующие периоды.
Для моделирования таких процессов используется понятие условной авторегрессионной гетероскедастичности (ARCH, autoregressive conditional het- eroskedasticity). Ввел это понятие Энгл (Engle, 1982). Основная идея состоит в том, что дисперсия ошибки в момент i зависит от величины квадрата ошибки в предшествующие периоды времени.
Процесс ARCH(p) имеет следующий вид:
? = Щ^Щ) = J + Г1ЄІ1+І2ЄІ2+ ... +Ypsf-p.
Q.i обозначает информацию, которая имеется к моменту i, т. е. все наблюдаемые переменные в момент i - 1 и ранее. В частности, для ARCH(1)
2 2 V = J+ УіЄ-г
Предполагают, что j> 0, ук > 0, чтобы дисперсия не могла оказаться отрицательной.
В случае, когда Є имеют нормальное распределение, очередное значение задается формулой
Є = ViZi, где Z~NID(0,1).
или Є = 4ід/ j+ у і Є-1+І2 Є-2 + ... +YpSi-p-
Такой процесс имеет большое сходство с авторегрессионным.
Обозначим безусловную дисперсию через V2. Тогда, если взять ожида-
ния от обеих частей в формуле для дисперсии, получим
v2 = J+ YiV2 + Y2V2 + ... +yv2. Здесь мы воспользовались формулой полного математического ожида
ния:
E(V2) = Е(Е(Є2РІ) ) = Е(Є2) = V2. Получаем выражение для безусловной дисперсии
v2 = J
v = p .
1 - ІІк к = 1
Отсюда видно, что для того, чтобы ARCH-процесс был стационарным
p
необходимо, чтобы І ук < 1.
к = 1
На практике структура лага у1, ...
, yp неизвестна и ее приходится оценивать. Если p большое, то приходится оценивать слишком много коэффициентов. В таком случае можно наложить априорные ограничения. Энгл, например, взял? ? ? ?
у1 = 0.4^ , Уі = 0.3Y , Уз = 0.2Y , У4 = 0.1 у ,
поэтому вместо четырех коэффициентов, ему надо было оценить только один
*
Y .
Если воспользоваться бесконечным геометрическим лагом, то можно преобразовать модель к виду
а2 = 1+ У1ЄІ1 + ^Юі—1. Эта модель называется GARCH(1,1). Как ARCH похожа AR на , так GARCH похожа на ARMA. Модель GARCH предложена Боллерслевом (Bollerslev, 1986).
GARCH(p, д)имеет вид:
а = 1+ ПЄ-1+ ... +ГрЄі-Р+ ^1^,-1+ ... + ^О-Т
2 2 2 2 2
—p
p q
=1+ I Yk Є—k + I 4 alk.
k = 1 k = 1
Безусловная дисперсия равна
а2 = 1
p q
1 - I Yk - I 4 k = 1 k = 1
Регрессионная модель с нормально распределенной GARCH-ошибкой имеет вид:
Yj = Xiв+ є, є ~N(0, а2),
где аа вычисляется по данной выше формуле. К сожалению, не существует
простого способа оценивания регрессии с GARCH-процессом в ошибке.
Логарифмическая функция правдоподобия для одного наблюдения равна
1 1 е 2 \\ 11 і=2 lnof - 2 а=2 ыа2 - 2 "О2 (Yj - Xt в)2,
для всего вектора наблюдений
2
1 2 1 eі 1 = Е/,=2 1по - 2 =
1 2 1 1 2 =2 I in^i2 - 2 Ii-2 (Y - Xttf,
a
i
2
где a вычисляется рекуррентно:
p q
a2(A y S) =p + X yk elk(fi) + X S a-k(A Y, S).
k = 1 k = 1
Обозначим a = ( p, Y1,... ,Yp, S,... , Sq)T, г,- = (1, є-Р ... , є-р, a-1, ..., a-p)T. Тогда af =aJz,.
Вклад в градиент отдельного наблюдения:
2 2
di=1)+х X
ер-2 a2 дв(a2- + a2 e,Xi, 2 2
di=I 1 da (fL - 1)
da 2 a2 da (a2
і і
Производные условной дисперсии вычисляются рекуррентно:
а 2 л 2
a „p v q ? da-k
"дв = "2 I Yk X,-k e,-k + z Sk -ду, k 1 k 1
а 2 л 2
a q da ,
i_ T о ,-k
да = z- + kI1Sk da ¦ k = 1
Приведенные формулы уже позволяют применить метод BHHH (OPG), как предложил Боллерслев. Однако, метод, как обычно, работает плохо в смысле сходимости и точности оценивания ковариационной матрицы оценок МП.
Другие методы, — Ньютона, удвоенной регрессии, — работают гораздо лучше. Рассмотрим метод, использующий оценку информационной матрицы, в которой ожидания берутся только частично — только условные ожидания.Чтобы найти оценку информационной матрицы, возьмем в точке истинных параметров математическое ожидание условное по информации, имеющейся на момент i (О,-), от матрицы внешнего произведения градиента i-го наблюдения. Поскольку ожидание условное, то единственной случайной компонентой будет ошибка (в точке истинных параметров остатки равны
ошибкам). При этом пользуемся тем, что 2 2
E(( a - 1) є | О,) =0, E(( a - 1)2 | О,) = 2 и Б(є2 | О,) =a2.
aa
i i
а 2 л 2
ддк ді1 двдв1
а да 1
Е(двдвт I П) = - 2 (~2)2 дв - Т2 Xt Xi
(а2)2 авав1 а
1 1
ді, ді
а 2 ^ 2 а д_
E(
(а.2)2 да дат
дада
т |П) = - 2 (а2)2
ді, ді,
1 1
да. да2
E(
дадвт |Qj) 2 (а2)2 да двт .
Информационная матрица равна безусловному ожиданию суммы условных мат. ожиданий гессианов со знаком минус:
ді Я/-
zNO)=—E(I,E( § O I n,.))
2 2
n 11 да, да, 1 т
Хяя = I,E( 2 "дв дв + ~ X,X, ),
i2
в
(а2)2 дв дв1 __
да. да2
2 2 1 1 да да
f Nn = ZE( 2 , _2\\2
т),
f n =i E(— 1 —1 — —)
(а.2)2 да да
аа
хав I,E( 2(а2)2 да дв
Можно показать, хотя доказательство достаточно громоздкое, что І^р =
O. Таким образом, информационная матрица является блочно-диагональной между коэффициентами регрессии и параметрами GARCH-процесса. Информационную матрицу можно состоятельно оценить матрицей:
N
ІN O fвв O
N
O f
аа
где
а 2 л 2
а да
a 2 л 2
а да
iN = Z 1
:рр 2 (а2)2 дв дв1 1 О
1
т + "Г Xj X,T и fN = I.
2 11 аа 1
1 1
т.
Ji 2 (_2)2 да да1
Для нахождения оценок максимального правдоподобия можно применить обычный алгоритм:
в\'+1 = в\' + Яр(:fвв,)-1^р(^,), а\'+1 = а \' + Да (;fNe,)_1гN (O).
Прежде чем оценивать GARCH-регрессию, имеет смысл проверить наличие GARCH-процесса в ошибке с помощью теста множителя Лагранжа в точ-
ке оценок ОМНК.
Используем блочно-диагональность информационной матрицы:LM = gT (1N )~lg .
°а v aaJ ° a
При нулевой гипотезе об отсутствии GARCH-процесса aa = ju = a2, и
статистику можно упростить. Найдем эту статистику только в частном случае
ARCH модели:
2 2 da = T _ = 1 X T (eL 1) ^ N = у 1 1 T
da = zi ^ da = 2 a2z (- U -Laa = у 2^2z- z-.
2
ei
Пусть — — вектор-столбец, состоящий из 2 - 1, Z — матрица, строками
a
которой являются z,J = (1, ei-1, ... , e-p. Тогда
~ T = д± = 1 X TZ * N = 1 1 zTz
= da = 2 a2 - Z, 1 a = 2(0)2ZZ.
LM = 2 -TZ (ZTZ)-1Z T- ~ x2(p).
Энгл предложил несколько изменить форму статистики. Для этого используется то, что поскольку ошибки распределены нормально, то Plim -T-/N = 2. Асимптотически эквивалентной статистикой будет
LM* = j-jZ (ZTZ)-1Z V Х2(Р).
Эта статистика равняется ^R2, где R2 — коэффициент детерминации в
регрессии квадратов остатков по Z, то есть по константе и p лагам квадратов остатков.