Талеб в разных вариантах упоминал что варианс использовать нельзя, потому что ее нельзя точно измерить. И как следствие GARCH который основан на измерении варианс использовать нельзя. Меня это заявление беспокоило, поскольку я гарч использую, и несколько недель в фоне размышлял.
For silver, in 46 years 94 percent of the kurtosis came from one single observation. We cannot use standard statistical methods with financial data. GARCH (a method popular in academia) does not work because we are dealing with squares. The 52 a non-technical overview — the darwin college lecture variance of the squares is analogous to the fourth moment. We do not know the variance. But we can work very easily with Pareto distributions. They give us less information, but nevertheless, it is more rigorous if the data are uncapped or if there are any open variables. // Statistical Consequences of Fat Tails
Я думаю он прав и не прав одновременно. Прав что использовать варианс в чистом виде, как статистику по r^2 походу реально смысла нет, вот как она выглядит (картинка1).
Но, дело в том что ее именно в таком виде, как как r^2 — уже давным давно никто не использует, а используют например log r^2 или |r| и тогда получается вполне нормально (картинка2). (подробней, я рассмотрел разные меры волатильности на дневных ценах
www.youtube.com/watch?v=9-WqmU7A718)


Либо, ее меряют как IV, или RV intraday (интрадей использует варианс и считает RV = sum(r_min^2), но, вроде как данные интрадея ближе к нормальным чем дневные цены, там нет таких диких скачков как на дневных ценах, по идее проблемы либо вообще нет либо сильно меньше, я пока интрадей не использую, когда буду использовать посмотрю подробней).
Либо, используют SV модели (которые основаны на log r^2) вместо GARCH.
Итого, формально Талеб наверно прав. На практике — не имеет значения, именно как статистику по r^2 волатильность давно никто не меряет, используют другие варианты которые нормально работают.
П.С.
У GARCH, любых вариантов, другая проблема — он всегда предполагает волатильность как фиксированный, детерминированный процесс. Это нормально для предсказания на 1 шаг в будущее. Но не достаточно для симуляции N шагов в будущее. Для этого требуется представить волатильность как случайный процесс, чего GARCH сделать не может и нужна SV модель.
чтоб сказать что что-то «не очень» нужен бы бенчмарк, относительно него посчитать правдоподобие бенчмарк-модели и «не очень»-модели, тогда да, можно сказать, что «не очень»-модель — не очень
так-то и log r^2 кроме того, что картинка компактнее кучкуется ничего особенно не даёт, пока какой-то метрики нет
если считануть самый банальный реалайзед вол (на него можно смотреть как на вырожденный гарч) окном на пару месяцев и взять iv с двух месячных опционов — получится плюс-минус одинаковое правдоподобие
сам не проверял, но статьи на arxiv'е попадались, там еще за одно часто пишут, что iv всё-таки систематически завышен
anon, я делал бенчмарк, цель — предсказание исторической дневной лог прибыли log rt = log St/St-1, дневные цены 250 акций, 50 лет.
Модель — EGARCH и ее адаптация для |r| и r^2 чтоб учесть асимметрию негативного шока.
Смотрел r^2 (худшая), |r| (лучше), log r^2 (чуть лучше чем |r|). Лучше — имеется ввиду что likelihood выше.
У всех моделей одинаковое число параметров и почти одинаковая структура (чуть по разному асимметричный отрицательный шок учитывается) и у всех одинаковая цель фиттинга — предсказание дохода на следущий день rt+1 как StudentT.
Это результаты на дневных данных. На минутках возможно может быть по другому.
Я ищу такие моменты, поэтому мне важно чтобы модель работала корректно в том чисел в такие моменты.
Пик который виден на графике r^2, это 2008год, на графике показан интервал лет 8, т.е. это достаточно редко случается. А если глянуть обычный режим, там нет проблем, r^2 работает нормально.
Мы не можем наблюдать истинное распределение генерирующее события непосредственно, поэтому мы моделируем его, например используя нормальное распределение, которое Талеб так не любит. Хороший пример как использовать нормальное распределение с переменными средним и дисперсией, видео и jupiter notebook www.youtube.com/watch?v=Bru4Mkr601Q&t=3090s
Но использовать это на практике, например в ГАРЧ, не получится, потому что мы не знаем точно, и не можем точно предсказать дисперсию. Прийдется учесть ошибку в предсказании дисперсии (например использовать SV модели вместо ГАРЧ), и представить условное распределение как сумму нормальных (гаусовский микс) который учитывает неопределенность в предсказании дисперсии. И, в итоге мы получим то же самое что и GARCH со studetn-t, эта симуляция суммы нормальных с отличающейся дисперсией — даст такую же student-t.
Т.е. student-t в гарч — это упрощение чтобы избежать полноценной байесовской симуляции и вычисления постериора от неопределенности в предсказании дисперсии.
Но даже в SV моделях мы не сможем избавится от не-нормальности. Мы можем лишь перекинуть ее из одного места в другое. Сделав распределение прибыли нормальным, нам прийдется перекинуть хвосты в процесс волатильности и например добавить jump (или как скрытый марковский процесс который дает прыжки, т.е. дает более экстремальный разброс чем нормальное/логнормальное).
Т.е. с тяжелыми хвостами по любому прийдется работать, вопрос лишь куда их решим запихнуть — в распределение прибыли или в некий скрытый процесс волатильности который управляет дисперсией нормального.