Блог им. elogunov

Об оценивании волатильностей и ковариаций

Об оценивании волатильностей и ковариаций
Вашему вниманию предлагается краткий обзор методов оценивания волатильностей и ковариаций.

Где это можно применить?
1) Оптимизация портфелей из инструментов или стратегий;
2) Оценивание рисков портфелей;
3) Статистическое извлечение факторов из рынка;
4) Оценивание параметров линейных моделей зависимостей между временными рядами;
5) Извлечение из временных рядов зависимостей типа ведущий-ведомый (lead-lag);
6) Торговля опционами.

Основы

Начнём с формул, которые известны всем, кто изучал теорию вероятностей и математическую статистику:
Об оценивании волатильностей и ковариаций — выборочное среднее;
Об оценивании волатильностей и ковариаций — оценка стандартного отклонения (волатильности) на основе выборочной дисперсии;
Об оценивании волатильностей и ковариаций — выборочная ковариация.

При расчёте на рыночных данных последние две формулы часто упрощают, полагая выборочные средние равными нулю:
Об оценивании волатильностей и ковариаций;
Об оценивании волатильностей и ковариаций.

Оценивание волатильности по OHLC-данным

Ранее рассмотренные формулы для вычисления волатильности обычно применяют к относительным или логарифмическим доходностям инструментов, посчитанным из цен Close, Open или, например, midprice взятых с определённым шагом по времени.

Существуют способы оценивания волатильности, которые используют OHLC-данные (цены Open, High, Low, Close). По сравнению с обычным способом расчёта, при использовании в окне той же самой длины по времени, эти способы используют больше информации о временном ряде, за счёт чего такие оценки получаются более эффективными.

Вместо того, чтобы приводить в этой статье формулы расчёта таких оценок, я дам ссылку на превосходную статью об этих методах: http://www.todaysgroep.nl/media/236846/measuring_historic_volatility.pdf

Экспоненциально-взвешенные оценки волатильности и ковариации

Недостатком обычных методов оценивания, при использовании их для вычислений в скользящем окне, является то, что при попадании в окно доходности с большой амплитудой, такие оценки скачкообразно увеличиваются и остаются высокими до того момента, как эта доходность не покинет скользящее окно. В момент, когда доходность с высокой амплитудой покидает окно — оценка скачкообразно уменьшается.

Это выглядит немного неразумно с точки зрения волатильности как параметра рынка. Почему волатильность скачкообразно уменьшилась? Если бы мы использовали более короткое скользящее окно — она бы упала раньше, а если бы скользящее окно было длинее — она бы всё ещё была высокой. Каким тогда должно быть скользящее окно?

С другой стороны, если посмотреть на индекс волатильности VIX, то видно, что VIX обычно испытывает скачки вверх, за которыми следует относительно плавное уменьшение.

Из таких размышлений можно прийти к экспоненциально-взвешенной оценке волатильности (EWMA, RiskMetrics):
Об оценивании волатильностей и ковариаций, хотя для расчётов немного удобнее работать в терминах оценок дисперсий Об оценивании волатильностей и ковариаций.
Параметр сглаживания вычисляется из длины скользящего окна следующим образом: Об оценивании волатильностей и ковариаций. Такую волатильность можно будет сравнивать с волатильностью с периодом Об оценивании волатильностей и ковариаций.

Аналогичным образом можно построить экспоненциально-взвешенную оценку скользящей ковариации:
Об оценивании волатильностей и ковариаций.

Небольшим недостатком таких оценок является то, что их значения зависят от начального значения, которое вы используете для расчётов.

А огромным плюсом является то, что вам не нужны будут кольцевые буферы и суммирование по Кэхену, которые скорее всего понадобятся для надежного и вычислительно эффективного расчёта в скользящем окне по обычным формулам. Вы же хотите получать новую оценку за O(1), а не за O(n), верно? ;)

Интересной модификацией этого метода, пригодной для неоднородных во времени данных (промежутки между сессиями, цены трейдов, изменения мид-прайса), является метод time-inhomogeneous EWMA. Более подробно вы можете почитать о нём в главе 3 книги Gencay, Dacorogna, Muller, Pictet, Olsen «An Introduction to High-Frequency Finance».

Об оценивании волатильностей и ковариаций

Среднее отклонение

Одним из робастных методов оценивания волатильности является среднее отклонение (mean absolute deviation или median absolute deviation)Об оценивании волатильностей и ковариаций.

Как и в обычных формулах оценивания волатильности мы можем допустить, что среднее доходностей равно нулю. То же самое можно предположить и про медиану. Тогда можно оценить волатильность по формуле: Об оценивании волатильностей и ковариаций, где Об оценивании волатильностей и ковариаций — некая константа, которая необходима чтобы сделать такую оценку сравнимой по масштабу с обычной оценкой.

А почему, собственно, мы должны использовать доходности в первой или второй степени? Меньшая степень ослабляет влияние толстых хвостов на оценку волатильности, большая степень — усиливает. Выпишем вот такую оценку:

Об оценивании волатильностей и ковариаций.

Корректирующую константу, которая даст совпадение такой оценки с оценкой по обычной формуле для нормально-распределённых случайных величин, для любого значения показателя степени очень легко вычислить численно:

Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций

Кроме того, очень легко скрестить ежа с ужом совместить этот метод оценивания с EWMA:
Об оценивании волатильностей и ковариаций.

Наука не стоит на месте...

Следует особо отметить разработки Barndorff-Nielsen и Shephard в области оценивания вариаций случайных процессов:
Barndorff-Nielsen, Shephard «Measuring the impact of jumps in multivariate price process using bipower covariation»;
Barndorff-Nielsen, Shephard «Econometric analysis of realized covariation: high-frequency based covariance, regression and correlation in financial economics»;
Barndorff-Nielsen, Corcuera, Podolskij «Multipower variation for Brownian semistationary processes».

Предложенный ими способ оценивания интересен тем, что позволяет оценивать волатильность в присутствии редких прыжков в цене. Обычная оценка стандартного отклонения в таких условиях будет давать смещённую (а именно, завышенную) оценку волатильности. Кроме того, появляется возможность оценить вклад диффузионной и прыжковой компонент в волатильность.

Оценка волатильности на основе bipower variation: Об оценивании волатильностей и ковариаций.
Легко видеть, что доходность с высокой амплитудой (прыжок в цене) не будет возведена в квадрат в отличие от того, что произойдет в обычной оценке.

Формула для ковариации получается существенно сложнее:
Об оценивании волатильностей и ковариаций.
И этот метод тоже можно скрестить с EWMA!

Не-независимые доходности

В наличии на рынке статистических зависимостей между доходностями сомневаться не приходится. Это главная причина, почему кванты не говорят, что оптимальная стратегия — не заниматься трейдингом вообще, а пытаются всеми правдами и неправдами эти зависимости найти. В этой статье мы не будем пытаться прогнозировать доходности :) Вся эта ремарка — к тому, что из-за наличия зависимостей между доходностями, измерение волатильности на разных масштабах приводит к разным результатам.

У кого-то работают momentum стратегии (цены персистентны), а у кого-то reversion (цены анти-персистентны). Т.е. в первом приближении можно считать, что цены являются обобщёнными броуновскими движениями: Об оценивании волатильностей и ковариаций.

Сосчитаем дисперсию такого процесса, используя логарифмические приращения некоторого масштаба: Об оценивании волатильностей и ковариаций.

Дисперсия будет зависеть от масштаба следующим образом: Об оценивании волатильностей и ковариаций(вариограмма), где Об оценивании волатильностей и ковариаций — показатель Хёрста процесса.

Измерять показатель Хёрста целенаправленно мы тоже не будем, т.к. это дело неблагодарное. Для его оценивания нужно много данных, при этом скорее всего, он меняется во времени (есть периоды, когда работает momentum, но есть и периоды, когда работает reversion), но в среднем близок к 0.5 (в среднем заработать тяжело :D).

Вместо этого можно измерить дисперсию на разных масштабах, после чего при помощи линейной регрессии получить оценку Об оценивании волатильностей и ковариаций, «истинной волатильности» обобщенного броуновского движения:
Об оценивании волатильностей и ковариаций;
Об оценивании волатильностей и ковариаций.

Таким образом, мы можем одновременно оценить волатильность, и показатель Хёрста, с которым на рассмотренном участке она масштабируется.

Слишком маленький масштаб при этом брать не стоит, т.к. волатильность на нём при использовании реальных рыночных данных окажется выше, чем предсказывает такая модель, по причине микроструктурного шума (bid-ask bounce цен трейдов).

Факторные модели в оценивании матриц ковариации

При оценивании матриц ковариации можно легко столкнуться с тем, что кол-во оцениваемых параметров на порядок превосходит количество используемых наблюдений. Скорее всего, ни к чему хорошему это не приведёт. Как минимум, можно ожидать что матрица ковариации окажется вырожденной, и её сложно будет использовать для портфельной оптимизации.

Например, при расчёте матрицы ковариации для акций, входящих в индекс S&P 500, нужно будет оценить Об оценивании волатильностей и ковариаций параметров, т.е. около 125250 (я взял не реальное кол-во акций, а ровно 500). Используя скользящее окно доходностей за 1 год (примерно 260 торговых дней), мы будем иметь в среднем всего Об оценивании волатильностей и ковариаций, т.е. примерно 1 доходность в расчёте на 1 параметр!

Однако движения цен отдельных акций обусловлены факторами: изменение всего индекса, изменение сектора, изменение отдельной индустрии и т.д.

Рассмотрим линейное преобразование цен в небольшое количество факторов: Об оценивании волатильностей и ковариаций. В нижних индексах я указал размерности матриц. Об оценивании волатильностей и ковариаций — матрица доходностей факторов, а Об оценивании волатильностей и ковариаций — матрица beta-коэффициентов инструментов к факторам. Если факторная модель достаточно хороша — то для каждой акции остатки не объясненные моделью (Об оценивании волатильностей и ковариаций) окажутся независимыми от остатков для других акций.

Сосчитаем матрицу ковариации без учёта среднего:
Об оценивании волатильностей и ковариаций;
Об оценивании волатильностей и ковариаций.

Т.е. матрица ковариации доходностей инструментов является суммой линейного преобразования матрицы ковариации факторов (K*K, т.е. существенно меньшего размера, чем M*M), и диагональной (ведь наша факторная модель достаточно хороша, так?) матрицы ковариаций остатков факторной модели. Задача сильно упрощается!

Теперь немножко о факторных моделях.

Они бывают трёх видов ( https://www.cfapubs.org/doi/abs/10.2469/faj.v51.n3.1904 ):
1) Макроэкономические;
2) Фундаментальные;
3) Статистические.

В макроэкономических факторных моделях известными предполагаются временные ряды факторов, но не бэты инструментов к ним. Бэты оцениваются при помощи time-series linear regression.

В фундаментальных факторных моделях известными предполагаются бэты инструментов к факторам, но не сами факторы. Временные ряды факторов оцениваются при помощи cross-sectional linear regression. Существуют коммерческие реализации таких моделей:
MSCI Barra;
Morningstar;
Northfield;
Bloomberg.

В статистических факторных моделях неизвестными считаются как факторы, так и бэты инструментов к ним. В таких моделях факторы и бэты оцениваются одновременно, например, при помощи:
1. Метода главных компонент (PCA, Principal Component Analysis; также известен как Hotelling Transform или Discrete Karhunen-Loeve Transform);
2. Метода независимых компонент (ICA, Independent Component Analysis);
3. CSP, Common Spatial Pattern (также известно как CSSD, Common Spatial Subspace Decomposition);
4. TDD, Time-Delayed Decorrelation.

Shrinkage estimators

Любую матрицу ковариации можно разложить на дисперсии и матрицу корреляции. Одним из способов уменьшения количества параметров является замена внедиагональных элементов матрицы корреляций на некое среднее значение, или регуляризация оценки путем использования линейной комбинации обычной оценки матрицы корреляции с единичной матрицей (нули вне диагонали) или матрицей с одинаковыми внедиагональными элементами: https://en.wikipedia.org/wiki/Shrinkage_estimator

Широко известным методом оценивания такого рода является Ledoit-Wolf estimator. Подробнее о нём можно прочитать в статье Ledoit, Wolf «Honey, I Shrunk the Sample Covariance Matrix».

Робастные способы оценивания матриц ковариации

Существует ряд методов оценивания матриц ковариации, отбрасывающих часть данных («выбросов») или использующих их с меньшим весом: https://en.wikipedia.org/wiki/Robust_statistics

Например, Minimum Covariance Determinant; это способ, отбрасывающий данные:
Об оценивании волатильностей и ковариаций

Я не буду подробно рассматривать или перечислять известные методы робастного оценивания матриц ковариации. Скажу только, что в языке программирования R вы можете найти несколько реализаций в пакетах robustbase, MASS и других:
Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций

Теория случайных матриц

Так как среди квантов много не только математиков, но и физиков — неудивительно, что некоторые результаты статистической физики нашли применение и в задаче оценивания матриц ковариаций.

Среди трёх широко известных распределений для случайных матриц
1) Wigner semicircle distribution;
2) Tracy-Widom distribution;
3) Marchenko-Pastur distribution,

полезным оказывается распределение Марченко-Пастура, при помощи которого можно понять

1) Сколько статистически значимых факторов содержится в многомерном временном ряде доходностей;
2) Какие собственные числа матрицы корреляции относятся к этим значимым факторам.

В общих чертах, используется следующая процедура:
1) Оценивается выборочная матрица ковариаций;
2) Матрица ковариаций раскладывается на дисперсии и матрицу корреляций;
3) Матрица корреляций раскладывается на собственные числа и собственные векторы;
4) Собственные числа, не превышающие верхнюю границу распределения Марченко-Пастура для матрицы такого размера, заменяются на среднее всех таких собственных чисел;
5) Матрица корреляций пересобирается из собственных векторов и новых собственных чисел; иногда на диагонали возникают числа, отличные от единицы — тогда производится нормирование матрицы корреляций;
6) Матрица ковариаций пересобирается из дисперсий и новой матрицы корреляций.

Почему используется именно верхняя граница распределения? Потому что при небольшом количестве данных и большой матрице ковариаций у нас обязательно возникнут нулевые собственные числа, которые не являются статистически значимыми (потому что обусловлены кол-вом данных) и делают матрицу ковариаций вырожденной.

Несинхронные данные

Одной из больших проблем при оценивании ковариаций и кросс-корреляций является рассинхронизация данных. Возникает она как на тиковых данных (при расчёте по ценам трейдов, происходящих на разных инструментах в разные моменты времени), так и на дневных данных (если вы торгуете большое количество рынков, которые закрываются в разное время и в расчётах используете цены close).

Последствия могут быть катастрофическими:
— Вы можете построить стратегию на основе векторных авторегрессионных моделей, которая будет зарабатывать на бэктесте, однако в лучшем случае будет работать в ноль в реальных условиях;
— Вы можете получить совершенно некорректный граф причинно-следственных зависимостей между ценами разных инструментов.

Относительно простым способом проверки синхронности ваших данных является расчёт кросс-корреляций доходностей инструментов с разными лагами. Так как рынки в целом являются более-менее эффективными — на синхронных данных у вас может получиться статистически значимая корреляция только на нулевом лаге; на всех остальных лагах ничего значимого получаться не должно. Когда данные несинхронны — кросс-корреляция размазывается по нескольким лагам; например, вы сможете наблюдать кросс-корреляцию равную 0.6 на нулевом лаге, и кросс-корреляцию равную 0.3 на лаге -1, а на всех остальных она будет незначимой.

Одним из способов оценивания, пригодных для высокочастотных данных, является Hayashi-Yoshida estimator:
Hayashi, Yoshida «On covariance estimation of non-synchronously observed diffusion processes».

Теория наискорейшего обнаружения

Волатильность и корреляции можно рассматривать в качестве кусочно-постоянных процессов и пытаться искать моменты их изменения при помощи методов статистического последовательного тестирования.

Могу порекомендовать книги:
А.Н.Ширяев «Стохастические задачи о разладке»;
Vincent Poor, Olympia Hadjiliadis «Quickest Detection».

Для линейных регрессионных моделей вместо оценивания такими методами матриц ковариации и вычисления коэффициентов может оказаться более перспективным предполагать кусочно-постоянными сами коэффициенты и решать задачу для них. Например, можно построить процедуру оценивания кусочно-постоянных коэффициентов линейной регрессии на основе неравенства Чебышева. Я такую применял в дипломе:
Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций

Ну и, разумеется, 4 странички с описанием использованного метода:
Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций
Об оценивании волатильностей и ковариаций
Больше в моём дипломе ничего особо интересного нет :D

Волатильности и ковариации портфелей

Все эти формулы можно применять как к доходностям инструментов, так и к доходностям портфелей из инструментов (в том числе динамических, т.е. с изменяющимися во времени весами).

Однако, на мой взгляд, это не является корректным.

Во-первых, быстрые изменения весов портфеля приводят к тому, что характеристики доходностей в разные моменты времени также меняются. Они и у инструментов-то меняются, мало нам проблем что ли?

Во-вторых, если стратегия зарабатывала до какого-то момента — то мы можем не наблюдать в доходностях портфеля реализаций каких-то рисков инструментов, которые теоретически возможны. Если стратегия перестанет работать — то эти риски в портфеле реализуются. В некоторых случаях разумно смотреть на риски портфеля пессимистично.

Пусть у нас есть вектор весов инструментов Об оценивании волатильностей и ковариаций, входящих в портфель на текущий момент времени, а также матрица ковариаций доходностей инструментов Об оценивании волатильностей и ковариаций. Тогда волатильность доходностей портфеля следует оценивать следующим образом: Об оценивании волатильностей и ковариаций.
Ковариацию двух портфелей, заданных векторами весов Об оценивании волатильностей и ковариаций и Об оценивании волатильностей и ковариаций, на мой взгляд, следует оценивать следующим образом: Об оценивании волатильностей и ковариаций.

Если для оценивания ковариаций доходностей мы используем факторную модель — возможно, нужно использовать в этих двух формулах матрицу ковариации факторов и остатков факторной модели.

С другой стороны, мы можем считать некий набор портфелей факторами, через которые мы моделируем доходности инструментов, считая, что доходности этих факторов имеют более предсказуемые характеристики (в том числе — волатильность и структуру корреляций), а инструменты — менее предсказуемые характеристики. В таком случае, разумеется, нужно считать волатильности и ковариации по доходностям портфелей, а не из их весов. Так что правильный способ расчётов для портфелей — это философский вопрос сродни «что появилось раньше — курица или яйцо?»

Ещё один взгляд на ковариации, и значимость того, что мы вообще оцениваем

Из двух временных рядов доходностей Об оценивании волатильностей и ковариаций и Об оценивании волатильностей и ковариаций можно составить такой ряд Об оценивании волатильностей и ковариаций.
Очевидно, оценка ковариации (с предположением, что средняя доходность равна нулю) на интервале [t1;t2] составит Об оценивании волатильностей и ковариаций.

Если рассмотреть показатель Хёрста H для такого процесса Об оценивании волатильностей и ковариаций — то возможны три варианта:

1) H=0.5 — все наши оценки являются шумом;
2) H>0.5 — ковариация является персистентной и мы можем полагаться на то, что наши оценки в скользящих окнах в ближайшем будущем будут иметь отношение к реальности;
3) H<0.5 — ковариация быстро изменяется и нам следует использовать некие динамические модели (DCC, Dynamic Conditional Correlation, Multivariate GARCH, etc).

Заключение

Оценивание волатильностей и ковариаций — далеко не такая простая задача, как может показаться изначально.

Предлагайте в комментах о чём бы таком я мог ещё вам рассказать. Я подумаю :)
★55 | ₽ 1
Блин… это чо за диссер??
avatar

Дмитрий Ш

Дмитрий Ш, Я случайно… :D
avatar

Eugene Logunov

Eugene Logunov, Во, тут МХ всё понял сходу
avatar

Дмитрий Ш

Интересно что-нибудь из области FMH. Занимаются ведь таким кванты?
avatar

МХ

МХ, Мне понадобилось пара минут, чтобы расшифровать аббревиатуру!
На эту тему мало чего могу рассказать. Ну разве что как производные дробного порядка считать численно и как избавиться от памяти в процессе. В статьях можно нарыть больше полезной инфы.
avatar

Eugene Logunov

Eugene Logunov, а я так и не понял сходу, что это.
avatar

SergeyJu

SergeyJu, Скорее всего «Fractal Market Hypothesis»
avatar

Eugene Logunov

Расскажи про какую-нибудь свою модель с циклом жизни «придумал идею — исследовал — запустил в торги — модель поработала и сдохла(или сразу сдохла)»
avatar

aks19

aks19, Модели, результаты, где и с кем работаю/работал — предмет подписанного мною договора о неразглашении коммерческой тайны.
avatar

Eugene Logunov

О наконец таки что-то для мозгов, пока что бегло прочел, буду смаковать на досуге :)
avatar

Dmitryy

по какой формуле эллипс построить?
avatar

autotrade.ru

autotrade.ru, (x/a)^2+(y/b)^2=1 :)
Если вы про тот, что идёт после упоминания Minimum Covariance Determinant — то в статье по ссылке это уравнение (1).
avatar

Eugene Logunov

Eugene Logunov, у него оси не повернутые, разве?)
avatar

tranquility

tranquility, В вопросе не было конкретики про то, какой эллипс :) Формально мой ответ корректен. Оси повернуть в каноническом уравнении тоже несложно.
А про картинку — полный ответ есть в статье по ссылке. Там всё будет повёрнуто как надо.
avatar

Eugene Logunov

Кайфовый пост для воспоминаний о точке старта и освежения в голове давно забытого.

Скажите, а на сей момент сколько имеете от торговли среднемесячно?
avatar

Йоганн

Йоганн, На сей момент от торговли имею дергающийся глаз! :)
Есть з/п (маленькая, но хорошая) и бонусы перепадают (4 раза за последние 5 лет). На личном счёте мучительно истекаю тэтой. Долгое время вообще не имел личных счетов во избежание конфликта интересов.
avatar

Eugene Logunov

Eugene Logunov, ничего, дорогу осилит идущий))

Каждый успешный трейдер — тот, кто не поленился правильно посчитать вероятность собственного выигрыша, с учетом многих вводных и исходя из этого оценил применяемые стратегии.
Про вводные — долгий разговор....

Когда приходит осознание собственных шансов, то любую стратегию можно правильно настроить и выигрывать.

И уже не имеет значения, ставим мы стопы или нет, по тренду или против работаем.
avatar

Йоганн

Eugene Logunov, Вот даже и не думай, будто 20 челов сразу поняли и приняли. Тут значение имеет этакая «принадлеюность к значимому».  Типа,«возьму да плюснусь, хоть и не понимаю нихрена, чо пишут… зато я ууумнай»))))
avatar

Дмитрий Ш

Дмитрий Ш, Будет здорово даже если в моей писанине разберётся всего один человек.
avatar

Eugene Logunov

Eugene Logunov, было бы интересно услышать от вас, что делаете с ковариацией (потрфелей? активов? еще чего-то?) после того как ее оценили… зачем она вам сдалась? В отчеты начальству подпихиваете?
Бабёр-Енот, В самом начале статьи перечислены варианты применения. Примерно так и применяю.
avatar

Eugene Logunov

Мощная работа.
avatar

Kot_Begemot

Kot_Begemot, Так я же вовсе и не против, только за
Но тут так хорошо эффект толпы проиьлюстрирован))))
avatar

Дмитрий Ш

По самым первым формулам: и excel, и open-office в качестве выборочной дисперсии считают несмещенную оценку, т.е. делят на (n-1).

Ну, это я для тех, кто полезет все пересчитывать, увидит, что популярные пакеты немного другие формулы берут, и удивится.

Про несмещенную оценку здесь хорошо объяснено
dxdy.ru/topic81845.html

и здесь
en.wikipedia.org/wiki/Bessel%27s_correction
avatar

Анастасия К

Анастасия К, Всё верно. Но если вы знаете зачем нужна эта поправка — вы не задумываясь примените её в нужном месте :)
В данном случае большинство формул полагают матожидание доходностей равным нулю, поэтому используется деление на N (N-1 в bipower variation обусловлено меньшим числом слагаемых).
avatar

Eugene Logunov

Анастасия К, да все адекватные юзеры знают, что excel генетически жрет всю дэйту как выборку. К слову, тоже самое, по дефолту делают все (в отношении коэффициентов регрессии, например) финансовые калькуляторы
avatar

flextrader

Класс! Только я бы ещё и средние сделал кусочно-постоянными. Собственно я так и считаю только в условиях нестационарной нормальности отдельных приращениях логарифмов цен (от часа и дольше).
avatar

А. Г.

Спасибо за интересный обзор. Нашёл кое-что любопытное для себя.
avatar

johnsson08

Интересно, перед тем как принять таблетку аспирина анатомию также глубоко надо изучать? Не излишняя-ли это информация для торговли, особенно на ммвб.
avatar

IliaM

IliaM, 
Не излишняя-ли это информация для торговли, особенно на ммвб.
Большая часть написанного будет полезна скорее тем кто торгует везде, кроме ММВБ :)
Факторные модели матриц ковариации — полезны в торговле большим кол-вом различных акций. Как мне кажется, эту статью могут найти полезной кванты, занимающиеся риск-менеджментом.
avatar

Eugene Logunov

Eugene Logunov, это да.Согласен.
avatar

IliaM

«Многа букаф» 
avatar

googlioner

Пролистал и понял, что мне не настолько нужны деньги ))
avatar

EY

EY, 
Вряд ли тот, кто это написал, уже в Форбс
хоспаде… чаво тока люди не придумают, что не зарабатывать денег...

avatar

ves2010

Спасибо, заинтересовало
avatar

Popo Pacha

 Хороший обзор, спасибо!
avatar

SergeyJu

Добавляю в избранное. О чем можно еще рассказать? Но коль мы о корреляционных процессах, то следующий шаг это о скорости их расхождения и схлопывания. Если это опционный раздел, то можно про опционы. Как расходится и сходится IV и HV, через какие параметры, какие эконометрические техники это можно отследить?
имхо вторые две трети приведенного выше представляют собой черезчур заумную херь (с точки зрения практической значимости). Но систематизировано хорошо и почитать было интересно, спасибо.
avatar

Бабёр-Енот

Бойтесь умников, формулы приносящих. Уоррен Баффет
 У меня вопрос.
Почему Вы оцениваете цены как аналог броуновского движения?
И потом, вы пишите, что слишком маленький масштаб брать не нужно, то есть речь не о тиковых транзакциях.
Максим Барбашин, 
Почему Вы оцениваете цены как аналог броуновского движения?
Это разумное допущение при оценивании волатильности.
И потом, вы пишите, что слишком маленький масштаб брать не нужно, то есть речь не о тиковых транзакциях.
Противоречий нет. Речь о том, что на мелких масштабах есть нюанс, который не укладывается в ту модель масштабирования волатильности. И это касается не только тиковых, но и минутных данных (1-5 минут). При укрупнении масштаба эффект bid-ask bounce быстро уменьшается за счёт ЦПТ.
avatar

Eugene Logunov

Eugene Logunov, 
То есть у цен броуновское движение на Н4?
Или на недельках?
Максим Барбашин, Нет и нет (недельки и алготрейдинг — это вообще мощно :D). Предложите модель лучше, если сумеете.
avatar

Eugene Logunov

Eugene Logunov, почему бы нет? Какой годовой оборот Вы считаете нижним пределом алго? Я бы не отказался от очень емких систем с годовым оборотом, скажем, 1. У меня сама медленная (но, увы, далеко не лучшая) пригодная для торговли система имеет годовой оборот (по покупке) порядка 4. 
avatar

SergeyJu

SergeyJu, 
почему бы нет?
1) Недельных данных катастрофически мало, чтобы делать выводы о какой-то статистической значимости. Вдобавок ещё и со стационарностью на рынке проблемы.
2) В какой точке внутри недели следует заканчивать очередной бар и начинать новый? Может close среды будет лучше, чем close пятницы? (На самом деле точно такой же вопрос у меня имеется и к системам, работающим на дневных данных, но ребалансирующихся на регулярной недельной/месячной сетке
3) За 30 лет у вас наберется около 1500 недельных баров по инструменту. На дневных данных за те же 30 лет оверфит достигается очень просто за счёт проверки большого количества моделей. Сколько максимум экспериментов мы должны сделать на недельных данных, чтобы не зафиттиться под них?
4) Работает модель или нет — мы поймём только out of sample. Сколько лет придётся ждать, чтобы сделать статистически значимый вывод о соответствии или несоответствии бэктестового перформанса продакшену?
5) У одного поставщика данных есть история цен по золоту (месячные или годовые, не помню) с 1200 года. Но мы не можем разрабатывать на таких данных стратегии, т.к. за 800 лет рынок претерпел огромные изменения.
Какой годовой оборот Вы считаете нижним пределом алго?
Не считаю низкий оборот поводом считать стратегию «не-алго». Вопрос в том, насколько сложно разработать стратегию с шарпом 1 и оборотом 10% от капитала в год по сравнению с разработкой стратегии с шарпом 1 и оборотом 1000% в год. Пусть будет хоть 10% в год оборот — если она формализована и автоматизирована — это алготрейдинг.
avatar

Eugene Logunov

Eugene Logunov, предположим, мы делаем ребаланс на дневном таймфрейме, но постоянная времени большая (сигналы в среднем реже, чем раз в неделю). Намного ли это будет отличаться от системы, у которой ребаланс на недельках, но сигналы от предыдущей? Мне кажется, что разница будет невелика. 
Я это к тому, что системы с редким ребалансом в любом случае трудно объективно тестировать.
С другой стороны, системы с 100 оборотами в год легче объективно тестировать и они, почти наверное, будут иметь лучший Шарп. Но также почти наверное меньшую емкость. 
У нас неопределенность типа квантовой, высокая точность — маленький объем, низкая точность — большой объем. 
avatar

SergeyJu


Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.

Залогиниться

Зарегистрироваться
....все тэги
Регистрация
UPDONW