Комментарии пользователя anon

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
Stanis, после слова биткоинвы попали в блэклист, если что

avatar
  • Сегодня в 06:33
  • Еще
Alex Craft, 

ну как сказать… на топ 10% вы увидите эффект прям сильно, на топ 33% увидите, на топ 50% да тоже наверное увидите только слабее

по сути разговор о том, что autocorrel(lag=1) = f(sigma), про «топ NN%» это я для простоты написал, а так — совсем по умному — правильнее взять сколько-нибудь бинов по сигме и в них смотреть распределение реализовавшихся автокорреляций


avatar
  • Вчера в 13:06
  • Еще
Stanis, по-моему это чей-то «беспокойный» мозг заставляет носиться с этой чудо-картинкой без малого 20 лет по форумам, думаю на деле там всё так же только ниже нуля
avatar
  • Вчера в 13:01
  • Еще
Stanis, судя по тому, что минимумы гладкие, а максимумы острые — это какие-то календарники, кто-то на форуме ртс в 2010х бегал с такой картинкой
avatar
  • Вчера в 04:44
  • Еще
Alex Craft, т.е. увидеть это — довольно просто, а вот понять какой стохдифур смог бы так — уже не очень просто, это должно быть в \mu какое-то слагаемое типа \sigma^2(n-1) * r(n-1) ...

вобщем это еще один повод фиттить «на батчах» модели для \mu \sigma как функции ограниченной глубины только от r(n-i), но чтоб поймать такой эффект это мю должна быть аж полиномом третей степени, а это уже просто не прилично
avatar
  • 22 февраля 2026, 18:12
  • Еще
Alex Craft, 
ну выглядит более менее, я б еще убедился, что стох-модель способна иметь отрицательную корреляцию волатильности и ретёрна

и, что в общем ретёрны окажутся с ассиметрией на большие падение и на мелкий рост
avatar
  • 22 февраля 2026, 11:44
  • Еще
Alex Craft, 

да элементарно

взять данные, где выборочная дисперсия по окну N периодов — входит в верхние top 33% и на [ровно] этом же окне посчитать выборочную корреляцию

повторить для данных где выборочная дисперсия на таком же окне входит в нижние top 33%

сравнить выборочные корреляции для того и другого

можно для средних 33% тоже посчитать


ну т.е. поскольку это довольно просто, там даже можно с умным видом сказать «гипотеза о равенстве отвергнута с каким-то пи-вэлью»
avatar
  • 22 февраля 2026, 11:38
  • Еще
еще — есть эффект, про который не принято писать — на участках с высокой волатильностью — автокорреляция заметно отрицательна, хотя я и сам не особо понимаю как это можно попроще воспроизвести…
avatar
  • 20 февраля 2026, 06:14
  • Еще
Alex Craft, мы похоже из «разных школ/эпох» ))) все слова понял, всё вместе — уже не въезжаю ))))
avatar
  • 20 февраля 2026, 05:58
  • Еще
И, правдоподобие для SV модели — его же не посчитать просто так. MCMC фиттинг это сглаживание (с заглядыванием в будущее, весь интервал 1-T). А правдоподобие требует фильтрации (без заглядывания в будущее, только 1-t). MCMC что я использую STAN этого неделает. Нужен Particle Filter что вообще отдельная тема.

я кажется слишком не понимаю, что именно вы делаете, я попробую конечно переварить как вы пришли к тому, что нужно фиттится на всём [1;T], но я вот сколько этим занимался всегда было рекуррентно… ну т.е. там был проход по всему интервалу, да, но без подглядываний ....

вообще я из этого ничего рабочего не вынес и ушел в «безарбитражные постановки» (это я вот сейчас собрал в кучу и БШ и APT и бонды) там и параметров поменьше и «правильный» хедж возникает более менее естественным путём

но попробую предложить мысль:

забудем на некоторое время про гарчи итд и рассмотрим модель с конечной памятью r(n+1) = \mu(r(n)… r(n-k)) + \sigma(r(n)… r(n-k))dW

r(n+1) = ln(P(n+1)/P(n))

дальше вариантов не так уж и много — скажем, что sigma^2 это какой-то полином второй степени от r(n)… r(n-k), да еще и не отрицательный

это сведётся к тому, что он представим как x^T S x + C

где S положительно определенная _диагональная_ матрица, C — какая-то константа сдвига, а x — вектор _ортогональной_ замены (поворота) переменных от r(n)..r(n-k), вобщем там что-то типа k(k-1)/2 + 1 параметров, если я не напутал (требование положительно-определенности уменьшает количество параметров в 2 раза)

идея в том, чтобы зафитить такую модель под данные, ей не нужны рекурентные цепочки, для расчёта её правдоподобия, подойдёт набор батчей из {r(n+1);r(n)..r(n-k)}

правдоподобие «всей кастрюли» будет равно сумме энтропий (логарифмов плотностей) батчей (может всё с минусом, в зависимости от конвенций) + то, что придёт от вашего инфо-критерия, это так или иначе что-то типа количества параметров k, но для начала я бы на инфокритерий забил, это тюнинг второго уровня

распределение r(n+1) — ну возьмите какое вам нравится, главное чтоб вы могли посчитать энтропию батча, задать ему центр \mu и скейл-фактор \sigma

далее вы ищите минимум суммарной энтропии (размера архива), подбирая параметры, хорошо бы, чтобы сама энтропия аналитически пару раз дифференцировалась, а это так и есть, если не брать какие-то совсем экзотические распределения

важно — вам нужна энтропия r(n+1), а не dW, если это не понятно — то нужно это понять

всё выше написанное это «разминка» для того, чтобы получить полином второй степени \sigma^2(r(n)..r(n-k))

если в нём коэффициенты при r(n-i) убывают «почти экспоненциально» и кросс продукты r(n-i)r(n-j) «почти отсутствуют» — поздравляю, вы посути можете свернуть это в рекурентное соотношение и получить XXX-GARCH сильно уменьшив кол-во параметров

и это не безнадёжная идея, вот почему: мы до сих пор ничего не говорили о dW, мы никак не предполагали его нормальность итд, а потому, нам ничто не мешает сказать, что в него вшит и джамп и толстые хвосты и ассиметрия итд, всё, что от него требуется это MdW = 0 и DdW = 1

я бы стартанул с предположения нормальности для «дебага», если хотите таки стьюдента для dW, то это требует его «отскейлить» до энтропии r(n+1)

то есть entropy(n+1) = ln(\sigma(r(n)...r(n-k))) + ln(pdf_stud(r(n+1)/\sigma(r(n)...r(n-k))) — это важно понять

кажется я столько написал, что это уже не переварить


но, если до сюда поняли, то вообще эту идею можно полностью отвязать от «предвыбора» распределения (однако контролируя MdW=0 DdW=1):

если сделать скейлинг r(n+1)/\sigma(...), то финальное правдоподобие это sum_i [ln(\sigma(r(n-i)..r(n-i-k))] + sum_i [ln(pdf(r(n-i+1)/\sigma(r(n-i)..r(n-i-k)))]

это значит, что pdf мы можем взять «какое получилось», и таки это медленнее, но не фатально, за один проход мы считаем \sigma(...) и r(n+1)/\sigma(...), далее чем-то надо аппроксимировать ln(pdf(r(n+1)/\sigma(...))

или, можно подумать в сторону какой-то параметризации асимметрии, так же как и \mu \sigma — skew_param(r(n)..r(n-k)) и его таки тоже есть шансы свернуть в рекурсию


ps: представьте, что dW имеет ассиметрию такую, что вниз может прям вот сильно — это создаст резкость в падении актива и последующий рост волатильности, как раз то что нужно. простые диффужн процессы не могут, у них или симметрично «лишняя» волатильность вверх или слишком плавный разгон, но для характерного поведения — нужна асимметрия — её вводят или джамп-процессом или корреляцией как в хестоне

pps: скорректируйте данные на дивы, если еще не скорректировали
avatar
  • 16 февраля 2026, 17:26
  • Еще
не понятно, что такое «не похоже» у джамп процесса правдоподобие выше — значит уже таки похоже, вы хотите до куда правдоподобие загонять?

тут есть разные способы думать (об одном и том же), мне вообще нравится взгляд на фиттинг как minimum description length — это из эпохи Колмогорова, но потом как-то название подзабыли, хотя, по сути, все ровно этим и пользуются на вайбе, не осознавая.

в чем идея — мы хотим написать архиватор, который жмет данные, и тогда мы можем судить о качестве архиватора по тому, насколько мало будет весить итоговый архив.

не вдаваясь в детали — размер архива можно свести к нулю, включив весь датасет в архиватор, внезапно. поэтому этого не достаточно и это (минимальность архива) не может быть самоцелью

так же не вдаваясь в детали — размер архива — это минус логарифм условной вероятности p(data|model) (ну там еще с учётом основания логарифмирования)

то есть message length (размер архива) = -ln p(data|model)
model length — размер архиватора (который можно кстати заархивировать другим архиватором) это -ln p(model)
и таки description = message + model — это, кто бы мог подумать, -ln p(data)

отсюда становятся более прозрачными смыслы aic/bic и других инфокритериев — потому, что они по сути о том, «как сильно еще один параметр увеличит model, уменьшив message»

я просто не совсем понимаю, где вы испытываете затык с фиттингом, большинство вещей аналитически решается…

совсем коротко: чтоб сравнить модели А и Б — к правдоподобию добавьте поправку на минимальный размер вашего кода А и кода Б на питоне или на чем вы пишите (ну можете и по ней архиватором пройтись еще)
avatar
  • 15 февраля 2026, 14:44
  • Еще
успехи ии в программировании я думаю это связаны с тем, что большинство языков императивные и написать программу это плюс-минус тоже самое, что перевести с одного языка на другой, всё теже токены/аттеншны, есть у меня хобби — схемотехника, вот тут ии лажает по полной, предложите ему задизайнить усилитель с заданной полосой частот — он не то, что «сделает, но надо доработать» он сделает полный кал, хотя литературы об этом с 70х написано вагоны и в обучающей выборке было наверняка 100500 томов, ну т.е. там будет не просто «ошибка в номиналах» или «не учел сайд-эффекты конкретного транзистора» то, что предложит ии вообще полосовым усилителем не будет, я думаю именно потому, что схемотехника это не императивный язык, она не разворачивается в последовательность инструкций, может быть какой-нибудь конволюшн (графические нейронки) будет генерить схемы лучше чем аттеншн-трансформеры (по сути рекуррентные нейронки), именно потому, что там генерится «картинка, как целое», но сейчас ии точно не способен заменить инженеров

а что до программистов — инженеров там единицы, большинство это переводчики с продукт-менеджерского на пыхпых/ноду
avatar
  • 22 января 2026, 14:31
  • Еще
Не понял, добавить предыдущую инновацию t-2?

неееее, не добавлять предыдущую инновацию, это слишком банально, я думаю вы ее уже добавили, я про добавить еще динамических уравнений ))))

для коэффициентов garch/e-garch/log-garch/хзчто-garch тоже можно написать «модель для модели». абсолютно точно так же, как сама волатильность — это по сути коэффициент при ошибке, то и коэффициенты в модели волатильности (или её квадрата/логарифма/косинуса, не суть важно) точно так же можно воспринимать как что-то динамическое и написать на них (их квадрат/логарифм/косинус/не суть важно) модель

ок, это был «не получившийся квантовый юмор» если что )))

по поводу моделей на +1 мес и 22 (ну или 30) раз примененной модели на +1 день — получилась большая разница в правдоподобии?
avatar
  • 22 декабря 2025, 17:13
  • Еще
+ «с автокорреляцией которая дает нестационарность ошибки». Я упустил это уточнение о нестационарности ошибки в посте, вы это имели ввиду, или что то другое

думаю нет… я про вот это

Соотв прогноз волатильности это 2 числа

как вообще пришли к GARCH?
— сначала прогнозировали r как регрессию от предыдущих r и \eps, по сути это ARMA для локация
— задумались, что \sigma перед \eps тоже как-то меняется и написали на неё (её квадрат) еще одну регрессию — это ARMA для масштаба или GARCH

впринципе, то о чем вы пишите дальше — это про регрессию для log \Sigma^2 через неё саму и log \r^2, таки да, оно постационарнее будет чем просто для \sigma^2, но вот будет ли оно правдоподобнее я не проверял, наверное будет ...

вопрос — а почему вы останавливаетесь на модели для log \sigma^2? можно же продолжать и дальше — у этой модели есть инновация — coeff * (log [r^2 / \sigma^2] — avg)

всё сказанное выше можно провернуть еще раз и для log coeff^2

ps: кстати, а как вы логорифмируете r^2 при r=0?
avatar
  • 18 декабря 2025, 19:10
  • Еще
вы только что сказали, что log-GARCH это на самом деле просто ARIMA для волы, а для волы волы нужен бы… GARCH (!)

я уж совсем свалю в оффтоп, но реально «устойчивое дно дискуссии» — это функция полезности, в ней естественным образом вылазят и волатильность и все остальные моменты (не только 3й и 4й, а вообще все) и вопрос где рубить разложение полезности по моментам — это вопрос о таймфрейме, потому что на разных таймфреймах вклад разных моментов убывает по разному
avatar
  • 17 декабря 2025, 20:07
  • Еще
чот я не пойму драму ....

чтоб сказать что что-то «не очень» нужен бы бенчмарк, относительно него посчитать правдоподобие бенчмарк-модели и «не очень»-модели, тогда да, можно сказать, что «не очень»-модель — не очень

так-то и log r^2 кроме того, что картинка компактнее кучкуется ничего особенно не даёт, пока какой-то метрики нет

если считануть самый банальный реалайзед вол (на него можно смотреть как на вырожденный гарч) окном на пару месяцев и взять iv с двух месячных опционов — получится плюс-минус одинаковое правдоподобие

сам не проверял, но статьи на arxiv'е попадались, там еще за одно часто пишут, что iv всё-таки систематически завышен
avatar
  • 17 декабря 2025, 20:00
  • Еще
Кот.Финанс, во, нашел RU000A0ZYLU6

bonds.finam.ru/issue/details020E600003/default.asp

судя по объёмам (36ккк выкупа против размещённых 15ккк) — выкупленое всё-таки запустили по второму кругу и выкупили еще раз, но это скорее исключение

а не встречали где-нибудь, чтобы кучно лежали объёмы случившихся выкупов, так чтоб в эксель можно было бы полегче дёрнуть?
avatar
  • 08 декабря 2025, 20:26
  • Еще
Кот.Финанс, ну на деле я обычно смотрю данные по выкупу на финаме и минусую, есть какая-то вероятность, что эмитент запустит «казначейки» еще раз в оборот, но как я понял так не практикуют, и еще проблема, что собирать данные скриптом с финама я так и не научился, плюс еще иногда на е-дискложр перепроверять приходится

а в целом — по правилам бух учета «казначейки» не правомерно отображать на 58 счете, так что всё, что выкуплено по оферте сразу минусуется с «кредиты и займы» 66/67 счетов и можно тупо смотреть эту графу в балансе, не заморачиваясь с высчитыванием объёмов по выпускам, но там кроме облиг еще и остальные займы в кучу
avatar
  • 08 декабря 2025, 04:53
  • Еще
тема очень правильная, но как вы считаете объём обращения?

взял первый попавшийся выпуск системы:

АФК СИСТЕМА-001Р-17
bonds.finam.ru/issue/details02C1600003/default.asp


14 ярдов размещено, 12.5 ярдов выкуплено на оферте, особенность системы, что ее облиги — это «одна большая нонстоп оферта»

у них куда ни ткни, почти в любом выпуске на горизонте ближайшего года висит оферта, по которой еще и выкупят под 80-90% выпуска


и это я пишу не чтоб поспорить, а мне вот реально самому интересно, как-то можно «в 3 клика» понять невыкупленный долг?

и что происходит дальше с выкупленными облигами? они их «списывают» или ...?

все те же вопросы можно и к другим лидерам оферт — гтлк/гпб/автодор и другие
avatar
  • 07 декабря 2025, 02:43
  • Еще
вы на дивиденды дату аджастите? откуда кстати данные?
avatar
  • 30 ноября 2025, 00:09
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн