Блог им. dmitrievskymax

Тестирование модели на машинном обучении. Часть четвертая.

★3
24 комментария
Пиши может сразу — получилось чё?

Пафос Респектыч, для начала нужна теория, которая хотя бы обоснует почему может получится и главное при каких условиях. Иначе алхимия какая-то.
avatar
Cristopher Robin, да нам бы хотя бы субъективное мнение автора что что-то получилось, уже был бы прорыв )
Пафос Респектыч, пока что не доказано что автор существует
avatar

Я мало видосов пока из этой серии посмотрел. Мои текущие мысли: модели любят «качественные» входящие признаки, если тупо подавать приращения — там заведомо в атомарных признаках очень мало изюма. Изюм во взаимодействии. Может конечно, мощные нейронные сети могут такое схавать и что-то выдать интересное, но более простые модели, думаю, ничего там особо не найдут. Думаю, надо понижать энтропию, подавая на вход более «качественные» признаки.

Ну т.е. если ты, допустим, подашь на вход выявленные тобой паттерны (0/1) — и как щас приращения — если паттерн качественный, любая модель быстро просечет что паттерн крутой, признак крутой и быстренько весами все обыграет. Но это другая крайность. Можно играть внутри. Подавать свечные комбинации, допустим. Допустим, из 3-х свечей. Или из двух. Тут уже считай мы из приращений и их направлений слепили какие-то паттерны — дальше пусть система с ними работает. Смещая ряды, можно выстраивать последовательности паттернов. Тут уже модели могут находить соль — работают ли какие-то отдельные такие паттерны сами по себе, или в последовательности, может быть и т.д.

Свечные паттерны можно собирать автоматически, думаю. Перебираешь все комбинации которые направлений приращений и цветов свечей в 3-свечных формациях — вот тебе и набор дамми-параметров. 

avatar
Replikant_mih, ту же мысль хотел автору написать.
avatar
Replikant_mih, тот же энтропийный анализ показывает, что если убрать кластеризацию волатильности из приращений — то это будет СБ

Паттерны будут получаться случайными и не нести никакой полезной инфы на новых данных
avatar
dmitrievskymax, первый абзац мне пока не понятен), второй — ок, но пока не отэкспериментирую это дело, не поверю))
avatar
Replikant_mih, распределение приращений отличается от случайного толстыми хвостами (об этом почти все знают), толстые хвосты получаются из-за кластеризации волатильности. например, торги активнее идут в американскую и европейскую сессии, тогда волатильность выше, в остальные периоды ниже. Видно по объему торгов также. Если выровнять волатильность, т.е, гипотетически, сделать одинаковые объемы торгов все время, то рынок будет полностью случайным для наблюдателя (т.е. вообще без закономерностей, броуновское движение)
avatar
dmitrievskymax, Я так понимаю, стоит копать в противоположную сторону, если что-то вносит системность, надо не избавляться от него, а вычленять его. Той же кластеризацией.
avatar
dmitrievskymax, что-то тут не так с теорией, потому что вы можете привести любой ряд к постоянной волатильности путем ребалансировки, при этом Шарп и доходность прибыльной системы (сигнала) вырастет, что точно говорит о неслучайности сигнала.
avatar
Lagamail, ребалансировки чего?
avatar
dmitrievskymax, ребалансировки приращений цены на нужную вам волатильность.
avatar
Lagamail, а есть какая-то формула или ссылки на исследования? Пробовал гауссить приращения через Lambert-w преобразование, не очень много дало
avatar
dmitrievskymax, формулу написал Eugene Logunov, все с ребалансировкой просто, а с ее представлением нет. 

Вы как раз должны искать прибыльные модели на ряде приведенном к фиксированной волатильности.

Сейчас вы выдираете куски с разной волатильностью и потом еще склеиваете их перемешивая, на таких данных что-то нормальное получить невозможно.

Если нужно распишу подробнее почему так, и большие плюсы за ваши видео.
avatar
Lagamail, Попробую нормировать на волатильность, спасибо. Было бы интересно почитать мысли на этот счет 
avatar
По моему, зависимость цены от прошлых значений есть 100%. Просто это далеко не единственная зависимость и не самая сильная ))
avatar
тоже в эту сторону копаю, и хотелось бы даже посмотреть, что у вас получилось… но 40 минут не осилил.. 
Не могли бы вы сделать может выжимки или ревью… минут на 5? ;)
avatar

Denis, ))

Можно уже вводить в общечеловеческий обиход эту меру мотивации. Я замотивирован изучить эту предметную область на 5 минут. А я в 3 раза больше замотивирован — готов посмотреть 15-минутное видео),

avatar
Replikant_mih, :) согласен, уровень мотивации в минуту, кто то готов потратить 5 минут ктото 15… кто то 40… в итоге смотришь все урывками… читаешь по диагонали… да и знания такие же получаются ). 
avatar
Toddler, мне интересно что из этого выйдет, его числодробилка может что-то найти ).
avatar
Eugene Logunov, спасибо, попробую, мб видос запишу )
avatar

теги блога dmitrievskymax

....все тэги



UPDONW
Новый дизайн