Блог им. AlekseyManin

Нейросеть и точка минимальных выплат.

Сделал нейросеть для прогноза цены фьючерса RTS к клирингу на основе точки минимальных выплат по опционам.

Как трактовать результаты — вообще не понимаю. Вроде что-то интересное и есть, если поставить количество эпох более 5000.  Ну это по коэффициенту детерминации еще более менее. А по loss и mae, вообще беда.

Кто занимается нейронками, гляньте пожалуйста. Может поставить входной слой LSTM и не перемешивать train, тогда результат будет лучше?

Ссылка на Colab notebook:

colab.research.google.com/drive/1MXjYUVcLMbiiE5hPauNtp9o8VE3QSu8c?usp=sharing

★1
20 комментариев
помню, лет 10 назад, плюс-минус, нейросетями в трейдинге бредил каждый второй, затем тема тихо ушла - либо все стали миллионерами, либо не прокатило
avatar
vito333, так я думаю, что основные исследования были по прогнозам будущей цены на основе предыдущих цен, но здесь сложно что-то выловить. 
надо будет попробовать на своих данных такое сделать ) все не мог придумать идею для изучения нейронок
avatar
Андрей К, так может скооперируем усилия?
Алексей Манин, я очень не инертный. Могу реализовывать месяцами что то простое, если не в приоритете. А это пока не в высшем приоритете.
avatar
Андрей К, да у меня тоже всё не быстро получается ) Будет интерес, пиши в ЛС.
Андрей К, 
все не мог придумать идею для изучения нейронок
Дарю идею для изучения.
Определить точку пересечения двух МАшек.
Это просто, но ты попробуй это сделать нейросетью.)
Именно с этого начинал, и именно это было моей первой задачей.
avatar
3Qu, Так а что передавать в качестве фич? Если просто эти две МА передавать, то любой МЛ алго такую задачу легко решит. 
avatar
Недавно начал изучать нейронки.
avatar
Легко вникать в чужие исследования вообще не мой конёк). Но в глаза бросилось, что у вас с ростом кол-ва эпох обучения ошибки трейна падают, ошибки теста растут — ну это же классическое переобучение/переподгонка. И как будто бы это прям быстро начинается. Так что тут изначально что-то не то. Не помню, как там у нейросетей с защитой от переобучения, но тут по-видимому оно. Какие там лайфхаки проти этого есть в нейроветях — какие-то точно есть, помню)) — разрывать связи выборочно между слоями, что-то ещё. Думаю, нужно что-то такое попробовать. Ориентироваться можно сразу на динамику меры ошибок на тесте при имплементации каких-то новых фишек.
avatar
Replikant_mih, иногда, для задач некоторого класса, переподгонка вообще самое оно.
avatar
3Qu, Например?)
avatar
Replikant_mih, если хочешь использовать НС в качестве обучаемой логики.
avatar
3Qu, Ну любая ML модель это обучаемая логика. Но нам нужно обучиться, а не переобучиться, потому что мы будем использовать модель на OOS.
avatar

Максимум, что смог выжать  из нейронки
Алексей Манин, А в трейдерских метриках, да на OOS?)
avatar
Replikant_mih, OOS — это что за зверь такой? Поиск по запросу «нейросеть OOS» не дал результата. Заранее извиняюсь за свою неосведомленность, я нифига не программист и не дата саентист, только изучаю.
Алексей Манин, Out of sample (в противовес IS — in sample). Или другие их названия train/test. Так уже загуглится. А там лучше чем я объяснят).
avatar
Replikant_mih, ах вот это что означает ))) У меня сделано немного по другому. Данные разбиты на три части train/test/validation.
train — на этих данных модель обучается
test — на этих данных считается функция потерь (в обучении не участвует)
validation — прогон на предсказания и получение метрик mae и R2
Это я подсмотрел как делают другие, вернее скопипастил )))
Алексей Манин, А, ну супер. Осталось посчитать трейдерские метрики — PF, winrate, средний трейд и т.д. Ну как осталось), я бы сделал именно так.
avatar

теги блога Алексей Манин

....все тэги



UPDONW
Новый дизайн