Алексей Манин
Алексей Манин личный блог
04 января 2023, 17:13

Нейросеть и точка минимальных выплат.

Сделал нейросеть для прогноза цены фьючерса RTS к клирингу на основе точки минимальных выплат по опционам.

Как трактовать результаты — вообще не понимаю. Вроде что-то интересное и есть, если поставить количество эпох более 5000.  Ну это по коэффициенту детерминации еще более менее. А по loss и mae, вообще беда.

Кто занимается нейронками, гляньте пожалуйста. Может поставить входной слой LSTM и не перемешивать train, тогда результат будет лучше?

Ссылка на Colab notebook:

colab.research.google.com/drive/1MXjYUVcLMbiiE5hPauNtp9o8VE3QSu8c?usp=sharing

20 Комментариев
  • vito333
    04 января 2023, 17:29
    помню, лет 10 назад, плюс-минус, нейросетями в трейдинге бредил каждый второй, затем тема тихо ушла - либо все стали миллионерами, либо не прокатило
  • Андрей К
    04 января 2023, 17:30
    надо будет попробовать на своих данных такое сделать ) все не мог придумать идею для изучения нейронок
      • Андрей К
        04 января 2023, 17:47
        Алексей Манин, я очень не инертный. Могу реализовывать месяцами что то простое, если не в приоритете. А это пока не в высшем приоритете.
    • 3Qu
      04 января 2023, 19:45
      Андрей К, 
      все не мог придумать идею для изучения нейронок
      Дарю идею для изучения.
      Определить точку пересечения двух МАшек.
      Это просто, но ты попробуй это сделать нейросетью.)
      Именно с этого начинал, и именно это было моей первой задачей.
      • i aztec
        10 января 2023, 23:03
        3Qu, Так а что передавать в качестве фич? Если просто эти две МА передавать, то любой МЛ алго такую задачу легко решит. 
  • googlioner
    04 января 2023, 20:28
    Недавно начал изучать нейронки.
  • Replikant_mih
    04 января 2023, 22:00
    Легко вникать в чужие исследования вообще не мой конёк). Но в глаза бросилось, что у вас с ростом кол-ва эпох обучения ошибки трейна падают, ошибки теста растут — ну это же классическое переобучение/переподгонка. И как будто бы это прям быстро начинается. Так что тут изначально что-то не то. Не помню, как там у нейросетей с защитой от переобучения, но тут по-видимому оно. Какие там лайфхаки проти этого есть в нейроветях — какие-то точно есть, помню)) — разрывать связи выборочно между слоями, что-то ещё. Думаю, нужно что-то такое попробовать. Ориентироваться можно сразу на динамику меры ошибок на тесте при имплементации каких-то новых фишек.
    • 3Qu
      11 января 2023, 00:15
      Replikant_mih, иногда, для задач некоторого класса, переподгонка вообще самое оно.
      • Replikant_mih
        11 января 2023, 00:29
        3Qu, Например?)
        • 3Qu
          11 января 2023, 02:15
          Replikant_mih, если хочешь использовать НС в качестве обучаемой логики.
          • Replikant_mih
            11 января 2023, 02:22
            3Qu, Ну любая ML модель это обучаемая логика. Но нам нужно обучиться, а не переобучиться, потому что мы будем использовать модель на OOS.
    • Replikant_mih
      11 января 2023, 00:30
      Алексей Манин, А в трейдерских метриках, да на OOS?)
        • Replikant_mih
          12 января 2023, 00:42
          Алексей Манин, Out of sample (в противовес IS — in sample). Или другие их названия train/test. Так уже загуглится. А там лучше чем я объяснят).
            • Replikant_mih
              12 января 2023, 08:18
              Алексей Манин, А, ну супер. Осталось посчитать трейдерские метрики — PF, winrate, средний трейд и т.д. Ну как осталось), я бы сделал именно так.

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн