if ((AroonDownClose_20_[Bar] >= 75.0)&&(AroonDownClose_20_[Bar] <= 100.0)) //
if ((StochD14_5_[Bar] >= 1.9416)&&(StochD14_5_[Bar] <= 10.3487)) //
Загоняем, считаем:
Названия строк | Коли | Profit % |
test | 374 | 0,36 |
2006 | 17 | 0,50 |
2007 | 43 | 0,83 |
2008 | 79 | 0,04 |
2009 | 35 | 0,52 |
2018 | 61 | 0,56 |
2019 | 87 | 0,41 |
2020 | 52 | -0,03 |
train | 647 | 0,88 |
2010 | 57 | 1,89 |
2011 | 78 | 0,59 |
2012 | 65 | 0,55 |
2013 | 112 | -0,33 |
2014 | 85 | 2,45 |
2015 | 85 | 0,40 |
2016 | 56 | 1,86 |
2017 | 89 | 0,26 |
2018 | 20 | 2,28 |
Общий итог | 1021 | 0,69 |
Видим что если на трайне доходность была 0,88, то на тесте доходность упала до 0,36. Таки дела. По графику видно что это система из разряда «ловли ножа». Дело такое
Или вот система только с одной фичей:
if ((TRIXClose_10_[Bar] >= -4.0825)&&(TRIXClose_10_[Bar] <= -0.799)) //
Названия строк | Коли | Profit % |
test | 154 | -0,13 |
2006 | 11 | 7,03 |
2007 | 7 | 6,07 |
2008 | 72 | -9,41 |
2009 | 29 | 9,29 |
2019 | 3 | 5,51 |
2020 | 32 | 7,86 |
train | 176 | 4,35 |
2010 | 12 | 5,29 |
2011 | 47 | 6,37 |
2012 | 18 | -2,32 |
2013 | 24 | 0,22 |
2014 | 46 | 6,07 |
2015 | 6 | 5,76 |
2016 | 4 | 1,12 |
2017 | 10 | 4,64 |
2018 | 9 | 8,24 |
Общий итог | 330 | 2,26 |
Тут с трейна доходность в 4,35 упала до теста -0,13. «Виноват» 2008 год с его 72 сделками по -9,41%.
Тоже система из разряда «ловля ножей».
Ну вот как то так
Но, насколько я помню, он именно на контртренде специализировался. Так что ловля ножей это похоже.
Я тоже, кстати, считаю, что больше 3 фич — перебор почти всегда. Хотя есть системы с 4 фичами. А если фичи всего 3, то GB становится совсем уж вырожденный.
Там была некоторая ниша на буме доткомов и позже — шорт сильно выросшего шлака, с большим стопом и коротким тейком. Это очень далеко от курва индикаторов.
Похоже, сеткой вы выцепили статистический артефакт.
Мож я чего не догоняю, но:
— Случайный лес не склонен к переобучению.
— Бустинг с неглубокой глубиной тоже не особо переобучается.
— Ограничение глубины в 3 при кол-ве фичей 3 — разве дерево может быть глубже, чем кол-во фичей?
— Для одного признака ML особо нужен, да и для двух тоже.
А почему нет-то? Ты точно чего-то не догоняешь ))
Не знаю, что вообще можно интересного выцепить тремя фичами?
Алгоритм машобучения должен быть устроен так, чтобы переваривать произвольное количество фич, насколько хватит памяти и вычислительных мощностей.
Просто у фич предсказательная сила бывает сильно отличается в зависимости от значений других фич, и невозможно сказать какая конкретная вдруг окажется весьма полезной на глубине дерева скажем три или четыре, условно.
Зато если долго считает можно почувствовать себя крутым типа во я какую сложную штуку написал, какой мощный комп она грузит! ))
Пафос Респектыч, какие-то абстрактные рассуждения), медленно — что такое, для начала? Медленно само по себе или относительно чего-то?
Короче нет конкретики, нет смысла и продолжать.
ru.wikipedia.org/wiki/Вычислительная_сложность
ru.wikipedia.org/wiki/Временная_сложность_алгоритма
Я такую штуку использовал для того, чтобы понять, какие фичи «любят» друг друга, а какие просто плохие.
Один мой знакомый выбирал несколько десятков деревьев получше, но не идентичных и торговал их пакетом. В общем, результат не вызвал особого восторга. Как обычно, дело еще и в нюансах.
я на AI забил :( мучал его с 2013, в 2014 с ним удалось заработать, рынок был удачный. но и только. в итоге в 2020 решил что именно он — слабое звено. попробую годик без него, посмотрю.
глубина 3 и количество фич это перпендикулярные параметры. фичи вы сами выбираете, хотите все или нет. а глубина деревьев, это сколько вопросов можно к этому параметру задать. типа если >2, то… иначе если>1, то…