Вопрос по оптимизации торговой системы
Хочу спросить совета по поводу оптимизации ТС. Я оптимизирую ТС на данных за 2007-2012 года. Причем, выбираю варианты, наиболее равномерно работающие в каждом отдельном году. Но возник вопрос: оправданно ли брать такой большой интервал? Может быть лучше старые данные выбросить, подстроившись таким образом под более актуальную рыночную ситуацию.
У самого есть соображения как за так и против.
1) За сохранение старых данных: хорошая работа на бОльшем числе интервалов дает бОльшие шансы повторить хорошие результаты в будущем, если поведение рынка как-то изменится.
2) За удаление старых данных: если их убрать, то получится лучше подстроиться под актуальное поведение рынка. Если предположить, что поведение рынка в непосредственном будущем будет более-менее похоже на недавнее поведение (что кажется правдой), то опять получаем бОльшие шансы повторить хорошие результаты.
В общем, как лучше поступить? Ничего не менять или выбросить старые данные полностью или не выбрасывать, но придать разные веса?
43 |
Читайте на SMART-LAB:
Снижение военной премии в нефти: что это меняет для доллара и G10
Во второй половине понедельника – начале вторники рынки активно пересматривают премию за худший сценарий на энергетическом рынке, что цепочкой...
12 марта Группа Ренессанс страхование опубликует МСФО за 2025 год
Напоминаем, что 12 марта 2026 года RENI опубликует МСФО Группы за 2025 год, а также проведет День инвестора, чтобы рассказать о ситуации на...
⚙️ Как Займер использует ИИ в своей работе
Мы часто говорим, что наш сервис — высокотехнологичный, и это не пустые слова. Ранее мы уже рассказывали, как в Займере работают скоринг и...
Гендиректор Инарктики продал свои акции компании. Что это может значить?
Вечером в пятницу (6 марта ) вышел сущфакт о том, что Соснов Илья Геннадьевич, гендиректор Инарктики, продал свои акции компании. В нашем...
Это только кажется что получится лучше подстроиться под текущий рынок. Если бы это было на самом деле, то тем более нужно брать широкий период — а там система теоретически и подстроилась бы. А в действительности, скорее всего, никакой «подстройки» не будет, то есть будет что-то, но надеяться на улучшение результатов не стоит.
И ещё.
Лучший вариант — это когда оптимизация не требуется.
Наличие разумных параметров, но при которых система сливает — очень сильный повод задуматься над системой вообще.
но я бы не стал отбирать лучшие, а набрал бы пакет систем с разными параметрами (из этого хорошего диапазона), и у всех систем чтобы равное депо.
Поскольку, хотя известно какие параметры БЫЛИ лучшими, но например на период в год вперёд совсем неизвестно какие параметры БУДУТ лучшими.
2. П. 2 надо проверить на истории (в смысле предикативности сохранения состояния). Если это улучшает систему — why not?
С уважением
1) Не совсем понял.
2) Вы имеете в виду оптимизировать на новых данных а проверять работу на старых? А не логичнее будет наоборот оптимизировать на старых, а проверять на новых, эмулируя таким образом реальную работу?
По поводу 2 я имел ввиду, что строится система с постоянной переоптимизацией параметров системы по короткому предшествующему участку и смотрится как такая новая система работала в прошлом. Т. е. старые данные не удаляются, а не участвуют в оптимизации параметров, которые используются в относительно далеком будущем. Но как система работала в таком режиме проверяется и на старых данных.
Тогда отбросить п. 2, как неудачный.