Вопрос по оптимизации торговой системы
Хочу спросить совета по поводу оптимизации ТС. Я оптимизирую ТС на данных за 2007-2012 года. Причем, выбираю варианты, наиболее равномерно работающие в каждом отдельном году. Но возник вопрос: оправданно ли брать такой большой интервал? Может быть лучше старые данные выбросить, подстроившись таким образом под более актуальную рыночную ситуацию.
У самого есть соображения как за так и против.
1) За сохранение старых данных: хорошая работа на бОльшем числе интервалов дает бОльшие шансы повторить хорошие результаты в будущем, если поведение рынка как-то изменится.
2) За удаление старых данных: если их убрать, то получится лучше подстроиться под актуальное поведение рынка. Если предположить, что поведение рынка в непосредственном будущем будет более-менее похоже на недавнее поведение (что кажется правдой), то опять получаем бОльшие шансы повторить хорошие результаты.
В общем, как лучше поступить? Ничего не менять или выбросить старые данные полностью или не выбрасывать, но придать разные веса?
42 |
Читайте на SMART-LAB:
Крупные страховые начали повышать тарифы по ОСАГО
Агентство АСН выяснило, что некоторые страховые компании, входящие в топ-10 по ОСАГО, изменили тарифы по ОСАГО для физлиц с 20 января 2026 г. В...
Результаты Софтлайн за 2025 год — уже 19 февраля!
Друзья, 19 февраля 2026 года мы раскроем основные финансовые показатели за 4 квартал и 12 месяцев 2025 года (неаудированные). В этот же день...
АКРА подтвердило кредитный рейтинг ПАО «ЭсЭфАй» на уровне AA-(RU)
Рейтинговое агентство АКРА подтвердило кредитный рейтинг ПАО «ЭсЭфАй» на уровне AA-(RU) со стабильным прогнозом. Рейтинг обусловлен агрегированной...
Сохрани себе эту супер-таблицу, проверишь результаты в конце года!
Мы собрали для вас все макро-прогнозы от брокеров и управляющих компаний и свели их в одну таблицу.
Сохрани себе, проверишь в конце года у...
Это только кажется что получится лучше подстроиться под текущий рынок. Если бы это было на самом деле, то тем более нужно брать широкий период — а там система теоретически и подстроилась бы. А в действительности, скорее всего, никакой «подстройки» не будет, то есть будет что-то, но надеяться на улучшение результатов не стоит.
И ещё.
Лучший вариант — это когда оптимизация не требуется.
Наличие разумных параметров, но при которых система сливает — очень сильный повод задуматься над системой вообще.
но я бы не стал отбирать лучшие, а набрал бы пакет систем с разными параметрами (из этого хорошего диапазона), и у всех систем чтобы равное депо.
Поскольку, хотя известно какие параметры БЫЛИ лучшими, но например на период в год вперёд совсем неизвестно какие параметры БУДУТ лучшими.
2. П. 2 надо проверить на истории (в смысле предикативности сохранения состояния). Если это улучшает систему — why not?
С уважением
1) Не совсем понял.
2) Вы имеете в виду оптимизировать на новых данных а проверять работу на старых? А не логичнее будет наоборот оптимизировать на старых, а проверять на новых, эмулируя таким образом реальную работу?
По поводу 2 я имел ввиду, что строится система с постоянной переоптимизацией параметров системы по короткому предшествующему участку и смотрится как такая новая система работала в прошлом. Т. е. старые данные не удаляются, а не участвуют в оптимизации параметров, которые используются в относительно далеком будущем. Но как система работала в таком режиме проверяется и на старых данных.
Тогда отбросить п. 2, как неудачный.