Давно такой вопрос у меня крутится.
Вот допустим некто создал полностью формализованную стратегию (точнее, алгоритм) и начал ее выполнять с помощью робота через какого-нибудь брокера. Предположим стратегия весьма доходная. Брокер ведь легко может отобрать наиболее успешных клиентов.
Есть ли риск что брокер выполнит reverse engineering стратегии (ну то есть спиздит ее)? Есть ли резон брокерам таким заниматься? Если риск есть то какие могут быть способы защиты?
Выводим в топ, мне кажется вопрос может быть актуальным для многих алгоритмистов.
Хочу спросить совета по поводу оптимизации ТС. Я оптимизирую ТС на данных за 2007-2012 года. Причем, выбираю варианты, наиболее равномерно работающие в каждом отдельном году. Но возник вопрос: оправданно ли брать такой большой интервал? Может быть лучше старые данные выбросить, подстроившись таким образом под более актуальную рыночную ситуацию.
У самого есть соображения как за так и против.
1) За сохранение старых данных: хорошая работа на бОльшем числе интервалов дает бОльшие шансы повторить хорошие результаты в будущем, если поведение рынка как-то изменится.
2) За удаление старых данных: если их убрать, то получится лучше подстроиться под актуальное поведение рынка. Если предположить, что поведение рынка в непосредственном будущем будет более-менее похоже на недавнее поведение (что кажется правдой), то опять получаем бОльшие шансы повторить хорошие результаты.
В общем, как лучше поступить? Ничего не менять или выбросить старые данные полностью или не выбрасывать, но придать разные веса?