Фиттите линейную регрессию ln(NonInflationaryRUB) ~ ln(Brent), альфа — это свободный член, бэта — коэффициент наклона. Откройте любой базовый учебник по эконометрике и разберитесь в главе «линейная регрессия» — сразу все станет понятно, и главное — получите очень простой инструмент для оценки много чего в экономике, физике и не только.
SergeyJu, ну все-таки линейная регрессия очень примитивна, и сама линейная зависимость встречается нечасто. Я базовым универсальным инструментом исследования любых данных продолжаю считать extreme gradient boosting ;) Но если нет математического бэкграунда — то линейная регрессия самое то
MadQuant, звучит красиво. А как Вы контролируете риск оверфитинга? Я с рэндом форест ковырялся весьма долго, но как-то не получил удовлетворения. Если в одно дерево включено много решающих правил — переподгонка, если мало — нет преимущества перед более простыми методами.
SergeyJu, ну есть несколько способов, в том числе встроенных в тот же sklearn:
— boosting сам по себе довольно робастен — как правило несколько тысяч итераций еще не приводят к переобучению в классическом понимании
— дополнительно при фиттинге деревьев можно указывать, чтобы он перебирал не все переменные на каждом шаге и использовал для обучения не все данные — магия, но помогает избежать переобучения
— другие настройки вроде минимального кол-ва наблюдений в листе и минимального кол-ва наблюдений, которое можно разделить
Все эти настройки можно отдельно калибровать, и итоговый результат обычно получается неплох.
Речь, понятно, о задачах общего назначения — рыночные данные деревьями предсказываются не лучше, чем более простыми методами
MadQuant, про все эти штучки я читал, кое-что даже пробовал использовать. В общем, к рынку приспособить не смог (имею в виду разработку ТС).
Похоже, эта задачка сильно отличается от традиционных. Другая целевая функция (кстати, какая?) совсем другой уровень повторяемости (многократно меньший). В общем, копать-не перекопать.
USD/CAD: потенциал для укрепления подходит к исчерпанию
Канадский доллар торговался довольно волатильно: после повторной попытки возобновить укрепление столкнулся с серьезным барьером, который заставил снова умеренно ослабнуть. После первой волны роста...
Арбитраж фьючерс vs базовый актив: почему расхождение есть всегда и где здесь деньги
Не все расхождения одинаково полезны
Классическая идея арбитража простая. Hа двух рынках один и тот же актив стоит по-разному: покупаем дешевле, продаем дороже. Так можно сравнивать,...
Россети Урал. Отчет об исполнении инвестпрограммы за Q4 2025г. Считаем дивиденды!
Компания Россети Урал опубликовала отчет об исполнении инвестпрограммы за Q4 2025г., где показаны финансовые показатели компании по РСБУ в 4 квартале (ну и понятно за целый год): 👉Выручка...
ВсеИнструменты - дивиденды для имитации благополучия? По данным «Ъ», крупнейшие DIY-сети за 2025 год увеличили оборот всего на 4,5–8%. Такая скромная динамика обусловлена охлаждением экономики и строи...
Индия резко нарастила импорт российского коксующегося угля: в январе поставки достигли 1,22 млн тонн, увеличившись на 58% м/м и на 63% г/г — Ъ Индия — крупнейший покупатель российского коксующегося уг...
Индия резко нарастила импорт российского коксующегося угля: в январе поставки достигли 1,22 млн тонн, увеличившись на 58% м/м и на 63% г/г — Ъ Индия — крупнейший покупатель российского коксующегося уг...
— boosting сам по себе довольно робастен — как правило несколько тысяч итераций еще не приводят к переобучению в классическом понимании
— дополнительно при фиттинге деревьев можно указывать, чтобы он перебирал не все переменные на каждом шаге и использовал для обучения не все данные — магия, но помогает избежать переобучения
— другие настройки вроде минимального кол-ва наблюдений в листе и минимального кол-ва наблюдений, которое можно разделить
Все эти настройки можно отдельно калибровать, и итоговый результат обычно получается неплох.
Речь, понятно, о задачах общего назначения — рыночные данные деревьями предсказываются не лучше, чем более простыми методами
Похоже, эта задачка сильно отличается от традиционных. Другая целевая функция (кстати, какая?) совсем другой уровень повторяемости (многократно меньший). В общем, копать-не перекопать.