Комментарии пользователя 3Qu

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
Иван Портной, скорее всего, сломается. Наверное, не сразу, но достаточно быстро.
avatar
  • Вчера в 19:55
  • Еще
ZabanenZaPravdu, тогда можно расходиться.))
avatar
  • Вчера в 17:56
  • Еще

Михаил Михалев, есть такое. Я в курсе. Но на первый вопрос он отвечает, что написано в источниках.
Про отсутствие требований стационарности я и сам читал в какой-то монографии.

avatar
  • Вчера в 17:22
  • Еще
А. Г., это только пример от ИИ, не более того.
Ключевая фраза здесь:
нейронным сетям стационарность не требуется. © ИИ
Если есть желание, подискутируйте с ИИ. У него весь инет в качестве мозгов.)
avatar
  • Вчера в 17:17
  • Еще

А. Г., вот, что ответил ИИ по поводу стационарности для НС

Вы абсолютно правы в этой дискуссии: нейронным сетям стационарность не требуется. Более того, именно способность работать с нестационарными данными — это одна из главных причин, почему ANN (особенно рекуррентные, как ваша GRU) вытеснили классические статистические методы вроде ARIMA.

avatar
  • Вчера в 17:07
  • Еще
А. Г., там этих формул..., вся книга.) Других по НС не читаю.
avatar
  • Вчера в 17:00
  • Еще
Михаил Михалев, нет. Такая метода позволит данным оставаться в диапазоне обучения. Не более того. Если реал выйдет за шкалу, что он вполне может сделать, НС перестанет корректно работать.
Пусть на истории данные были в диапазоне 0-100. Для согласования, делим все на 100 — получаем диапазон 0-1.
Запоминаем эти 100, и теперь все данные, подаваемые на НС делим на 100, какими бы они не были.
avatar
  • Вчера в 16:41
  • Еще
А. Г., в книге начала 2000-х написано обратное.) Причем, явно.
avatar
  • Вчера в 16:33
  • Еще
Михаил Михалев, 

как идет обучение и работа.

Перед обучением шкалируем всю историю, индикаторы и пр. Сохраняем параметры шкалера.
На тестах и реале шкалирум все подаваемые на НС данные шкалером с сохраненными на обучении параметрами.
Иначе, вообще ничего работать не будет.

avatar
  • Вчера в 16:25
  • Еще
А. Г., это заблуждение. НС работают с нестационарными последовательностями. Таких ограничений нет.
avatar
  • Вчера в 16:18
  • Еще
Михаил Михалев, это не неверно, а необходимо. Другой вопрос, что на тестах и реале шкалирование д.б. идентичным.
avatar
  • Вчера в 16:13
  • Еще
А. Г., цену подавать обязательно надо. Это дает положение и динамику цены относительно индикаторов. Несущественную информацию в идеале НС сама выкинет из рассмотрения.
avatar
  • Вчера в 16:08
  • Еще
Михаил Михалев, не обязательно. Если реал в диапазоне, то работать будет штатно.
avatar
  • Вчера в 16:05
  • Еще
Alexey Manin, я, вот, сейчас пробую (в очередной раз)) запихнуть робота в нейросеть — пусть сама решает со стратегией. И дообучать можно, хоть раз в неделю.
Скорее всего, в очередной раз ничего путного из этой затеи не выйдет.)
avatar
  • Вчера в 03:31
  • Еще
Рынок поменялся? Так на 10-20 сделках робота ничему не научишь. А научишь, рынок опять поменяется.) Безнадежно.
avatar
  • Вчера в 01:28
  • Еще
Алексей Манин, конечно просто. Сохраняем прибыль и сделки предыдущего фьючерса, и, как бы, начинаем тест с нуля, дополняя результаты теста предыдущего ыьючерса.
avatar
  • 24 апреля 2026, 00:09
  • Еще
Алексей Манин, неужели бы я этого не сделал, если бы мне это было нужно.)
avatar
  • 24 апреля 2026, 00:06
  • Еще
Алексей Манин, Так, закройте на старом и начните заново. В реале все равно придется это делать. Или вас силком закроют.)
avatar
  • 23 апреля 2026, 22:42
  • Еще
Алексей Манин, 15 минут.
А чего заморочного, прогоняете через модель последовательно, не сбрасывая предыдущий результат.
avatar
  • 23 апреля 2026, 19:47
  • Еще
Алексей Манин, проверяете на одном контракте, затем с перехлестом на следующем, и т.д., если нужно.
avatar
  • 23 апреля 2026, 19:23
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн