Пусть мы хотим научить MLP (Multilayered perceptron) отличать отрезки (например, длиной 255 значений) некоторого полезного сигнала (например, первых разностей ценового ряда) от отрезков «белого шума». То есть, банально, если на входе сети (255 входных нейронов) полезный сигнал, то на выходе мы хотим получать сигнал как можно ближе (в идеале равный) 1, а если на входе «шум», то 0.
Понятно, что мы можем сгенерировать столько образцов белого шума, сколько захотим, однако — вопрос! — можно ли в части шума обойтись без обучения сети «в лоб», а решить задачу аналитически, так чтобы — вместо обучения сети шуму — получить некоторые условия на веса сети?
Данная публикация является личным мнением автора. Мнение владельца сайта может не совпадать с мнением автора.
Мм, движуха интересная, обучить модель отличать белый шум от не белого. Потому что не белый шум, он может разной степени зашумленности, если модель что-то определит как шум, скорее всего туда лучше не соваться сейчас.
Может лучше эту тему поразвивать?
Про вопрос «а решить задачу аналитически» — не понял зачем это нужно, если нагенерить шума вообще не проблема.