BeyG, тут в другом вопрос, реальной стоимости ?
Компания можно оценивать хоть хулиард, но если ее прибыль 20 ярдов, то извините.
Если по простому, не может тюльпан стоить дом.
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.
А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.
«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;
Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих, за 20 прошлых дней, а выход — приращение логарифма Доу-Джонса на следующий день.
Абсолютно нерабочая задача для такой нейросети с такими входами.
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?
BeyG, никакая функция от нестационарных случайных величин не может сделать статистический прогноз пока ненаблюдаемого. Эта теорема в теории вероятностей доказана еще в 70-х годах 20 века.
Поэтому, если используешь нейросеть для статистического прогноза пока ненаблюдаемого, то убирай нестационарность на ее входе, так как любая нейросеть — это функция от входа. А цены на акции — нестационарны. Только для таких входов я и делал утверждение для нейросетей в торговле акциями. Конечно это не значит, что если на вход нейросети подать функцию от цен, убравшую их нестационарность, то ее нельзя использовать. Но прежде чем использовать нейросеть, надо построить такую функцию.
BeyG, удивляют такие персонажи. Тебе явно одно преподносят в качестве другого — мошенничество. И следом комменты, хаха лох, мамонт повелся. В любом нормальном обществе должны за это наказывать. Но только не у нас.
P.s. Хаха суд, мвд, депутат, банк, <выбрать свое> наебал тебя. А че ты такой мамонт не читаешь нано шрифт на 100ой странице, а че ты не эксперт в квантовой механике, что не понимаешь, что тебе наебывают.