Иван Иванов, с учетом того что делаться это будет с приложениях с использованием камер телефона, то мимо(своих денех) потом пойдете вы.
Так что не нас, а вас.
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.
А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.
«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
А. Г., ничего удивительного что ничего не вышло — слишком мало данных даже для такой простой архитектуры, да и сами данные слишком простые. Я вот всю прошлую неделю пытался запихнуть в 2x 24 Гб RTX 3090Ti комбинированную сетку CNN+ Bi-directional LSTM из 700 млн параметров, получающую на вход массив из двумерных матриц нормализованных параметров (и это конечно далеко не банальные приращения цен) общим объемом ~11 Гбайт, а на выходе… это мое ноу-хау, но давайте скажу что это некий описательный образ рынка.
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;
Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих, за 20 прошлых дней, а выход — приращение логарифма Доу-Джонса на следующий день.
Абсолютно нерабочая задача для такой нейросети с такими входами.
А. Г., Можно теперь я спрошу? С какой самой интересной нейросетью, связанной с финансовыми рынками вы сталкивались? Какая архитектура? Сколько параметров? На каком объеме данных тренировали? Какие признаки использовали? Какое железо использовали для тренировки?
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
А. Г., Ещё раз вам хочу сказать что StDev ошибок это крайне примитивная метрика для оценки нейросетей. Но если вы хотите в век AGI продолжать махать каменным топором — ваш выбор. В любом современной библиотеке типа tensorflow все это разумеется есть.
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
А. Г., Господи, да перестаньте вы смотреть на нейросети как на тупую математическую функцию. Они уже давно умнее вас и видят в каких угодно данных гораздо больше чем вы. И не подгонка, а генерализация.
А. Г., зачем вам это? Это абсолютно примитивно, также как и набор доступных в SPSS моделей нейросеток. Для оценки сейчас используются гораздо более робастные метрики — F1 score, cross-entropy loss, ROC, AUC и т.д. и т.п. В прошлом посте про сравнение с линейной регрессией это вообще каменный век… Вы чего?
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?