Комментарии к постам Beach Bunny

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
Однозначно очередной фейк.
Особо понравилось -«Валерия Тютина (Valeria Tyutina), генеральный директор ENG8, сказала:»
avatar
  • 20 октября 2024, 01:36
  • Еще
Иван Иванов, с учетом того что делаться это будет с приложениях с использованием камер телефона, то мимо(своих денех) потом пойдете вы.
Так что не нас, а вас.


avatar
  • 19 октября 2024, 18:37
  • Еще
Это будет принудительная сдача биометрии? 
avatar
  • 19 октября 2024, 17:35
  • Еще
Хорошее решение, сдал биометрию и мошенники идут мимо
avatar
  • 19 октября 2024, 17:29
  • Еще
цб идет по идеям глобалистов
avatar
  • 19 октября 2024, 17:27
  • Еще
Beach Bunny, я в Адлере в таком гараже в гостях жил. но там как будто бы это сразу целенаправленно так и строили.
avatar
  • 16 октября 2024, 15:35
  • Еще
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.

А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние  по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.

«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
avatar
  • 15 октября 2024, 23:37
  • Еще
А. Г., ничего удивительного что ничего не вышло — слишком мало данных даже для такой простой архитектуры, да и сами данные слишком простые. Я вот всю прошлую неделю пытался запихнуть в 2x 24 Гб RTX 3090Ti комбинированную сетку CNN+ Bi-directional LSTM из 700 млн параметров, получающую на вход массив из двумерных матриц нормализованных параметров (и это конечно далеко не банальные приращения цен) общим объемом ~11 Гбайт, а на выходе… это мое ноу-хау, но давайте скажу что это некий описательный образ рынка.
avatar
  • 15 октября 2024, 22:36
  • Еще
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;

Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих,  за 20 прошлых дней, а выход — приращение логарифма  Доу-Джонса на следующий день.

Абсолютно нерабочая задача для такой нейросети с такими входами.
avatar
  • 15 октября 2024, 22:13
  • Еще
А. Г., Можно теперь я спрошу? С какой самой интересной нейросетью, связанной с финансовыми рынками вы сталкивались? Какая архитектура? Сколько параметров? На каком объеме данных тренировали? Какие признаки использовали? Какое железо использовали для тренировки?
avatar
  • 15 октября 2024, 21:08
  • Еще
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
avatar
  • 15 октября 2024, 20:42
  • Еще
А. Г., Ещё раз вам хочу сказать что StDev ошибок это крайне примитивная метрика для оценки нейросетей. Но если вы хотите в век AGI продолжать махать каменным топором — ваш выбор. В любом современной библиотеке типа tensorflow все это разумеется есть.
avatar
  • 15 октября 2024, 20:25
  • Еще
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
avatar
  • 15 октября 2024, 19:53
  • Еще
А. Г., Господи, да перестаньте вы смотреть на нейросети как на тупую математическую функцию. Они уже давно умнее вас и видят в каких угодно данных гораздо больше чем вы. И не подгонка, а генерализация.
avatar
  • 15 октября 2024, 19:29
  • Еще
А. Г., зачем вам это? Это абсолютно примитивно, также как и набор доступных в SPSS моделей нейросеток. Для оценки сейчас используются гораздо более робастные метрики — F1 score, cross-entropy loss, ROC, AUC и т.д. и т.п. В прошлом посте про сравнение с линейной регрессией это вообще каменный век… Вы чего?
avatar
  • 15 октября 2024, 19:27
  • Еще
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
avatar
  • 15 октября 2024, 17:15
  • Еще
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?
avatar
  • 15 октября 2024, 17:10
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн