Комментарии к постам Beach Bunny

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
Beach Bunny, я в Адлере в таком гараже в гостях жил. но там как будто бы это сразу целенаправленно так и строили.
avatar
  • 16 октября 2024, 15:35
  • Еще
BeyG, да любые N цифр являются значениями многочлена N+1 степени от одной переменной.Только смысл в этом для прогноза (N+1)-й цифры нуль. Поэтому для точности того, что нашлось, надо, как минимум сравнить точность прогноза на том, что ложилось в обучение с тем, что обучение не видело. А уж много на входе или мало, это для решения задачи получения одинаковой точности прямого влияния может и не иметь.

А ведь если наблюдаемая последовательность аекторов — последовательность с убывающей зависимостью по времени или «расстоянию», то дальние  по времени и «расстоянию» наблюдения из обучения вообще лучше убрать, так как они точно на обучении приведут к ошибочному приближению выхода.

«Расстояние» в кавычках потому что в нем можно отказаться от одного из стандартных условия определения.
avatar
  • 15 октября 2024, 23:37
  • Еще
А. Г., ничего удивительного что ничего не вышло — слишком мало данных даже для такой простой архитектуры, да и сами данные слишком простые. Я вот всю прошлую неделю пытался запихнуть в 2x 24 Гб RTX 3090Ti комбинированную сетку CNN+ Bi-directional LSTM из 700 млн параметров, получающую на вход массив из двумерных матриц нормализованных параметров (и это конечно далеко не банальные приращения цен) общим объемом ~11 Гбайт, а на выходе… это мое ноу-хау, но давайте скажу что это некий описательный образ рынка.
avatar
  • 15 октября 2024, 22:36
  • Еще
BeyG, С точки зрения математики, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации;

Многослойный перцептрон с сигмоидами, на вход которого подавались приращения логарифмов дневных цен индекса Доу-Джонса и всех акций, его составляющих,  за 20 прошлых дней, а выход — приращение логарифма  Доу-Джонса на следующий день.

Абсолютно нерабочая задача для такой нейросети с такими входами.
avatar
  • 15 октября 2024, 22:13
  • Еще
А. Г., Можно теперь я спрошу? С какой самой интересной нейросетью, связанной с финансовыми рынками вы сталкивались? Какая архитектура? Сколько параметров? На каком объеме данных тренировали? Какие признаки использовали? Какое железо использовали для тренировки?
avatar
  • 15 октября 2024, 21:08
  • Еще
BeyG, эта метрика не примитивная, а самая простая из ключевых для нестационарных случайных величин. Если с ней ничего не получается, то надо выбросить сделанное на помойку, а если получилось, то стоит и еще кое-что разобрать.
avatar
  • 15 октября 2024, 20:42
  • Еще
А. Г., Ещё раз вам хочу сказать что StDev ошибок это крайне примитивная метрика для оценки нейросетей. Но если вы хотите в век AGI продолжать махать каменным топором — ваш выбор. В любом современной библиотеке типа tensorflow все это разумеется есть.
avatar
  • 15 октября 2024, 20:25
  • Еще
BeyG, а нейросеть и есть только функция отображения входов на выход. И вопрос о ее свойствах — ключевой. А Вы так и не ответили на мой вопрос об СКО ошибок. Он то как раз ключевой в использовании нейросетей с нестационарными случайными входами, как и любой функции.
avatar
  • 15 октября 2024, 19:53
  • Еще
А. Г., Господи, да перестаньте вы смотреть на нейросети как на тупую математическую функцию. Они уже давно умнее вас и видят в каких угодно данных гораздо больше чем вы. И не подгонка, а генерализация.
avatar
  • 15 октября 2024, 19:29
  • Еще
А. Г., зачем вам это? Это абсолютно примитивно, также как и набор доступных в SPSS моделей нейросеток. Для оценки сейчас используются гораздо более робастные метрики — F1 score, cross-entropy loss, ROC, AUC и т.д. и т.п. В прошлом посте про сравнение с линейной регрессией это вообще каменный век… Вы чего?
avatar
  • 15 октября 2024, 19:27
  • Еще
BeyG, убирать нестационарность путем подгонки параметров функции от нестационарной последовательности — это априорная ошибка. А нейросеть всегда считал подгонкой параметров функции на обучающей выборке. Или в этом я уже не прав?
avatar
  • 15 октября 2024, 17:15
  • Еще
BeyG, условие обучения, чтобы СКО ошибки на обучающей выборке и тестирующей были статистически идентичны я не видел нигде, кроме SPSS. Не подскажите в каком еще ПО это уже реализовано?
avatar
  • 15 октября 2024, 17:10
  • Еще
А. Г., Ну понятно. Обучать нейросети в SPSS это примерно как в лаптях марафон бежать. Без обид, но все сильно попахивает нафталином и похоже на рассуждения человека который может и силен в математике и имеет большой опыт, но совершенно не в теме современного состояния индустрии ИИ и neural networks.
avatar
  • 15 октября 2024, 16:19
  • Еще
А. Г., вы считаете нейросети слишком примитивным явлением, за последние 5-10 лет, там произошел качественный рывок не только за счёт вычислительных мощностей, но и в архитектуре. Attention механизмы, LSTM, TCN, различные комбинированные подходы запросто позволяют «убирать» эту самую нестационарность силами самой нейросети, а точнее выделять те свойства процессов которые являются условно полезной составляющей.
avatar
  • 15 октября 2024, 16:15
  • Еще
Жёсткий Ястреб, у тебя личная неприязнь к Маску, а это мешает оценивать происходящее объективно.
avatar
  • 14 октября 2024, 00:15
  • Еще
Александр Сережкин, 
Старлинк уже работает.

Я видел по Хаймарсам, подтверждаю, работает. Вот только надо задуматься, зачем он США в таком объёме понадобился, ведь тут вон какое дело:
В августе 2001 года была принята федеральная целевая программа «Глобальная навигационная система»[7], по которой полное покрытие территории России планировалось в начале 2008 года, а глобальных масштабов система должна была достичь к началу 2010 года. Для решения этой задачи планировалось в течение 2007, 2008 и 2009 годов произвести 6 запусков ракета-носителей и вывести на орбиту 18 спутников — таким образом, к концу 2009 года группировка вновь насчитывала бы 24 аппарата.

А потом хопля:
Герань-2" оснащена блоком управления, использующим отечественную навигационную систему ГЛОНАСС.

Вот и думайте, что США мутят и кому прилетит))) Маск ещё раз повторяю — клоун, которым прикрываются очень специальные службы (и немножко синагога). 
Кошка-мыши согласен, но на его месте мог быть даже Саня Годунов из Крепкого орешка 1, всё равно бы никто не заметил)))
avatar
  • 13 октября 2024, 19:03
  • Еще
Жёсткий Ястреб, 
знаю что смысла в таких полётах с гулькин нос, ибо цель их точно такая же как в эпоху Армстронга — перекрыть инфляцию гоям через ракетки в телевизоре.
Старлинк уже работает. А без новых технологий и патентов нельзя было достичь.
я считаю, что он клоун, ...

не важно какого цвета кошка, главное чтобы она ловила мышей. 
 
avatar
  • 13 октября 2024, 18:47
  • Еще
Василий Петров, при том что оба пилят американские деньги. А там хоть Старшип, хоть Контрнаступшип.
avatar
  • 13 октября 2024, 18:31
  • Еще
Василий Петров, как причем? Все просто и очевидно.
Зеленский 5 согласных +StarShip 6 согласных = Adolf (5 букв) + Hitler (6 букв)!!!
И это не просто совпадение!
А мы тут не причем (youtube.com)
avatar
  • 13 октября 2024, 18:08
  • Еще
Жёсткий Ястреб, а мне кажется клоун ты. При чем тут StarShip и Зеленский?
avatar
  • 13 октября 2024, 17:43
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн