Постов с тегом "ML": 30

ML


Сегодня че-то много о нейросетях (НС)

    • 09 марта 2021, 16:04
    • |
    • 3Qu
  • Еще
Основной вопрос — может ли НС, и вообще методы МО, прогнозировать рынок?
Зададим более простой вопрос — можно ли НС обучить выполнять оператор if()… else? Ответ очевиден — конечно можно.
А обучить выполнению группы таких операторов? — Не вопрос, конечно можно.
Т.е., НС можно обучить практически любой логике. Вроде, сомнений не вызывает.

Теперь у нас есть заведомо работоспособная прибыльная торговая система (ТС), принимающая решения о покупке/продаже на основе некоторых данных, констант и логики. Решение — это своего рода прогноз. Решение: покупать — это прогноз роста цены актива, продавать — прогноз падения цены.

Итак, если ТС построена на логике, а НС можно успешно обучить любой логике, то НС можно обучить логике нашей прибыльной ТС. А так как решение ТС — это прогнозирование рынка, то НС и другие методы МО без всяких сомнений могут прогнозировать рынок.
Вот, мы с вами все и доказали:
НС и другие методы МО без всяких сомнений могут прогнозировать рынок.


Дарю идею для околорыночного стартапа.

Идея:

Раскрутка околорыночников на смарт-лабе, ну или кого угодно на смарт-лабе.


Суть:

Парсим все посты за все время, вытаскиваем признаковое описание — ну там — длина заголовка, наличие капса в заголовке, ключевые слова, можно заморочиться на NLP (которое не программирование) что-то построить. Таргет у нас кол-во лайков, комментов, звездочек. Обучаем ML модель. Вытаскиваем и нее закономерности, все, у нас есть инструкция как писать выходящие в топ посты и быстро раскрутиться. Дальше можно нанять пару копирайтеров чтобы писали посты по этим инструкциям.

По аналогичной сцене можно вычленить алгоритмы написания провокационных комментариев под постами.

После первых раундов привлечения инвестиций уже можно расширяться, заключать договора с писателями смартлаба, чтобы по вайт-лейблу писали посты для заказчиков.

При дальнейшем расширении с применением нейросетей обучаемся создавать максимально продающие обучающие курсы. Чувак в галстуке на главной странице лендинга? Или девушка с глубоким декольте? Пачка рублей или долларов? — Нейросеть выдаст четкий рецепт лучших обучающих курсов. 

( Читать дальше )

CNN и финансовые TimeSeries

Есть такая CNN, сверточная сеть то бишь. На вход ей подаются картинки, на которых она учится отличать собачек от кошечек.  Меня это, относительно применения на фондовой бирже всегда привлекало.  

Сначала определимся какие рисунки подносим CNN. В качестве рисунков мы можем подать:

  1. Сырые ряды: цены, обьемы, индикаторы
  2. Индикаторы. То есть для каждого значения подсчитать набор тех.индикаторов и красиво оформить их в матрицу. Ведь что такое рисунок? Это всего лишь набор пикселей, каждый пиксель это значение какого то техиндикатора, чем он больше тем пиксель темней. Тут есть даже практическая реализация которой я частично и воспользовался. https://github.com/nayash/stock_cnn_blog_pub
  3. Представить сырые временные ряды в другой системе координат. Например GramianAngularField, где как пишут авторы больше информации. Так блин и пишут. Набиваете в гугле GramianAngularField и выпадает куча ссылок, но мне лично больше понравилась работа иранских товарищей https://arxiv.org/pdf/1810.08923.pdf


( Читать дальше )

Архитектура, при которой стратегия упаковывается в файл. Algo-only.

Придумал интересный подход. Мож кого натолкнет на интересные идеи какие-то.

 

Сейчас начал торговать ML модели. С практической стороны с моделями какая сложность – там есть процесс предобработки данных – генерация признаков в основном (если с точки зрения трейдинговых данных заходить), поэтому нельзя просто сохранить модель, в другом месте загрузить и она будет работать, надо сохранить, загрузить, предобработать исходные данные к тому виду, к которому приучена модель и только тогда она будет работать. К счастью тонна сопутствующих трудозатрат убирается такой классной штукой как пайплайн – сейчас моя модель это 2 пайплайна – один для предобработки данных, другой для предикта (сама модель). Т.е. я где-то что-то рисечу, дальше автоматика упаковывает в пайплайны (2 на модель, как сказал). Все, могу кинуть эти 2 файла в папку с моделями, откуда их забирает торгующий блок и, собственно, отторговывает. Красота. Всякие мета-данные – тикер там, время удержания позиции и прочие мета-логики упаковываю или в сам пайплайн или в название файла. Красота.



( Читать дальше )

Что я понял, обучая модели.

Вернее так: что я увидел, обучая модели. Всякие подобные темы любят поднимать трейдеры, они отлично располагают для пространных рассуждений о рынке и жизни, а я это, можно сказать, увидел наглядно. В общем, наблюдения не что-то гениальное, мной открытое, не грааль, но я это наблюдаю.

 

Что я делаю:

Играюсь с моделями ML, играюсь гипер-параметрами – параметрами самих моделей непосредственно и моими какими-то входящими параметрами. Смотрю как меняются результаты в зависимости от этих параметров.

 

Что я увидел:

  1. Где-то закономерностей объективно больше, где-то объективно меньше. Если прочесываешь график моделями (с разными параметрами) по мат. ожиданию OOS результатов совокупности моделей и по их распределению видно, что из каких-то графиков закономерности извлекаются на ура, а из каких-то со скрипом. В данном случае график это пересечение по тикер-TF-временной отрезок. Да даже если брать только тикер, некоторые, что называется, палку воткни, она зацветёт, а в некоторых надо очень постараться, чтобы нащупать нормальные закономерности.
  2. Похоже, действительно легче прогнозировать на короткие интервалы. Но эта закономерность выглядит не так, как её обычно преподносят. Обычно в ходу какая-то такая версия: чем ближе, тем легче, типа на минуты легче, чем на часы и т.д. Я бы сказал, что подтверждение находит скорее следующее: чем больше отношение горизонта прогноза к длине промежутка времени, данные из которого непосредственно участвуют в прогнозе. Ну т.е. если ты принимаешь решение по 50 свечам, то на 2*50 можно прогнозировать с большей точностью (winrate), чем на 10*50 и т.д. При этом в другом контексте, например, если ты ушел на TF выше, ты эти 10*50 сможешь спрогнозировать уже с хорошей точностью.
  3. Объективно раньше было зарабатывать легче. По ошибке из большого промежутка времени сначала какое-то время брал для обучения данные не самые свежие, а самые древние и удивлялся очень приличным результатам моделей, на свежих данных моделям можно сказать драматически сложнее извлекать закономерности.

Про AI и кибернетику в прогнозировании рынка

 

«Буржуазная печать широко разрекламировала новую науку — кибернетику. Эта модная лжетеория, выдвинутая группкой американских «учёных», претендует на решение всех стержневых научных проблем и на спасение человечества от всех социальных бедствий. Кибернетическое поветрие пошло по разнообразным отраслям знания: физиологии, психологии, социологии, психиатрии, лингвистике и др. По утверждению кибернетиков, поводом к созданию их лженауки послужило сходство между мозгом человека и современными сложными машинами.»

— Ярошевский М. Кибернетика — «наука» мракобесов. — Литературная газета. — 5 апреля 1952. — № 42(2915). — С. 4.

Самое поразительное, что американские ученые претендовали на применимость методов ко всему чему угодно кроме экономики, а наши дебилы отрицали применимость механистического подхода тоже ко всему чему угодно, кроме экономики. Это было 70 лет назад и сейчас повторяется то же самое. Куча дурачков пытается загрузить в AI минутные бары и родить волшебный алгоритм предсказания рынка. Тогда как крупнейшие американские корпорации, владеющие львиной долей прав и патентов по всем этим технологиям, даже собственные экономические процессы не отдают в управление AI и продолжают платить даже микро менеджерам, не говоря уже о предсказании трендов в глобальном масштабе. История таки реально ничему не учит.



Про AI и кибернетику в прогнозировании рынка




Вечер ML на SL: нейронка для RI

    • 12 ноября 2019, 21:23
    • |
    • dt0wer
  • Еще
Пост навеян сообщением коллеги по опасному бизнесу, который бьётся с RF, ну я наконец-то допилил свою нейронку. Тренировалась она на 5-минутках в RI, картинка с результатом тренировок в настоящий момент получается следующая:
Вечер ML на SL: нейронка для RI
Если грубо, то каппа это показатель, который можно трактовать как преимущество прогнозной модели в сравнении с тупым рандомом. F1 это мера, которая определяет, насколько точна модель (отсутствие ложных предсказаний) и одновременно насколько она чувствительна (кол-во пропущенных мячей). Полученные по ним значения 0.924 и >0.9 соответственно, это совершенно запредельная точность «на бумаге».
Что касается confusion matrix, то её можно трактовать как соотношение предсказаний и реальных значений. Как видно, тут тоже всё вроде бы ок, ни один шорт как лонг не был классифицирован и наоборот.

Погонял сейчас на вечёрке, но, как и следовало ожидать, на реальных биржевых данных всё оказалось далеко не так радужно:

( Читать дальше )

Записался на обучение по Data Science.

Обычно человек ходит по колее, но иногда система сбоит и случаются «эмм, а чё я раньше не задумывался, что можно…» и «хм, а ведь можно попробовать сделать…». В такие моменты можно выскакивать за пределы колеи и переходить в новую более интересную, выходить из зоны болотного комфорта в зону воодушевляющего дискомфорта.


Всегда ходил по колее (вернее, замкнутому циклу): математика не моё, у меня много своих преимуществ, математик не в их числе, не всем дано. И к нему прицеплялось: машинное обучение, нейронные сети, статистика и тер.вер. требуют математики – ну, значит, тоже не мое, ну значит без этого. А тут че-то осенило: а какого хрена!? Кстати, тот случай когда реклама сподвигла (назойливая реклама курсов обучения по Data Science). Сначала отмахивался, а в какой-то момент подумал: а почему бы и нет? – Да, страшно, да лень, да не уверен, что получится, да долго, да нет уверенности, что поможет и т.д. Хорошо подумал, уверенным движением руки смахнул все эти иррациональные возражения и страхи со стола и записался на курс.

Так что скоро, надеюсь, например, не буду просто пролистывать посты уважаемого А.Г., а, возможно, буду извлекать смысл.

Кстати, уже только при прочтении программы курса словил пару инсайтов применительно к фин. рынкам.

Глаза загорелись. Будет интересно.


У Yandex есть интересная программа по Machine Learning для программистов

    • 11 апреля 2019, 09:56
    • |
    • _sg_
  • Еще
У Yandex есть интересная программа для ОПЫТНЫХ программистов

https://yandex.ru/promo/events/ml-residency

https://habr.com/ru/company/yandex/blog/446554/

Yandex:
Если вы опытный бэкендер и интересуетесь машинным обучением, мы будем рады с вами пообщаться. Наши эксперты по компьютерному зрению, обработке естественного языка, речевым технология и рекомендательным системам помогут вам окунуться в решение перспективных задач и развиваться 
в интересном направлении. 

Мы приглашаем бэкенд-разработчиков, которые уже приобрели достаточно опыта и точно знают, что в своих компетенциях им нужно сдвигаться в сторону ML, получить практические навыки — а не навыки учёного — в решении промышленных задач машинного обучения.

Ну что же, хорошая программа.

Но я хочу обратить внимание, что они ищут опытных прогеров.

Видимо, после их обучения огромного кол-ва желающих изучить Machine Learning, выясняется,

( Читать дальше )

Предсказание дивидендов

Долго пытался применить ML к предсказанию дивидендов, но получить результат лучше, чем у совсем базовой гипотезы, что все акции имеют одинаковую дивидендную доходность, равную средней по всей выборке, не получалось. Но все-таки после долгих раздумий удалось сформировать подход, объясняющий около 20% дисперсии. Несколько методов ML дают близкий результат, поэтому остановлюсь на наиболее простом с точки зрения количества подбираемых гиперпараметров — гребневой регрессии.

Ключевая задача на ближайшую перспективу переписать оптимизацию портфеля с учетом нового подхода к прогнозированию дивидендов. 

Предсказание дивидендов



....все тэги
UPDONW
Новый дизайн