Опрос по нейросетям
Пробовал применять, результат не понравился, бросил
Применял, применяю и буду применять, возможно мой робот построен целиком на них.
Всего проголосовало: 81
Алготрейдерам. Во времена, когда телефон может распознавать без всякой тренировки вопросы и команды голосом, когда хостинг фотографий умеет отличать на фото и видео лица людей в разных ракурсах, в разное время их жизни, в эти времена только глухой не слышал про нейросети.
Только ленивый не пробовал их прикрутить к роботу. Но вот работают ли они эффективно, вот в чём вопрос.
Тот же нобелевский лауреат Д. Канеман например утверждал, что в трейдинге нельзя «набраться опыта» настолько, чтобы с точностью утверждать куда пойдёт цена. А зачем ещё могут быть нужны нейросети?
Применяете ли вы их?
Мой личный опыт показывает что зерно в них есть. Но оно какое-то достаточно маленькое. Т.е. робот с нейросетью, это во многом похоже на переподогнанный курвфиттинг. Хотя есть и отличия в лучшую сторону от чистого курвфиттинга.
Я несколько лет по деловых обстоятельств профессионально занимался всевозможными нейросетями, не для трейдинга, а для других прикладных и академических задач.
Так вот, те сети которые сейчас есть очень слабы и примитивные для приминения в трейдинге. А те которые будут в будущем, будут работать примерно так же как обычный человек, только слить будут быстрее.
Всем кто занимается этим и/или рекламируют нейросеты для приминения в трейтинге считаю или далекими от понимаия сути или шарлатанамы.
Если вы сможете правильно поставить задачу, спроектировать соответсвующую для решения этой задачи архитектуру сети, подготовить данные для обучения и произвести обучение(если у вашей нейросети предполагается необходимость в оном), то полученная сеть поставленную задачу(выдавать прогноз, или что вы там от нее захотите) решать будет, почему нет?
мне кажется если применить достаточно много если, то можно сделать всё и без нейросети.
Мой опыт показывает, что результаты с применением нейросетей к нашему рынку получаются или примерно такие же, как без них, или несколько хуже. В результате предпочтение отдаю понятному алгоритму, а не чёрному ящику.
Те сети что сейчас распознают картинки-номера и вот это вот всё, обучены на несравнимо более огромных массивах данных чем есть на рынках
Как пример одна известная архитектура для анализа длинных временных рядов — тут нет ни одного обычного полносвязного слоя.
Какой-то обобщающий вопрос, это так же, как спросить «Хорошо ли едет машина?». Машины бывают разные. Понятие хорошо у всех разное. Цели поездки у всех разные. Точно такая же ситуация с нейросетями.
Смысл волшебства не в модном слове «нейросеть», а в том, какие входные данные нейросети скормлены, что именно нейросеть предсказывает и с какой именно точностью она это делает.
Нейросеть это всего лишь машинный алгоритм. Эффективно он работает или нет зависит от постановки задачи и от качества самой нейросети.
Тут еще надо понимать, что нейросеть не торгует, а всего лишь дает сигналы. Как этими сигналами распорядиться, это совсем другая сложная задача. Так-то можно депо слить даже при точности предсказаний 90%.
Не так. Канеман утверждал, решения, принимаемые трейдером часто иррациональны и не укладываются к широко принятую экономическую модель поведения. Трейдер склонен переоценивать вероятность события из-за собственного эмоционального фона — и именно поэтому, рынок порой чудовищно неэффективен
Формулировка задачи на классификацию изображения с помощью нейронных сетей тоже задача на максимизацию функции правдоподобия (минимизацию кроссэнтропии) просто функция правдоподобия от нескольких десятков миллионов параметров.
Если объекты из классических статистических задач описываются векторами всего с несколькими измерениями, то в машинном обучении объекты гораздо сложнее - обычное изображение порядка 1000х1000 пикселей описывается вектором 3 млн. мерном пространстве.
Но в основе подход одинаковый.
пожалуй это тоже хорошая мысль. правда она у меня свернула сильно в другую сторону от того с чего вы начали.
1. Сети нужны в первую очередь для end-to-end learning — это когда вы не придумываете какие-то свои объясняющие признаки, а пихаете сырые данные в сеть (просто картинку, просто котировки и т.д.), и она сама за вас «придумывает» признаки. Если вы сами занимаетесь feature engineering, то обычно гораздо эффективнее использовать другие методы, например, градиентный бустинг
2. Для такого рода обучения обычно нужно достаточно много обучающих примеров, поэтому если у вас их мало, то городить нейронную сеть смысла нет — используйте бустинг
3. Если у вас есть достаточно даных, то нужна правильная архитектура. Если вы не знаете архитектур под свою задачу и собирается забацать несколько полносвязных слоев в надежде, что все получится, то это тоже имеет мало смысла — бустинг обычно гораздо лучше с этим справляется. Изучайте архитектуры или ограничьтесь более простыми методами машинного обучения.
но это явно не для обучения с учителем, а что-то вроде ограниченной машины больцмана
мысль в голову пришла что такие большие задачи как работа по потоку — это для больших сетей действительно. а для маленьких тупеньких задач когда просто автор недогоняет в конкретную статистику, может быть и простые (но очень жирные и с современным обучением) перцептроны сойдут, те которые по 50 000 семплов прогоняют.
всё равно это больше чем человек, с его сознательной внимательностью на 7 параметров максимум.
Тут другое дело, что выдумывать совсем с нуля не надо. Если вы знаете много архитектурных решений, понимаете зачем они были придуманы, вы наверняка найдете, что-то близкое к вашей предметной области, немного заточите напильником под свои задачи, и получите разумный результат, но это будет сеть, где полносвязные слои будут встречаться не часто, где-то ближе к выходу.
и я даже не представляю, сколько это дней и на какой железке надо учить
Но это у меня достаточно примитивное мышление об этом, опыта нет, только много читаю.
нейросети это как раз на поиск не самых чётких закономерностей.
ты поди попробуй написать алгоритм который всяких там кошечек на рисунке от собачек отличает. чисто алгоритмически. если то, иначе если. а нейросети могут. и двухлетние дети тоже — с полпинка.
Сейчас«features engineering» вытесняется на «Architectural engineering»
И в этом есть очень большой потенциал. Все стало легче и доступнее чем 10 лет назад.
Я, когда раньше занимался NN, больше внимания уделял именно Архитектуре. Искал оптимальные архитектуры сетей генетическим алгоритмом. Но, поскольку, раньше технологии были значительно слабее, я это дело забросил.
Но все же тогда я одну сетку настроил и запускал в боевом режиме.
Результат меня не обрадовал. Получил минус за месяц.
Но подбор необходимой архитектуры — это еще не все.
Главное — модель. Построить модель. Потому что Как Оптимизировать сейчас каждый знает и умеет. Вон на Каггле они кучкуются.
В модели главное ЧТО Оптимизировать — а вот здесь «надо хорошенько подумать»