Блог им. MihailMihalev
Судя по всему, этот год я проведу в исследованиях нейросетей для трейдинга. За то время, что уже потратил на эту тему, у меня сформировалась интересная подборка про нейросети в контексте трейдинга:
(Не буду расшифровывать каждый тезис, это можно сделать с помощью ИИ)
Конкретно сейчас занимаюсь генетикой. Генетика — великая сила. Допустим, есть нейросеть на 100 параметров, каждый параметр может быть в диапазоне от -1 до 1 с шагом 0.2. Для полного перебора нужно проверить 10^100 комбинаций. Это число известно как Гугол. Даже во всей вселенной нет столько атомов. Хотя это нейросеть микроскопических масштабов. А вот генетический алгоритм находит почти лучшее решение за несколько сотен поколений на популяции примерно равной количеству параметров.
Почему сравнивается с тупым перебором? А какие ещё варианты? Как градиентными алгоритмами обучить нейросеть на данных, которые нельзя разметить(для моей задачи нельзя разметить). Можно, конечно применять гибридные алгоритмы, но только когда и если упрусь в масштаб.
P.S. Тут Граали не палят.
Как люди, они одиноки
Но всё ж нейросети не так жестоки.
Интересные сравнения, почти во всех понятно, про что.
Генетические алгоритмы, когда он находит комбинацию, дающую лучший результат, сама природы поиска является фактором обосновывающим, что это не случайный результат? Ну т.е. если прям все комбинации перебрать, взять сеть с лучшим результатом — не факт что она на OOS отработат хотя бы хорошо, не говоря уже о лучше всех.