Если ты вдруг по пьяни деаномизируешься и расскажешь, как тебя зовут, то я лично обещаю первую открытую мной самую черную и глубокую дыру назвать твоим именем...
Уж так получилось что я обнаружил великолепные результаты для предсказания приращений цен при использовании DL с пороговой функцией sign
Далее, по совету товарища, большую часть января посвящу тестированию распознавания кошечек и собачек с заменой tanh на sign
Ожидаю уменьшения пространства полезных параметров на 2-3 порядка
А там уже — либо получится, либо нет
Но, если вдруг получится, ты обо мне, бро, точно услышишь)))
3Qu, я не смогу сегодня переубедить тебя вербально, бро
Но в будущем цикле моих статей под номером 0 идет стандартная задача максимизации маркетной эквити, в которой функция sign вдруг заменяется на функцию tanh (как нас учат нейронки).
Так вот — если с функцией sign еще можно как-то натянуть сову на глобус, то функция tanh — уже полный отстой. Впрочем, как и вся современная теория deep learning )))
Предлагаю тихо и спокойно встретиться в Москве
Посередине пути — условно на ст. м. Таганская
Кто в итоге кому лицо разобьет — тот и будет прав
Подходит?
Или дальше продолжите оскорблять меня дистанционно?
(в онлайне, как мне рассказывали, каждая 2-я корова — это бык)
Во всяком случае это честно (в отличие от 99% Смарт-Лаба)
Уважаю
Надеюсь повторно зажечь твой огонь после публикации своих результатов
К сожалению, методы решения задач нелинейной негладкой оптимизации кастомные, сложные и корявые...
Просто у меня была застарелая сексуальная фантазия — типо я и несколько женщин. Я осторожно обсудил ее со своей 2-й супругой — и получил категорический отказ. И — понеслось...
Это было 2 разных вопроса. Если конкретно
1. Никто не умеет обучать модели с негладкими пороговыми функциями. При несогласии — расскажи про обучение для sign
2. Все умеют обучать с гладкими пороговыми функциями. Но никто не заморачивается оценкой разницы экстремумов при замене sign на tanh