Комментарии пользователя Мальчик buybuy

Мои комментарии:в блогах в форуме
Ответы мне:в блогах в форуме
Все комментарии: к моим постам
3Qu, ну Ок, братэлло

Предлагаю продолжить завтра с твоего разрешения.
На сегодня я лимит черных дыр исчерпал, ну или близок к этому)

С уважением
avatar
  • 04 декабря 2024, 01:16
  • Еще
3Qu, не, бро

Распечатывать черные дыры — не моя профессия
Эту доблесть я оставляю тебе...

С уважением
avatar
  • 04 декабря 2024, 01:08
  • Еще
3Qu, ну Ок, бро

Если ты вдруг по пьяни деаномизируешься и расскажешь, как тебя зовут, то я лично обещаю первую открытую мной самую черную и глубокую дыру назвать твоим именем...

С уважением
avatar
  • 04 декабря 2024, 00:42
  • Еще
3Qu, да, бро

Уж так получилось что я обнаружил великолепные результаты для предсказания приращений цен при использовании DL с пороговой функцией sign

Далее, по совету товарища, большую часть января посвящу тестированию распознавания кошечек и собачек с заменой tanh на sign

Ожидаю уменьшения пространства полезных параметров на 2-3 порядка
А там уже — либо получится, либо нет
Но, если вдруг получится, ты обо мне, бро, точно услышишь)))

С уважением
avatar
  • 04 декабря 2024, 00:20
  • Еще
3Qu, я не смогу сегодня переубедить тебя вербально, бро

Но в будущем цикле моих статей под номером 0 идет стандартная задача максимизации маркетной эквити, в которой функция sign вдруг заменяется на функцию tanh (как нас учат нейронки).

Так вот — если с функцией sign еще можно как-то натянуть сову на глобус, то функция tanh — уже полный отстой. Впрочем, как и вся современная теория deep learning )))

С уважением
avatar
  • 04 декабря 2024, 00:07
  • Еще
Трейдер (Порутчик), понятно

Опять оскорбления и ничем не обоснованные домыслы

Предлагаю тихо и спокойно встретиться в Москве
Посередине пути — условно на ст. м. Таганская

Кто в итоге кому лицо разобьет — тот и будет прав
Подходит?
Или дальше продолжите оскорблять меня дистанционно?
(в онлайне, как мне рассказывали, каждая 2-я корова — это бык)

С уважением
avatar
  • 03 декабря 2024, 23:48
  • Еще
3Qu, ну да, ну да

Но и нет методов оптимизации для функций типо sign
Не согласен — обоснуй

С уважением
avatar
  • 03 декабря 2024, 23:44
  • Еще
Трейдер (Порутчик), О! Проснулся!

В Рязани 7 утра?

Ну не за один, а за 3+ каммента
А за п@здобольство надо отвечать.
А за публичное п@здобольство следует отвечать публично.
Все это чистое IMHO. конечно

С уважением, девочка. Я старался.
avatar
  • 03 декабря 2024, 23:42
  • Еще
3Qu, ну Ок, братэлло

Во всяком случае это честно (в отличие от 99% Смарт-Лаба)

Уважаю

Надеюсь повторно зажечь твой огонь после публикации своих результатов
К сожалению, методы решения задач нелинейной негладкой оптимизации кастомные, сложные и корявые...

С уважением
avatar
  • 03 декабря 2024, 23:28
  • Еще
3Qu, ну Ок, вполне разумно

И что ты наваял из нейросеток в несекретной части?

С уважением
avatar
  • 03 декабря 2024, 23:16
  • Еще
3Qu, не в кассу, бро, сорри...

Как раз для back propagation предельно актуальна гладкость функции активации

С уважением
avatar
  • 03 декабря 2024, 23:09
  • Еще
3Qu, ну Ок, бро

Вижу, что ты на своей волне и не готов к конструктивному диалогу
Уважаю твою позицию, хотя и не согласен с ней

Искренне надеюсь, что в январе выложу аргументированные тесты
Тогда и подискутируем

С уважением
avatar
  • 03 декабря 2024, 23:05
  • Еще
Классная традиция.

М.б. и нам этот метод стоит перенять? Хотя бы частично?

С уважением
avatar
  • 03 декабря 2024, 23:02
  • Еще
3Qu, низачет

Вот есть обычная DL сетка с N скрытыми слоями.
Функция активации нейрона — sign

Можешь привести ссылку хоть на одну (!) работу, в которой приведен метод расчета оптимальных весов при данной пороговой функции?

С уважением
avatar
  • 03 декабря 2024, 22:58
  • Еще
Влад, да не особо впечатляет, если честно

Просто у меня была застарелая сексуальная фантазия — типо я и несколько женщин. Я осторожно обсудил ее со своей 2-й супругой — и получил категорический отказ. И — понеслось...

С уважением
avatar
  • 03 декабря 2024, 22:51
  • Еще
3Qu, так получилось, бро

Что мне пришлось познакомиться и с трансформерами, и с SFT, и с KTO, и с LOR-адаптерами, и с многим, многим другим...

По сути что-то сказать можешь?

С уважением

P.S. Если вкратце — в вопросе предсказания рыночных цен новодел не работает. В противном случае об этом уже трубили бы из каждого утюга )))
avatar
  • 03 декабря 2024, 22:50
  • Еще
3Qu, так и я про это же, бро!

Обучение сетей прямого распространения — это метод сопряженных градиентов вместе с back propagation (ну это только для гладких пороговых функций)

Для негладких пороговых функций (sign) что-то умное из классики предложить сможешь? )))

С уважением
avatar
  • 03 декабря 2024, 22:47
  • Еще
3Qu, хммм

У меня Хайкин 2012 английское издание с дополнениями

Математика после этого не изменялась
Появились трансформеры и прочая шляпа

С уважением
avatar
  • 03 декабря 2024, 22:37
  • Еще
3Qu, по классике (нейробиологи) — именно sign

А уже лет через 20 инженеры, которые только и умеют, что дифференцировать, стали заменять пороговую функцию на сигмоиду )))

 Суважением
avatar
  • 03 декабря 2024, 22:36
  • Еще
3Qu, бро

Это было 2 разных вопроса. Если конкретно
1. Никто не умеет обучать модели с негладкими пороговыми функциями. При несогласии — расскажи про обучение для sign
2. Все умеют обучать с гладкими пороговыми функциями. Но никто не заморачивается оценкой разницы экстремумов при замене sign на tanh

С уважением
avatar
  • 03 декабря 2024, 22:30
  • Еще
Выберите надежного брокера, чтобы начать зарабатывать на бирже:
....все тэги
UPDONW
Новый дизайн