Я побывал на Perm Winter School '26, это такая ежегодная научно‑практическая конференция, объединяющая студентов, ученых и экспертов из финансовой, ИТ и экологической сфер. Она некоммерческая.
И если честно на ней я надеялся услышать что‑то вроде того что «ИИ уже почти научился зарабатывать на рынке, осталось чуть‑чуть шлифануть».
Конференцию проводят на базе двух университетов: ПГНИУ и ПНИПУНо получилось наоборот — если обобщить опыт всех спикеров и дискуссии, которые я услышал, то картина будет довольно неприятной для тех кто до сих пор ищет «кнопку бабло» в теме больших языковых моделей (LLM).
На конференции было порядка десяти докладов и в один текст статьи это не оформить — он получится слишком длинный, поэтому в этой первой части статьи о Perm Wesna School '26 я разберу популярный миф о том, что ИИ хорошо предсказывает финансовый рынок.
Конференцию организовали классический и технический университеты города Перми.

Я считаю дивидендный сезон на российском рынке хорошей возможностью получить годовую доходность по акции за несколько месяцев. Остальную часть года я могу держать деньги в инструментах с постоянной доходностью и с меньшим риском. В 2025 году это были корпоративные облигации. Сейчас часть из них погасилась и свободный кэш как раз можно использовать для получения небольшой дополнительной прибылиЕжегодно компании выплачивают дивиденды с прибыли, которую получили за год. И обычно эти выплаты приходятся на летний сезон с мая по конец июля. Это каскадные выплаты, и многие участники рынка пытаются максимизировать прибыль от этих выплат.
Ради 12-13% доходности годовых за 3 месяца. Нужна она или нет — решать каждом самостоятельно.
Дивиденды — это часть прибыли компании, которую платят акционерам. Чтобы получить выплату, нужно купить акции до даты отсечки (последний день с правом на дивиденды, T).
В интернете существует много ресурсов, в которых указаны даты отсечек, прогнозы по выплатам, индекс надежности выплат и вероятность закрытия дивидендного ГЭПа
Китай за несколько лет превратился во второй глобальный полюс искусственного интеллекта — здесь одновременно растут государственные вложения, корпоративные бюджеты, число базовых моделей и прикладных продуктов на их основе.
При этом китайский рынок ИИ нельзя описывать только через хайп вокруг отдельных известных LLM моделей. Его реальная логика строится на связке государства, облаков, вычислительной инфраструктуры, крупных интернет-экосистем и быстро взрослеющих ведущих стартапов. Именно поэтому Китай сегодня интересен не только разработчикам и техническим специалистам, но и инвесторам, которые хотят понять, где в этом рынке лежит устойчивая монетизация, а где просто громкий новостной шум.
На макроуровне Китай к 2026 году закрепился в статусе одного из двух ключевых мировых хабов ИИ наряду с США. Это видно не только по политическим декларациям и новостям в СМИ, но и по структуре капитала: совокупные инвестиции в ИИ в Китае в 2025 году оцениваются примерно в $94 млрд, из которых около $56 млрд приходится на государство, $24 млрд на корпорации и еще $14 млрд — на частный VC.
В журнале Компания вышел интересный материал про то, как развивался инвестиционный анализ, про использование ИИ в инвестициях и дебаты LLM моделей. В тексте есть и про нас, DLFY, как про первый российский сервис, который симулирует заседание целого инвестиционного комитета в цифровом формате.
Делимся ссылкой 👇
ko.ru/articles/soobrazhat-za-troikh-kak-kachestvo-investitsiy-svyazano-s-kolichestvom-ii-analitikov/

В этом году произошли множество знаковых событий на рынке ВДО, отмечу два частных, которые показали неспособность традиционных методов оценки риска предупредить инвесторов вовремя:
1. Май 2025: Директор МосГорЛомбарда Алексей Лазутин был уличен в инсайдерской торговле — манипулировал своими акциями на основе неопубликованной информации о прибыльности компании
2. Декабрь 2025: Логистическая группа «Монополия» объявила о техническом дефолте по облигациям на 260 млн рублей, хотя проблемы были видны за месяц
Оба случая демонстрируют одну проблему: инвесторы в облигации узнают о рисках слишком поздно. Но причины разные:
— Лазутин — это риск корпоративного управления (governance risk)
— Монополия — это финансовый риск (financial risk)
С учетом активного развития и внедрения LLM, задался вопросом, что если существует система, которая может выявить оба типа риска за часы вместо недель?
Кейс 1 - МосГорЛомбард
Алексей Лазутин — генеральным директором ПАО МГКЛ — компании, которая управляет сетью ломбардов «Мосгорломбард». Активный участник рынка ВДО. На 11 декабря запланирован новый выпуск облигаций на Санкт-Петербургской Бирже.
Alfa Arena запустила эксперимент, взяли 6 топ нейросетей, дали им по 10k$ и отправили торговать криптой. Прошло 2 недели, все в минусе:

Походу пока рановато LLM на биржу:) Но тем не менее есть от них чему поучиться. Подробнее на habr.com/ru/articles/962182/
Представьте опытного трейдера: наверняка он не говорит котировками и не рассказывает про индикаторы — он просто говорит «сильный тренд», «пробой уровня» или «ложный отскок». Для него график это язык: свечи, объёмы и уровни складываются в понятные фразы о том, что сейчас происходит на рынке. Именно от этой человеческой интуиции я и отталкивался в своём эксперименте.
Идея была такая: а что, если научить искусственный интеллект понимать этот язык? Не подавать модели сырые числа, а переводить бары и объёмы в текстовые описания наблюдаемых паттернов и кормить ими языковую модель. Гипотеза была что в тексте уже будет содержатся достаточно данных, чтобы модель научилась связывать недавнюю торговую историю с тем, пойдёт ли цена вверх на следующий день.

Мои результаты, о них ниже
Инструмент эксперимента — модель distilbert‑base‑uncased с Hugging Face и это облегчённая, быстрая версия BERT для понимания языка.
Вот в каком смысле:
Во взаимодействии с LLM большую большущую роль играет контекст менеджмент. Вот мы задали модели вопрос, или дали задание, а что мы предоставили ей в качестве контекста? Какие-то ссылки, какие-то инструкции, какие-то ориентиры, какие-то «воспоминания» и т.д. И вот когда много взаимодействуешь с моделями и играешься контекстом и когда-то забываешь догрузить, или даёшь неполный или неконсистентный и т.д. — видимшь, как это влияет на результаты. Банальный пример: задаёшь какой-то вопрос по физике, очень не помешает дать в качестве контекста кто ты такой, потому что ответ нобелевскому лауреату по физике и ответ третьекласснику разумно делать разными.
И чем же этот опыт взаимодействия с моделями обогащает? А тем, что это очень похоже на человеческое общение. Мы очень часто «не догружаем» контекста людям. Часто мы что-то знаем, например, о себе, но забываем об этом сказать другому человеку, потому что в конкретной ситуации это важно, что ещё хуже — не забываем сказать, а почему-то считаем, что «все итак это знают». В общем общение с LLM это как общение с людьми только на стероидах и может опрозрачивать структуру процесса. В общем очень инсайто генерирующее занятие. Рекомендую.