Вы замечали, что иногда долгие размышления только мешают? Чем дольше зацикливаешься на решении, тем больше сомневаешься — и в итоге выбираешь худший вариант. Я особенно это прочувствовал это в 2016 году: когда я посмотрел отчёт по привилегированным акциям Ленэнерго, прикинул дивиденды, рискнул и купил на ощутимую сумму по 20 ₽. Но потом начитался мнений, что с дивидендами могут и прокатить (мол, мало ли что в уставе написано), не выдержал — и продал по 24 ₽. Казалось бы, +20% за несколько дней, но вскоре, рынок показал, что это было явно не лучшее решение.
Оказывается, так бывает не только с людьми, но и с ИИ.

Работая с ChatGPT и другими моделями, замечаю: иногда ответ лучше, если попросить модель «подумать» перед ответом. Обычно это делают так: «Рассуждай шаг за шагом перед тем, как дать ответ». Этот приём называется Chain of Thought (CoT), и его часто советуют использовать для повышения качества ответов.
Но есть нюанс.
Некоторые воспринимают этот подход как суперсилу, которую надо использовать всегда. Они не догадываются, что на новых моделях CoT может, наоборот, ухудшать качество.

Когда я впервые открыла ChatGPT, я ожидала чего угодно — гениальных ответов, умных советов, автоматизации рутины...
Но не того, что я однажды напишу:
«Сделай, чтобы муж понял, что я права, но без ссор. И желательно в стихах.»
И знаете, он выдал 4-строчный куплет, в котором упомянул компромисс, терпение и «уважение к точке зрения жены».
Муж, кстати, оценил. Но не факт, что понял. 😄
«Сделай мне оригинальный комплимент, чтобы девушка сразу захотела выйти замуж»
Ответ: «Ты как стабильная версия Windows — надёжна и не лагаешь».
💔 Оценка: 3 из 10. Свадьбы не случилось.
«Придумай бизнес, чтобы ничего не делать и сразу стать богатым»
Ответ: «Пассивный доход требует активной подготовки».
GPT знает, как разбивать мечты!
«Как мягко уволить друга, если он ленивый, но хороший человек»
Сгенерировал письмо в стиле HR, но начал словами: «Дорогой друг, ты прекрасен, но не подходишь этой планете».
Мы часто напоминаем в наших материалах о том, что ручной трейдинг становится сложнее, а разработки вроде ChatGPT только сильнее ускоряют тренды автоматизации и искусственного интеллекта.
В этой статье вы узнаете:
Погружение в тему:
Другие полезные материалы — в конце статьи.
ChatGPT (Chat Generative Pre-trained Transformer) — это языковая модель на основе искусственного интеллекта, разработанная компанией OpenAI.
ChatGPT используется для создания чат-ботов, систем автоматического ответа на вопросы и анализа данных. То есть модель может выполнять роль виртуального ассистента, отвечать на вопросы пользователей и помогать в поиске практически любой информации.
Я достаточно часто пишу и обсуждаю с коллегами про то, как использовать нейросети с пользой — для работы, бизнеса и жизни. И почти в каждом втором обсуждении кто-то пишет что-то вроде: «Да что вы от него хотите, это же просто болтающий калькулятор. Просто много рассуждает, врет и думать не умеет».
Конечно, есть тут частичка правды. Особенно страдает качество, если применять «ИИ» к задачам «на логику».
Вот, например, посмотрим как «ИИ» справляются с задачкой из 5 класса мат. школы. Я ее использую её как мини-тест, когда выходит новая модель, чтобы проверить рекламные обещания:
см. Задачу 14 (Кстати, можете попробовать ее решить. Я лично пока нашел 2 способа. )

Я загонял ее в разные модели — от GPT до Grok и Gemini. Они начинают бодро рассуждать, но потом, почти всегда, произносят магическую фразу:
«Взвесим кучу A и кучу B. Если они равны, значит фальшивые монеты в куче C нет.»
И это, конечно, ошибка.
Потому что фальшивки могут быть и в куче C — обе сразу.
Недавно Кирилл Пшинник из «Зерокодер» проверил ChatGPT o3 и o4-mini-high (модели с рассуждением) на демо-ЕГЭ-2025 (русский, математика профиль, физика, география, обществознание).
Средний результат — 90-100 баллов, по математике — чистые 100.
Для сравнения: средний балл прошлого года в
То есть проходной в топовые вузы ИИ берёт «с первой попытки» (forbes.ru).

Я не собираюсь долго спорить о «смерти ЕГЭ» или о том, что «машины вытеснят людей». Меня зацепило другое: Даже с развитием LLM, в очередной раз выигрывает тот, кто умеет пользоваться ресурсами (знаниями).
Долго (но не всегда) прокатывало быть просто эрудированным: блеснул датами — получил плюсик. Но с появлением LLM эрудиция сильно обесценивается: GPT помнит больше, умеет искать факты быстрее и лучше + не забывает (правда галлюцинирует пока).
Вчера была тяжёлая новость: в Индии разбился Boeing 787-8, и из 242 человек выжил только один пассажир — мужчина, сидевший на месте 11A. Такие истории всегда выбивают из колеи — от новостей о катастрофах становится не по себе, даже если сам не боишься летать.
Но как ни странно, именно из каждой подобной трагедии авиация становится безопаснее. Авиастроители всего мира разбирают каждую аварию буквально по винтику — и потом дорабатывают конструкции, меняют стандарты, чтобы подобное не повторилось.
Поэтому сегодня полёты — это самый безопасный вид транспорта

Я решил подойти к этому вопросу с помощью нейросети — разобраться, действительно ли место 11A такое “особенное”, или просто случайность. Заодно понять, есть ли вообще “правильный” выбор кресла, если хочется минимизировать риск.
Сначала я поискал статистику именно по Boeing 787-8, но оказалось, что это была первая в истории Dreamliner катастрофа со смертельным исходом. До этого — с 2011 года — ни одной гибели пассажиров на этом типе не было, несмотря на мелкие инциденты и даже проблемы с аккумуляторами в 2013-м.
Часто, взаимодействуя с людьми, мы не только сотрудничаем, но и дискутируем в самых разных ситуациях: коллеги, клиенты, строители и продавцы (это вообще высший уровень), и иногда лично у меня там больше эмоций, чем следует. Это отрицательно влияет, как вы понимаете, на эффективное решение вопросов.
Я давно слышал о методе Сократа в дискуссиях, но как-то постоянно не доходили руки разобраться, что это вообще такое. Особенно тепло о нём отзывался Бенджамин Франклин в своей автобиографии: он рассказывал, что этот подход помогал ему практически всегда выигрывать споры — просто за счёт цепочки вопросов и неожиданных выводов (хотя потом он его забросил – споры разъединяют). Казалось бы, ничего сложного, но работает удивительно.

Как-то раз мне попалась реклама курсов, где обещали научить этому методу. Честно — чуть не кликнул на “Записаться”, но потом решил попробовать лайфхак попроще: открыл ЧатГПТ в голосовом режиме и сказал ему примерно следующее:
«Ты опытный тренер по обучению Сократовскому методу дискуссии с самых-самых азов, прям для новичков, и обучение происходит в диалоге. Я новый ученик. Давай начнем обучение.»

Мои публикации изначально создавались для проверки гипотез и определения оптимального формата авторского контента. Чтобы сформировать твёрдую, независимую позицию, важно пройти весь путь от начала до конца. В основе моего эксперимента лежала идея обучить нейронную сеть на своих мыслях и рассуждениях, а также выявить пределы возможностей AI. Интернет — изменчивая среда, но развитие AI в последние годы кардинально меняет его принципы, особенно в отношении контента.
«Content is 👑»
Контент был королём интернета. На заре его развития, когда любой сайт и автор легко находили свою аудиторию. Это было время расширения интернет проникновения; отсутствие сайта означало отсутствие в сети. Вебмастера получали значительный доход от платных ссылок и баннерной рекламы.
🤑Даже 3-5M MAU тогда считались огромным успехом. Например, я создал первую и крупнейшую поисковую систему для GIFs — Slinky с ~2.9M MAU (стала частью $SOHU) задолго до GIPHY. Многие известные компании, как $ABNB, $META, Twitter, $TRIP, $VK, $HH, стартовали в этом цикле.