Сергей Попов

Читают

User-icon
5

Записи

25

Батл ИИ в Анализе настроений бизнеса (который провел Тимофей Мартынов). ChatGPT vs Manus vs Genspark

Недавно Тимофей Мартынов провел очередной опрос настроений и тенденций у предпринимателей. И я решил сделать небольшой батл между ИИшками

Задача для моделей простая, но практичная: вытащить суть, убрать воду и собрать презентацию — с цифрами, выводами и сегментацией по отраслям.

И вот, что из этого вышло:

2. Ссылка на Rutube

Ссылки на сами презы:

(из РФ не откроется, скорее всего, но ниже есть ссылка на PDF, выложил в своем канале по Практическому применению нейросетей для жизни и работы)

1. Chatgpt
2. Manus
3. Genspark

Ссылка на презы в PDF: 

 см. тут


Перемудрили: когда лишние размышления мешают (и людям, и ИИ)

Вы замечали, что иногда долгие размышления только мешают? Чем дольше зацикливаешься на решении, тем больше сомневаешься — и в итоге выбираешь худший вариант. Я особенно это прочувствовал это в 2016 году: когда я посмотрел отчёт по привилегированным акциям Ленэнерго, прикинул дивиденды, рискнул и купил на ощутимую сумму по 20 ₽. Но потом начитался мнений, что с дивидендами могут и прокатить (мол, мало ли что в уставе написано), не выдержал — и продал по 24 ₽. Казалось бы, +20% за несколько дней, но вскоре, рынок показал, что это было явно не лучшее решение.

Оказывается, так бывает не только с людьми, но и с ИИ.
Перемудрили: когда лишние размышления мешают (и людям, и ИИ)


Работая с ChatGPT и другими моделями, замечаю: иногда ответ лучше, если попросить модель «подумать» перед ответом. Обычно это делают так: «Рассуждай шаг за шагом перед тем, как дать ответ». Этот приём называется Chain of Thought (CoT), и его часто советуют использовать для повышения качества ответов.

Но есть нюанс.

Некоторые воспринимают этот подход как суперсилу, которую надо использовать всегда. Они не догадываются, что на новых моделях CoT может, наоборот, ухудшать качество.



( Читать дальше )

Т-Банк запустил ИИ-ассистента для планирования путешествий. Вселенная AI-ассистентов от Т-Банк

 

В 2024 году «Т-Путешествия» (это отдельное юрлицо внутри Т-Банка, бывшего Тинькофф) принесли банку 1,24 млрд руб. выручки и почти 580 млн руб. прибыли. Не сказать, что это большая сумма на фоне общего оборота экосистемы, но и немаленькая. То есть развивают они эту историю явно не в холостую. Кстати, в 2024 году пользователи оформили более 5 млн заказов в сервисе «Путешествия» в приложении Т-Банка.

Сервис включает в себя всё — от продажи авиабилетов (основной источник дохода) до бронирования отелей, аренды авто и туров. Банк зарабатывает в основном на комиссиях — либо от клиентов, либо от партнёров.

Недавно Т-Банк представил нового ИИ-ассистента для путешествий, который может:
«Примерно за пару минут подготовить план поездки «от и до» — от выбора направления и покупки билетов до бронирования отелей и составления плана досуга, а еще:

  • подобрать билеты,

  • сгенерировать маршрут поездки по интересам, и даже с учетом темпа отдыха и климатической зоны



( Читать дальше )

Задача из 5 класса, которая ломает ChatGPT и ему подобных

Я достаточно часто пишу и обсуждаю с коллегами про то, как использовать нейросети с пользой — для работы, бизнеса и жизни. И почти в каждом втором обсуждении кто-то пишет что-то вроде: «Да что вы от него хотите, это же просто болтающий калькулятор. Просто много рассуждает, врет и думать не умеет».

Конечно, есть тут частичка правды. Особенно страдает качество, если применять «ИИ» к задачам «на логику». 
Вот, например, посмотрим как «ИИ» справляются с задачкой из 5 класса мат. школы.  Я ее использую её как мини-тест, когда выходит новая модель, чтобы проверить рекламные обещания:


см. Задачу 14 (Кстати, можете попробовать ее решить. Я лично пока нашел 2 способа. )
Задача из 5 класса, которая ломает ChatGPT и ему подобных

Я загонял ее в разные модели — от GPT до Grok и Gemini. Они начинают бодро рассуждать, но потом, почти всегда, произносят магическую фразу:

«Взвесим кучу A и кучу B. Если они равны, значит фальшивые монеты в куче C нет.»

И это, конечно, ошибка.
Потому что фальшивки могут быть и в куче C — обе сразу.



( Читать дальше )

ЕГЭ, ChatGPT и стартапы без команды с выручкой по $10 млн: что тут общего?

Недавно Кирилл Пшинник из «Зерокодер» проверил ChatGPT o3 и o4-mini-high (модели с рассуждением) на демо-ЕГЭ-2025 (русский, математика профиль, физика, география, обществознание).

Средний результат — 90-100 баллов, по математике — чистые 100.

Для сравнения: средний балл прошлого года в

  • МФТИ — 97
  • НИЯУ МИФИ — 89,9
  • Иннополис — 87,5
  • ВШЭ — 87,1.

То есть проходной в топовые вузы ИИ берёт «с первой попытки» (forbes.ru).

ЕГЭ, ChatGPT и стартапы без команды с выручкой по $10 млн: что тут общего?



Что для меня в этой новости интересно:

Я не собираюсь долго спорить о «смерти ЕГЭ» или о том, что «машины вытеснят людей». Меня зацепило другое: Даже с развитием LLM, в очередной раз выигрывает тот, кто умеет пользоваться ресурсами (знаниями).

Долго (но не всегда) прокатывало быть просто эрудированным: блеснул датами — получил плюсик. Но с появлением LLM эрудиция сильно обесценивается: GPT помнит больше, умеет искать факты быстрее и лучше + не забывает (правда галлюцинирует пока). 



( Читать дальше )

Авиакатасрофа в Индии - Один человек выжил. Действительно ли место 11А самое безопасное?

Вчера была тяжёлая новость: в Индии разбился Boeing 787-8, и из 242 человек выжил только один пассажир — мужчина, сидевший на месте 11A. Такие истории всегда выбивают из колеи — от новостей о катастрофах становится не по себе, даже если сам не боишься летать.

Но как ни странно, именно из каждой подобной трагедии авиация становится безопаснее. Авиастроители всего мира разбирают каждую аварию буквально по винтику — и потом дорабатывают конструкции, меняют стандарты, чтобы подобное не повторилось.

Поэтому сегодня полёты — это самый безопасный вид транспорта
Авиакатасрофа в Индии - Один человек выжил. Действительно ли место 11А самое безопасное?

Я решил подойти к этому вопросу с помощью нейросети — разобраться, действительно ли место 11A такое “особенное”, или просто случайность. Заодно понять, есть ли вообще “правильный” выбор кресла, если хочется минимизировать риск.

 

Сначала я поискал статистику именно по Boeing 787-8, но оказалось, что это была первая в истории Dreamliner катастрофа со смертельным исходом. До этого — с 2011 года — ни одной гибели пассажиров на этом типе не было, несмотря на мелкие инциденты и даже проблемы с аккумуляторами в 2013-м.



( Читать дальше )

Как я учился вести споры по методу Сократа с помощью ChatGPT⁠⁠

Часто, взаимодействуя с людьми, мы не только сотрудничаем, но и дискутируем в самых разных ситуациях: коллеги, клиенты,  строители и продавцы (это вообще высший уровень), и иногда лично у меня там больше эмоций, чем следует. Это отрицательно влияет, как вы понимаете, на эффективное решение вопросов.

Я давно слышал о методе Сократа в дискуссиях, но как-то постоянно не доходили руки разобраться, что это вообще такое. Особенно тепло о нём отзывался Бенджамин Франклин в своей автобиографии: он рассказывал, что этот подход помогал ему практически всегда выигрывать споры — просто за счёт цепочки вопросов и неожиданных выводов (хотя потом он его забросил – споры разъединяют). Казалось бы, ничего сложного, но работает удивительно.
Как я учился вести споры по методу Сократа с помощью ChatGPT⁠⁠


Как-то раз мне попалась реклама курсов, где обещали научить этому методу. Честно — чуть не кликнул на “Записаться”, но потом решил попробовать лайфхак попроще: открыл ЧатГПТ в голосовом режиме и сказал ему примерно следующее:

«Ты опытный тренер по обучению Сократовскому методу дискуссии с самых-самых азов, прям для новичков, и обучение происходит в диалоге. Я новый ученик. Давай начнем обучение.»



( Читать дальше )

Perplexity теперь отвечает на инвествопросы — с данными из SEC

У Perplexity (поисковик с ИИ, которым многие, включая меня уже пользуются чаще яндекса)  появился новый режим — Answers for Every Investor. Обещают, что теперь можно задавать вопросы про публичные компании и получать ответы не “от балды”, а с опорой на официальные документы, опубликованные в EDGAR/SEC.

EDGAR — Внутренняя система баз данных, управляемая Комиссией по ценным бумагам и биржам США, которая выполняет автоматический сбор, проверку достоверности, индексацию и акцептованную пересылку заявок компаний и других лиц, которые по закону обязаны подавать формы в SEC. База данных содержит огромное количество информации о комиссии и индустрии ценных бумаг, которая находится в свободном доступе для общественности через Интернет.

Perplexity теперь отвечает на инвествопросы — с данными из SEC


Что конкретно заявлено:

  • В ответах теперь используются выдержки из отчётности компаний — 10-K, 10-Q и прочих файлов, которые компании обязаны публиковать.

  • Каждый ответ снабжён ссылками — можно перейти прямо на оригинал и проверить формулировку.



( Читать дальше )

Очки Google — для ИИ, а не ради нас. (Android XR: скрытая цель)

Google представила на Google I/O 2025 новую линейку очков на базе Android XR. Возможно, вы помните, что Google Glass появились ещё в 2013 году. Тогда проект провалился — очки оказались дорогими, неудобными, да и в жизни толком не пригодились.

Очки Google — для ИИ, а не ради нас. (Android XR: скрытая цель)


Почему же Google решилась на вторую попытку именно сейчас?

Официальная причина — подешевели компоненты, технологии стали лучше. Но мне кажется, есть причина куда более важная: сегодня у ИИ-компаний заканчиваются данные для обучения нейросетей. Они уже просят правительство разрешить читать/смотреть весь контент (даже под авторскими правами) и готовы платить до 4 долларов за минуту неизданного видео! И Очки — идеальный инструмент, чтобы собирать такие данные прямо из нашей жизни: камеры, микрофоны, динамик, дисплей — ассистент “видит” и “слышит” всё вокруг.
Т.о. главным “потребителем” этих данных становится не человек, а искусственный интеллект.

Нет, это не теория заговора, а просто бизнес. Google пользуется своим преимуществом перед OpenAI: через очки, смартфоны и YouTube она может получить доступ к миллионам сценариев, которые никто ещё не записывал. И мы ему заплатим за это, а не он нам. )



( Читать дальше )

LLM на текущий момент даёт больше обычным людям, чем корпорациям и государствам - Андрей Карпатый

Андрей Карпатый, один из основателей OpenAI и бывший директор по ИИ в Tesla, недавно поделился наблюдением: большие языковые модели (LLM) меняют традиционную траекторию распространения технологий. Обычно инновации сначала внедряются в военной сфере, затем в корпорациях и, наконец, доходят до обычных пользователей. Однако с LLM всё иначе — они приносят наибольшую пользу именно индивидуальным пользователям, а не крупным организациям .

LLM на текущий момент даёт больше обычным людям, чем корпорациям и государствам - Андрей Карпатый


Почему LLM — это революция для обычных людей

Карпаты отмечает, что LLM предоставляют «квази-экспертизу» по многим вопросам, позволяя людям без специализированного образования:

  • Писать код, используя простые описания задач.

  • Анализировать большие объемы данных и извлекать из них инсайты.

  • Создавать качественный контент и презентации.

  • Получать советы по различным вопросам, от юридических до психологических.

Эти возможности делают LLM мощным инструментом для самообразования и повышения эффективности в повседневной жизни.



( Читать дальше )

теги блога Сергей Попов

....все тэги



UPDONW
Новый дизайн