Блог им. MixStyleTrader

Про текущее состояние AI и LLM

AI силен в тех областях где много данных для обучения (в форме запрос — правильный ответ).

Самый лучший вариант — если данные можно искусственно генерить (например в играх вроде шахмат или Го он играет сам с собой и смотрит какие ходы приводят к победе). Тоже можно проделать и для некоторых математических задач — генерировать уравнения и их решать (можно проверить результат на правильность).  И в программировании такое возможно, но не для всех задач. В таких областях AI становится сильнее человека.

Хороший вариант — если данных просто много. Например распознавать прописные буквы, популярные предметы, популярные болезни на снимках, переводить не очень редкие строки на другие языки. Тут результаты получается тоже сильные, главное найти или собрать хорошие данные для обучения с правильными четкими ответами.

А вот если данных мало или нет четких надежных ответов — то результат будет слабый. Текущие LLM в основе это как раз пример где данных вроде много (тексты со всего интернета), но надежных ответов нет. Ответы не отбираются тщательно вручную (так как их очень много нужно), а просто берутся из текста автоматически (вопрос — начало текста, ответ — что за ним следует). В итоге получается общий интеллект, который сам научился разным областям знаний, где-то больше, где-то меньше — но средний уровень слабый.

А потом разработчики этот слабый общий интеллект дополнительно обучили разным узким навыкам (разделы математики, программирования и т.д.) Притом обучили на хороших проверенных данных и четких ответах. Поэтому современные модели это слабый общий интеллект плюс много довольно неплохих частных интеллектов. И много сил потрачено, чтобы за большим числом узких навыков скрыть общую слабость. Я заметил что разработчики активно изучают запросы пользователей и если видят проблему в чем-то — специально прокачивают этот навык в своих моделях.

Может это и удобно для бизнеса. Слабый общий AI что-то опасное замыслить не сможет — его задача из человеческого запроса правильно понять какие узкие навыки применить для ответа. Поэтому грамотное составление вопросов значительно повышает шанс на успех.

В будущем вероятно откажутся от LLM как базы для общего интеллекта. В идеале чтобы можно было качать один навык, а от этого улучшалось сразу много других. Тогда можно будет выбрать навык где есть возможность генерить данные без ограничений, прокачать его и заодно улучшатся навыки где мало данных. Иначе упремся в тупик: железа много, а данных не хватает.
261

Читайте на SMART-LAB:
Фото
Крупные страховые начали повышать тарифы по ОСАГО
Агентство АСН выяснило, что некоторые страховые компании, входящие в топ-10 по ОСАГО, изменили тарифы по ОСАГО для физлиц с 20 января 2026 г. В...
Фото
Новосибирскэнергосбыт. Надбавки на 26г. установлены. Изменение целевой цены
Департамент по тарифам Новосибирской области опубликовал приказ №681 от 30.12.2025г. об установлении сбытовых надбавок гарантирующего...
🚀 Динамика рынка
Индекс Мосбиржи растет на 1,3% с начала торгов.      🔥 Общий фон: США едут в гости к России Главная новость для российского рынка сегодня...
Фото
Сбер РПБУ 2025 г. - дешевле было только в 2022 году
Сбер опубликовал результаты по РПБУ за 2025 год Чистая прибыль за 2025 год составила 1,69 трлн руб. (+8,4% год к году). В декабре 126 млрд руб....

теги блога MixStyleTrader

....все тэги



UPDONW
Новый дизайн