Блог им. MixStyleTrader

Про текущее состояние AI и LLM

AI силен в тех областях где много данных для обучения (в форме запрос — правильный ответ).

Самый лучший вариант — если данные можно искусственно генерить (например в играх вроде шахмат или Го он играет сам с собой и смотрит какие ходы приводят к победе). Тоже можно проделать и для некоторых математических задач — генерировать уравнения и их решать (можно проверить результат на правильность).  И в программировании такое возможно, но не для всех задач. В таких областях AI становится сильнее человека.

Хороший вариант — если данных просто много. Например распознавать прописные буквы, популярные предметы, популярные болезни на снимках, переводить не очень редкие строки на другие языки. Тут результаты получается тоже сильные, главное найти или собрать хорошие данные для обучения с правильными четкими ответами.

А вот если данных мало или нет четких надежных ответов — то результат будет слабый. Текущие LLM в основе это как раз пример где данных вроде много (тексты со всего интернета), но надежных ответов нет. Ответы не отбираются тщательно вручную (так как их очень много нужно), а просто берутся из текста автоматически (вопрос — начало текста, ответ — что за ним следует). В итоге получается общий интеллект, который сам научился разным областям знаний, где-то больше, где-то меньше — но средний уровень слабый.

А потом разработчики этот слабый общий интеллект дополнительно обучили разным узким навыкам (разделы математики, программирования и т.д.) Притом обучили на хороших проверенных данных и четких ответах. Поэтому современные модели это слабый общий интеллект плюс много довольно неплохих частных интеллектов. И много сил потрачено, чтобы за большим числом узких навыков скрыть общую слабость. Я заметил что разработчики активно изучают запросы пользователей и если видят проблему в чем-то — специально прокачивают этот навык в своих моделях.

Может это и удобно для бизнеса. Слабый общий AI что-то опасное замыслить не сможет — его задача из человеческого запроса правильно понять какие узкие навыки применить для ответа. Поэтому грамотное составление вопросов значительно повышает шанс на успех.

В будущем вероятно откажутся от LLM как базы для общего интеллекта. В идеале чтобы можно было качать один навык, а от этого улучшалось сразу много других. Тогда можно будет выбрать навык где есть возможность генерить данные без ограничений, прокачать его и заодно улучшатся навыки где мало данных. Иначе упремся в тупик: железа много, а данных не хватает.
263

Читайте на SMART-LAB:
Фото
Список устойчивых ВДО от Иволги Капитал (по оценке самой Иволги)
В качестве эксперимента начинаю обновляемую публикацию «списка устойчивых ВДО» Иволги (возможно, найду более четкое определение). Это список...
Фото
Давайте вернемся к новостям по бизнесу
Друзья, привет! Вкратце, с начала года мы уже передали покупателям 1 800 ключей от новых квартир в Московском регионе, Санкт-Петербурге и...
Фото
Южная Корея: рынок, который смог
Алексей Девятов Президент Южной Кореи в ходе предвыборной кампании в прошлом году обещал поднять индекс KOSPI до 5000 пунктов — эта...
Фото
Норникель: отчет за 2025 год вселяет оптимизм, хорошо поработали с расходами и отчитались лучше прогноза, впереди рост прибыли и высокие цены на металлы
Норникель сегодня выпустил отчет за 2025 год Компания заработала 10 рублей чистой прибыли на 1 акцию (за 1-е полугодие 2025 года было 4...

теги блога MixStyleTrader

....все тэги



UPDONW
Новый дизайн