Replikant_mih
Replikant_mih личный блог
29 марта 2025, 11:36

LLM похожи на людей (их мозги)

LLM — новая реальность. Да, осталось много кто про них ещё не особо знает, кто «не верит» и т.д., но им всё сложнее не верить и не замечать.


Я заметил много параллелей между работой LLM и человеческим мозгом. Осознание некоторых параллелей очень порождает многие внутренние рассуждения и инсайты.


Какие параллели и инсайты я вижу:


— Модели очень разные, есть например, рассуждающие модели, а есть не рассуждающие — так же и люди, есть те, кто шустро, быстро что-то делают и хороши в этом, а есть те, кто много думают и хороши в этом. Первые хороши где надо по-быстрому подсуетиться, вторые — где качественно подумать. И «применять» таких людей нужно в релевантных этой составляющей задачах… как и нейросети. Нужен просто фактологический ответ — спроси «быструю», нужно обдумать — спроси «умную».

— У нейросети есть системные промпты. Это и те которые ты прописываешь и те, которые разработчики зашили. О, это отличный аналог всему тому, что у человека на уровне подсознания — это и ценности, убеждения, какие-то яркие предыдущие прожженные в мозгу опыты и т.д. Как общающийся с нейросетью не видит системные промпты, так и общаясь с человеком ты не видишь его собственные «системные промпты». Но они влияют на каждый ответ и каждое его действие! Я своим нейросетям прописываю часто: «отвечай как можно короче, но без потери смысла», если у человека зашито убеждение «много болтают только балаболы» (или что-то подобное) — такой человек будет немногословен тоже.

— Иногда «видишь» ход рассуждения модели. Недавно было что-то такое: был диалог с моделью на какую-то сущность, про какую-то конкретную характеристику сущности. В коде я что-то правил, вроде. И вот после нескольких итераций я говорю: а теперь норм? (в плане можно теперь это использовать?) Норм, отвечает. А я смотрю и понимаю, что эта характеристика теперь норм, но в целом не норм. И я понимаю, что хотя я явно это не говорил, модель интерпретировала «теперь норм?» как «теперь норм по этой характеристике?» и если бы задал первым же вопросом диалога «тут норм?» модель сказала вот это не норм и вот это. Какие тут параллели: ты коммуницируешь с человеком исходя из своего понимания, он исходя из своего, если ты хочешь лучше понимать человека и чтобы он тебя, тебе нужно ставить себя немного на его место в коммуникации, т.е. акцентироваться не на том, что ты говоришь, а на том, что он слышит.

— Некоторые интерфейсы взаимодействия с моделями позволяют выкручивать характеристики, есть там некоторые отвечающие за «творческую составляющую». Что-то типа точка на отрезке между «будь чёткой и надежной», «будь креативной». И эти штуки именно работают больше как ИЛИ/ИЛИ, есть конечное кол-во баллов и ты их распределяешь в каких-то пропорциях — модель не может быть одновременно и очень четкой и креативной. У людей, конечно, так просто эту ручку не покрутить, но где-то на уровне генов или «первичной настройки» в детстве, люди/мозги сильно отличаются по похожим характеристикам. Кто-то очень четкий, ходит по рельсам, фактология, факт-чекинг, проторенные дорожки. Кто-то креативит и ты часто поражаешься: мм, как это можно было тут придумать, как это можно было тут вставить — неожиданно. Да, наверно «неожиданно» это отлично характеризующее здесь слово.

— Если сравнивать все разнообразие LLM и их различия в том числе с учетом и разных настроек (и системных промптов) — можно получить примерно такое же разнообразие мозгов как у людей. Любые комбинации на пересечении всевозможных осей — быстрый/медленный, консервативный/креативный, умный/глупый, эрудированный/не очень и т.д.


Меня наблюдение подобных аналогий, как сказал провоцирует на поразмышлять о природе мозга, мышления. Да, я и без нейросетей понимал, что у человеков есть «системные промпты» и что их можно править, но вот в этих аналогиях ты четче осознаёшь влияние их и размывается убеждение, что «системные промпты» это навсегда и хрен изменишь. В общем часть про «а какие выводы сделать из этих и других аналогий» оставим читателю.

15 Комментариев
  • Валерий Осипенко
    29 марта 2025, 12:29
    ИИ не способен обучаться потому что он не знает что такое ошибка 
    у него нет контакта с реальностью поэтому он впитывает ошибки разработчиков
    а уж про ложку дегтя он точно не знает 
    так для поболтать сойдет как инструмент типа арифмометра после счет с костяшками
  • yurikon
    29 марта 2025, 13:16
    После сорока лет системные промты меняются. Не знаю, как это работает. Новую прошивку оттуда может скидывают :-))

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн