Блог им. spydell-telegram

Тупик эволюции или еще нет?

    • 14 ноября 2025, 10:30
    • |
    • spydell
      Проверенный аккаунт
  • Еще

Настоящая революция начнется тогда, когда ИИ обретут квази-самосознание, когда машины научатся не только генерировать токены на основе распределения вероятностей, а понимать, в каком мире они находятся, какой процесс описывают и к чему приведут действия (цепочка последовательности через выстраивание динамического равновесия в условиях нестационарных корреляционных связей).

Реальный мир неоднородный и неоднозначный, то что казалось устойчивым еще вчера может сегодня изменить характеристики, связи, конфигурационные параметры.

Настоящий интеллект начинается тогда, когда идет динамическая балансировка иерархическими связями, где можно выделять сущностные элементы, события и процессы в каждый момент времени (выстраивать иерархию приоритетов), оценивая всю совокупность данных, факторов и динамических связей.

LLMs – это в какой-то степени зеркало заднего опыта, некий синтетический суррогат ранее накопленного опыта, своего рода квинтэссенция заполненного резервуара данных обучения.

Это очень полезная функция – умение качественно обобщать критически важно для практически любой деятельности и особенно для исследований и разработок.

Однако, нейросети запоминают и интерполируют огромный набор наблюдённых паттернов, но не выделяют явной структуры мира, из которой можно выводить новые правила.

Другими словами, нейросети формируют экстракт, конспект, обобщение обученных данных, но не способны по настоящему генерировать новые смыслы, идеи, концепции.

В некотором роде, морфинг идей работает и опять же, для мозгового штурма LLMs могут быть полезны через агрегацию и систематизацию ранее накопленного опыта по заданному направлению, но формировать новое пространство решений – уже нет.

По сути, LLMs – это своеобразный архиватор данных, как привычные архиваторы сжимают текстовые, музыкальные, графические и видео данные с минимальной потерей качества, так и LLMs сжимает данные (режим обобщения), интерпретируя результат на человеческом языке с возможностью «разархивации», т.е. на основе сформированного запроса создавать, так называемое, концептуальное насыщение на принципе корреляций.

Почему все это важно понимать?

Масштабирование существующих LLM-архитектур даёт нелинейный прирост возможностей при экспоненциальном росте вычислений и данных, где формируется принцип убывающей отдачи на определенном пороге/пределе, при этом в режиме «симуляции мира» LLMs критически неэффективны, требуя несоизмеримо много вычислительных ресурсов для решения простых задач.

LLMs очень плохо масштабируется на непрерывные, высокоразмерные модальности, существующие в реальном мире, заведомо проигрывает архитектурам, которые предсказывают в абстрактном пространстве представлений.

Парадокс модальностей: LLMs могут быть глупее кошек и грудных детей в рамках взаимодействия с окружением, но могут претендовать на отдельные решения в подмодулях в точных науках уровня нобелевских лауреатов.

Наращивание параметров и данных может привести к обратному эффекту – зашумливанию и дезориентации на основе противоречивых наборов данных, особенно сформированных с низким уровнем достоверности, низким качеством (поток цифрового скама в соцсетях, новостных лентах и сайтах).

Сам по себе эффект масштабирования сильно преувеличен – может быть впечатляющий экспоненциальный эффект, на до определенного уровня, далее убывающая отдача, плато и деградация. Как видится, сейчас выходим на плато и далее наиболее вероятная деградация моделей, особенно в условиях обучения на синтетических данных (созданных самими LLMs), приводя к каскадному заражению всего стека данных.

Без преодоления вышеописанных ограничений и без динамической иерархии представления данных (отсечение лишнего, концентрация на важном) текущий путь – однозначно тупиковый (вы это увидите в 2026, когда каждая следующая итерация модели будет давать меньший прирост производительности).

Это не является исчерпывающим описанием (скорее наброски на полях), но дает общее представление и подсвечивает главный риск –все эти триллионные инвестиции могут оказаться неокупаемыми или невостребованными.

https://t.me/spydell_finance

2.7К | ★1
15 комментариев
Все говорят о сознании, но никто не может сказать, что это такое. Зачем ИИ сознание? Для отрасли и лично для меня лучше, чтобы у ИИ сознания, подобного человеческому или животному, не было, сознание будет мешать эксплуатации машины. По некоторым признакам ИИ обладают интеллектом и достаточными для выполнения задач и даже самообучения (grok 4) признаками сознания, но стремиться к идентичности ИИ и рабочего Васи из 5-го цеха — бессмысленно и вредно. ИИ должен решать конкретные задачи, которые человек не может или не хочет решать, в этом смысле ИИ должен быть антиподом человека.
avatar
Всем понятно, что не плохо бы зашортить этот пузырь, но безумие может продолжаться дольше моей устойчивости. 
avatar
Александр, там нет пузыря, там колоссальная недооценка технологии. Если бы вам 1892-м году сказали, что через 30-50 лет мир будет пронизан электрическими сетями, вы бы зашортили Siemens, AEG и GE (Edison General Electric) по 2,3 цента?
avatar
зачем 1892 год. Смотрите ближе. Кризис ДотКом. Если оказаться в 1998 году то из поисковиков хайпил — Yahoo, из тай тека — Xerox. Ни кто на тот момент не вкладывал в Гугл.
Ну и самое главное мы сейчас на пике ожидания от технологии ИИ, впереди холодный душ реальности и занятия узких ниш в реальной экономике. 


Один из основателей ит бума в США Питер Тиль оценивает реальный вклад не более 2% ввп. Можно ли это назвать революцией?
avatar
Александр, Microsoft, Oracle, Amazon, NVIDIA, можно долго перечислять, всё это  тоже «доткомы», которые успешно пережили «кризис доткомов» и капитализация которых возросла в разы, а в некоторых случаях на порядки.
avatar
Александр, фига в кармане засела у многих в подкорке.
Если инвестор не может организовать пузырь он должен на нем прокатиться.
Ведь неизвестно когда еще такая возможность представиться. 
avatar
DrManhattan, кататься на пузыре как играть в казино. Никто не знает когда музыка закончится. В моменте Вы не различите, что это коррекция или уже падение.  
avatar
Александр, на рынке, в отличие от казино, нет раунда —
в любой момент можно выйти или сменить ставку.
Я считаю, когда у тебя х10 — то не надо жадничать.
Вопрос не в «выйти», вопрос в «войти».
В правильном месте и в правильное время.
avatar
все эти триллионные инвестиции могут оказаться неокупаемыми или невостребованными.

Да и плевать.
Не мы же вбухиваем миллионы.
Мы же не инвестируем как Баффет, а катаемся с горочки на горочку.
А в этом деле самое главное — вовремя смыться.
avatar
еще нет
avatar
САМИ создали псевдо интеллект САМИМ и отвечать.  всё по справедливости.
avatar
ВВШ Free.Solo., почему псевдо? ИИ — это вполне себе полноценная форма интеллекта. Вы просто хотите, чтобы ИИ повторял грузчика «Васю», у ИИ нет такой задачи. В этом плане мания антропоморфных роботов, которая сейчас охватила мир, — это ошибочный путь, роботу не нужна ни голова, ни две руки (почему не три или пять?).
avatar
Auximen, --- псевдо потому что ИИ делает ровно  то чему его научили создатели.   шаг лево шаг вправо =  расстрел.  реально мыслящего  интеллекта — почти НОЛЬ.
avatar
псевдо потому что ИИ делает ровно  то чему его научили создатели

В той же степени, что и люди. При этом, обученная модель может делать выводы, которым её не обучили, например

AlphaGo: открыл новый ход 37 в Go, выходя за пределы обучения.
FunSearch: создал новые алгоритмы для математических задач (капрекар-числа)

шаг лево шаг вправо =  расстрел.  реально мыслящего  интеллекта — почти НОЛЬ

 

Так и человек мыслит исключительно в рамках модели мира, которой его обучили, шаг «влево, шаг вправо — расстрел». Или вы можете вообразить, скажем, 5-мерный мир?)

Недавно было проведено исследование Deezer и Ipsos (ноябрь 2025), 97% слушателей не отличили полностью AI-генерированную музыку от человеческой в слепом тесте. Генерация музыки LLM базируется на «тексте» в кавычках, т.е. это последовательность данных, преобразованных в музыку. Это исследование подтверждает, что современные LLM обладают схожим с человеком «творческим» интеллектом.

avatar
Тупик. Для человека важны две вещи — эмоции (удовольствие) и инстинкты (самоутверждение в гигантской стае).
ИИ не поймет, зачем люди прутся на Пик Коммунизма, ныряют в снег после бани, или слушают Джанис Джоплин — это про эмоции...
Также, ИИ не поймет, зачем человек стремится чего-то «достичь» (занять не нижний статус в стае).
Спроси ИИ, почему ему нравится слушать Джими Хендрикса сегодня (ностальгия по хиппи-духу 60-х) — и он сдуется...

Так что, удел ИИ — быть рабом человека, хорошо вышколенным официантом, подносящим нам круассан и шампанское:)

avatar

Читайте на SMART-LAB:
Фото
EUR/USD: пара прорвалась выше ключевого сопротивления и закрепляет успех
Евро продолжает восстанавливаться и вышел на очередные локальные максимумы, после чего начал корректироваться в поисках новой поддержки. Фактором...
🏦 Дом.PФ продолжает расти
Компания опубликовала отчет за 11 месяцев по МСФО. Это первые результаты после IPO   Дом.PФ (DOMRF) ➡️ Инфо и показатели     Результаты...
Фото
💼 Новый выпуск облигаций со ставкой до 25% и доходностью до 28,08% на 3,5 года
💼 Новый выпуск облигаций со ставкой до 25% и доходностью до 28,08% на 3,5 года 💼 Уважаемые инвесторы! 💼 Уже завтра, 23...

теги блога spydell

....все тэги



UPDONW
Новый дизайн