Блог им. maksimshved

Последние недели наша небольшая команда работала практически без выходных.
У многих из нас семьи почти не видели — ночные сборки, тесты, переделки, новые модули, очередные сбои, переработка логики, снова тесты.
Но мы дошли до первого важного рубежа.
Сегодня можем показать то, что обычно делает полноценная лаборатория:
прототип автономного AGI-ядра, работающий локально как связная система.
Это не LLM-бот.
Не ассистент с подсказками.
И не интерфейс поверх GPT.
Мы собирали именно архитектуру поведения + память + контекст + восприятие + ядро принятия решений + визуальное тело.

Основная логика, управляющая контекстом, памятью, агентами, обработкой речи и действий.
✔ 2. Memory Engine
Система долговременной и контекстной памяти:
— события
— факты
— персоналия
— правила
— история
— категории
Память общая для всех интерфейсов.


AGI — одна личность, которая общается в нескольких средах.
Если что-то обсуждали в веб-чате, он “помнит” это в Telegram, и наоборот.

Голос → распознавание → анализ → логика → ответ → синтез речи.
Фактически аватар слышит и отвечает в реальном времени.
Изображения → распознавание → передача в ядро.
✔ 6. Swarm Agents
— планировщик задач
— генератор контента
— загрузчик знаний в RAG VectorDB
Модули взаимодействуют с ядром как вспомогательные “мыслительные узлы”.

Поиск по загруженным документам с использованием эмбеддингов.
✔ 8. V.E.R.A Launcher
Наш внутренний инструмент:
панель для запуска всех сервисов (Core, Hearing, Vision, Avatar, TTS, Telegram Bot).
Видно статусы процессов, порты, можно запускать/останавливать, смотреть логи.
Визуальное “тело” системы:
— слышит
— видит
— говорит
— запоминает
— адаптируется
В будущем — анализ сцены через камеру.
AGI может:
слышать голос → преобразовать в текст → анализировать → отвечать голосом;
вести диалог с контекстом и памятью;
выполнять команды (например: “отправь сообщение в Telegram-канал”);
генерировать тексты и планы;
использовать знания из локальной базы (RAG);
переключать режимы поведения (преподаватель, эксперт, аналитик и т.д.);
работать как единая личность в нескольких интерфейсах.
Скриншоты интерфейсов, лаунчера и аватара — ниже.
(Ты просто вставишь свои скрины.)
Потому что коммерческий рынок AI сейчас насыщен интерфейсами поверх API,
но почти никто не строит поведенческую архитектуру,
которая может развиваться в сторону автономии:
модульность
память
восприятие
управление состояниями
агенты
визуальное тело
единая логика
Это — фундамент для будущих систем:
персональных AGI-ассистентов
автономных аналитических модулей
сервисов сопровождения
обучающих платформ
автоматизации бизнеса
и даже робототехники
Мы создаём основу, на которую можно ставить любую вертикаль.
Мы хотим сделать:
3D-аватар с мимикой и естественной анимацией
зрение “в реальном времени” через камеру
анализ объектов
самоулучшение поведения
систему безопасности
расширение AGI-ядра
адаптацию для конкретных задач (образование, бизнес, аналитика, медицина, сопровождение)
Для этого нужна инфраструктура:
оборудование
офис
ещё 1–2 инженера
6–12 месяцев разработки
Мы будем искать партнёров и инвестиции.
Ориентир: около 50 млн ₽ на полноценный R&D-цикл.
Пишите — вышлем доступ, проведём демонстрацию.
Ссылка на тенчат
Telegram — Швед Максим Ген.директор «Инновационного центра разработок»
У каждого свой «помощник».
Хакнут и все ...
Визуал конечно чем такой «фиолетовый» лучше помягче космический или хайтэк
2) Может ли она переобучаться, если посчитает необходимым?
3) Если ее научат «дурному» — есть ли от этого защита?
лучше сделать в виде нейтрального милого маскота
AGI тут нет никакого, так LLM — бормотунчик
Хотя бормотунчики они даже умнее были, за счет «песка», но недолго