Блог им. Minsky
В частности вот результаты модели Яндекса против Llama / GPT-4o. Также модели есть и Сбербанка/ТКС (в публичном поле не видел). Инфра — мой любимый Ростелеком (при росте эффективности моделей даже его ДЦ могут подойти). В общем ставки на AI в РФ тоже есть, только сами компании не активно это пиарят.
DeepSeek публикацией своей модели сильно изменил динамику развития из-за того что рост производительности модели был через оптимизацию самой модели и даты, а не инвестиции в хард. Учитывая что все это код в открытом доступе, наши тоже могут поднажать.
И вообще где стимулы от правительства по поддержке AI? Если Китай выкатил недавно, то может и мы созреем. В таком capital intensive бизнесе наши огромные ставки не помогают ни разу.
https://t.me/minskymomentcap
А если прикажут -
и эскусвейный будет интелект!
а ИА))
⁃ Истребитель нового поколения совершил свой первый полет.
⁃ 1 трлн долл. положительного сальдо внешней торговли.
⁃ Искусственное солнце Китая побило рекорд термоядерного синтеза. Температура достигла 100 миллионов градусов.
⁃ Анонсирован Deepseek. Американские технологические гиганты потеряли в стоимости более 1 трлн долларов.
⁃ Первая в Китае тренировочная база роботов-гуманоидов открылась в Шанхае.
⁃ Рекордная мощность солнечной и ветровой энергии будет установлена в 2025 году. Всего было превышено 3348 ГВт
Гигачат от Сбера есть в публичном бесплатном доступе и очень хорош, на уровне 4о.
Во-вторых — чужие модели можно файнтюнить под задачи. Или даже переобучать полностью по уже готовым алгоритмам. Если обучение дипсик стоило реально 6млн зелени — проще повторить на своем наборе знаний, чем героически и намного дороже разрабатывать свои слабые модели.
Кроме того, очень странно выглядят попытки запихать в модели весь интернет или вообще все знания человечества, а потом заявлять, что данные закончились. Очень субъективное имхо, но будущее — за множеством специализированных мелких моделей, обученных под конкретные области знаний, чем универсальных гигантских.
В настоящее время очень большой вопрос, какой же именно путь приведет к полноценному АГИ — максимально увеличивать объем параметров и знаний в одной модели (путь штатов) или развивать рой мелких специализированных моделей с эффективным взаимодействием между собой (путь китайцев). Лично я склоняюсь ко второму варианту.
«цензура встраивается внешним фильтром»
Данные можно фильтровать как на входе, так и на выходе. Сегодня сеть цензурит на выходе, завтра новая версия в принципе не знает о существовании альтернативных точек зрения.
«чужие модели можно файнтюнить под задачи. Или даже переобучать полностью по уже готовым алгоритмам. Если обучение дипсик стоило реально 6млн зелени — проще повторить на своем наборе знаний, чем героически и намного дороже разрабатывать свои слабые модели.»
Разница примерно как между строительством собственного автозавода с разработкой технологий и приглашением зарубежного автогиганта на свои площади за гешефт. В первом случае вы тратите уйму денег, но имеете все технологии, во втором в случае чего гигант посылает вас нафиг и вы клепаете авто без акпп и подушек безопасности.
но фанаты нфт будут спорить )
И согласен, что свои модели нужны. Главное, чтобы попытка сделать свое любой ценой не привела к банальному распилу и заметному отставанию. Поэтому я за разумный баланс и заимствование байтов — в рамках разумного.
«В настоящее время очень большой вопрос, какой же именно путь приведет к полноценному АГИ — максимально увеличивать объем параметров и знаний в одной модели (путь штатов) или развивать рой мелких специализированных моделей с эффективным взаимодействием между собой (путь китайцев). Лично я склоняюсь ко второму варианту.»
Это варианты развития текущей архитектуры чатботов, а не ии в целом. Роутинг с экспертами — лишь оптимизация (не дипсиком придуманная) и спецам из опенаи ничего не мешает добавить его. С некоторой долей вероятности чатгпт уже может иметь его, только новость о нем не публиковали, потому что клиентам вообще без разницы, как получен ответ, им важен результат, а не процесс. Ну и 100 миллионов инвестиций лучше, чем 5.
**GPT — это как бот-краш, который учился на всем интернете** 🌐🤖
Представь: есть нейросеть, которая **залипла на учебниках, мемах и переписках** так, что теперь может:
— Писать за тебя сочинение про «Обломова» (но с приколами про прокрастинацию в стиле TikTok).
— Генерить идеи для сторис, когда ты в ступоре.
— Отвечать на вопросы так, будто она гуглит быстрее, чем ты успеваешь дочитать.
**Как работает?**
1. **Читает всё подряд** — как ты листаешь ленту в инсте, только GPT «запомнил» петабайты текста.
2. **Предсказывает слова** — как будто дополняет твои мысли, но иногда выдает кринж типа «ИИ тоже плачет по ночам...».
3. **Флексит знаниями** — от объяснения квантовой физики до рецепта рамена с дошиком.
**Зачем это зумерам?**
— **Домашка на автомате** (но учитель всё равно спалит, если влепишь мем про Путина).
— **Генерация ников для Steam** — «xX_Лучик_Тьмы_Xx» за секунду.
— **Подкаты в личку** — «Эй, краш, ты как GPT: идеален, но иногда тупишь».
**Минусы:**
— Иногда несёт дичь, как дед в политических пабликах.
— Может забыть, что 2+2=4, если слишком увлечется философией.
**Короче:** GPT — это **чилловый ИИ-братишка**, который знает всё, но делает вид, что просто зашёл поболтать. Используй, но не верь на слово — вдруг он тайно зомбирован марсианами? 🛸💬
Чувак, который открыл эм излучение говорил, что эта фигулина будет бесполезной для человечества. Он не понимал, что с помощью эм волн можно передавать звук и картинки. Естественно, в те времена он этого не делал, не передавал на расстояние ни звук ни картинки.
Далее, что уже есть сейчас — преобразование речи в текст, перевод с одного языка на другой, автопилоты с анализом дорожной ситуации (пока работают сносно, но с каждым годом все лучше и лучше), это все ИИ.