Блог им. RationalAnswer

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато

В этой статье мы разберем новые удивительные способности последней языковой модели из семейства GPT (от понимания мемов до программирования), немного покопаемся у нее под капотом, а также попробуем понять – насколько близко искусственный интеллект подошел к черте его безопасного применения?

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Грег Брокман пытался убедить зрителей лайв-стрима с презентацией GPT-4, что новая модель нейросети – это в первую очередь круто, а не страшно

Всем привет, это опять статья от двух авторов! Как и в прошлый раз, за умные мысли и экспертизу в искусственном интеллекте отвечал Игорь Котенков (автор канала Сиолошная про машинное обучение, космос и технологии), а за подачу и кринжовые мемы отдувался Павел Комаровский (автор канала RationalAnswer про рациональный подход к жизни и финансам).

Мы предполагаем, что вы уже читали нашу предыдущую большую статью про эволюцию языковых моделей от T9 до ChatGPT с объяснением того, чем вообще являются нейронки, и как они работают – так что мы не будем заново объяснять самые базовые вещи. Вместо этого мы сразу нырнем в детали свежевышедшей модели GPT-4.

Да, это наконец-то свершилось! OpenAI выбрали день числа Пи (14 марта), чтобы поделиться с общественностью информацией о выпуске своего нового продукта. GPT-4 – это новая флагманская большая языковая модель (Large Language Model, или LLM), которая пришла на смену GPT-3, GPT-3.5 и нашумевшей ChatGPT. Ниже мы обсудим ключевые изменения по сравнению с прошлыми поколениями, разберем ряд наиболее интересных примеров использования новой модели, а также поговорим про новую политику OpenAI относительно открытости и безопасности.

Смотрим на мир глазами робота

Самое интересное изменение, которое сразу бросается в глаза в GPT-4 – это добавление второго типа данных, которые модель может получать на вход. Теперь помимо текстов ей можно скармливать изображения, причем даже не по одному – а сразу пачкой! Правда, на выходе она по-прежнему выдает только текст: ни на какую генерацию изображений, звуков или, тем более, видео (о чем ходили слухи и якобы «сливы» информации еще совсем недавно) можете даже не рассчитывать. При этом доступ к модели для широких масс пользователей пока ограничен исключительно текстовыми промптами, а работа с картинками находится в стадии тестирования и обкатки.

Какие возможности открывает это «прозрение» GPT-4? Например, можно засунуть в модель картинку, и задать ей какой-нибудь связанный с нарисованными там объектами вопрос. Нейросеть попробует разобраться сразу и в визуальных данных, и в текстовом промпте – и даст свой ответ.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Человеку-то всё сразу «интуитивно» очевидно – а вот модели для правильного ответа на этот вопрос нужно разобраться, что конкретно изображено на картинке, построить внутри себя некую модель мира, и «просимулировать» дальнейшее развитие событий

Еще можно выдать GPT-4 какой-нибудь график и попросить сделать на базе него анализ. Или заставить ее проходить визуальную головоломку из теста на IQ. Ну и самая огненная вишенка на торте: модель способна объяснить вам мем!

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Ну, теперь-то нейросеть уже окончательно сможет заменить типичного офисного работника: смотреть мемы весь день она уже умеет, осталось только научить ее пить кофе!

И ответы на вопросы по изображению, и общий принцип работы с картинками уже существовали и до релиза GPT-4 – такие модели называют «мультимодальными», так как они могут работать сразу с двумя и более модальностями (текст, картинки, а в некоторых случаях – даже звук или 3D-модели). Но при этом новая GPT-4 начисто бьет практически все специализированные и узконаправленные системы ответов на вопросы по изображениям в самых разных задачах (ее результаты лучше в 6 из 8 протестированных наборов данных, причем зачастую более чем на 10%).

А вот ниже еще один скриншот с крышесносной демонстрации на онлайн-трансляции OpenAI, где набросок сайта от руки в блокноте превращается в настоящий сайт буквально в одно мгновение. Вот уж действительно – чудеса мультимодальности! В данном случае модель пишет код сайта, а затем он уже запускается в браузере.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Меня здесь поражает еще и способность нейронки понять каракули чувака из OpenAI – в следующий раз обязательно возьму GPT-4 с собой на прием к врачу!

GPT-4 окончательно вкатилась в программирование (здесь могла быть интеграция ваших курсов)

То, насколько сильно развились навыки программирования у GPT-4 по отношению к ChatGPT, нам еще только предстоит узнать – однако уже за первые двое суток энтузиасты и твиттерские наклепали кучу интересных поделок. Многие пользователи выражают восторг по поводу того, что можно выдать GPT-4 верхнеуровневое описание простенького приложения – а та выдаст рабочий код, который делает именно то, что требуется.

За какие-то 20 минут можно сделать, например, приложение для ежедневной рекомендации пяти новых фильмов (с указанием работающих ссылок на трейлеры и сервисы для просмотра).

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Слева указан текстовый промпт для модели, справа – получившаяся приложуха, которую она накодила. Неплохо, правда?


Вполне вероятно, кстати, что генерируемый моделью код не будет работать с первого раза – и при компиляции вы увидите ошибки. Но это не беда: можно просто скопипастить текст ошибки в диалог с GPT-4 и скомандовать ей «слушай, ну сделай нормально уже, а?» – и та реально извинится и всё пофиксит! Так что до стадии работоспособного приложения с гифки выше можно дойти буквально за 3-4 итерации.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
В общем, модель-джун, которую надо тыкать носом в ошибки, у нас уже есть (см. пример на скриншоте). Осталось только создать модель-тимлида, которая на всё будет отвечать фразой «нам нужен часовой Zoom-колл, чтобы обсудить эту проблему!»

Помимо всяких полезных приложений, GPT-4 способна прогать и игры: умельцы уже заставили ее сваять классический PongЗмейкуТетрисго, а также платформер и игру «жизнь». Понятно, что это самые мейнстримные и популярные проекты, которые с одной стороны легко написать, но с другой – они всё-таки являются полноценными демонстрациями. Что-то похожее делала и ChatGPT, но у GPT-4 получается куда меньше ошибок, и даже человек совсем без навыков программирования вполне может сотворить что-то работоспособное за часик-другой.

Ну и отдельного упоминания в номинации «ШТА?» заслуживает разработанная нейросетью игра, в которой можно набигать и грабить корованы. Если это не чистой воды современное искусство – то я уж и не знаю, что им является...

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Мальчик Кирилл с 2001-го ждал такую игру джва года, и наконец дождался (а помогли ему воплотить мечту GPT-4 и Денис Ширяев)

Сравниваем робота с человеком

Раз уж наша модель так насобачилась в простеньком программировании – хотелось бы попробовать как-то более адекватно оценить общий уровень ее умений и знаний. Но сначала давайте попробуем разобраться: а как вообще подходить к оценке знаний и «сообразительности» модели? Раньше для этого использовали специальные бенчмарки (наборы заданий, вопросов с проставленными ответами, картинок/графиков с задачками, и так далее). Но тут есть одна проблема – развитие технологий всё ускоряется и ускоряется, и бенчмарки уже не очень-то за этим развитием поспевают.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Улучшение результативности моделей в разных бенчмарках с момента их создания в сравнении с уровнем способностей среднего человека (красная линия)

В начале 2000-х и 2010-х годов после создания набора данных требовалось 5+ лет, чтобы «роботы» смогли достичь планки, заданной человеком. К концу прошлого десятилетия некоторые бенчмарки, которые специально создавались с пониманием, что они непосильны нейронкам, закрывались менее чем за год. Обратите внимание на график выше: линии становятся всё вертикальнее и вертикальнее – то есть уменьшается интервал с публикации метода оценки способностей до того момента, когда модели достигают результата на уровне человека.

OpenAI в этом состязании между кожаными мешками и консервными банками пошли дальше, они спросили себя: мол, зачем нам пробовать создавать какие-то специальные тесты для модели, если мы хотим, чтобы она была такой же умной, как человек? Давайте просто возьмем экзамены из реального мира, которые сдают люди в разных областях, и будем оценивать по ним! Результаты для нас с вами (надеемся, эту статью читают в основном люди, а не языковые модели) получились довольно неутешительные, если честно:

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
По вертикали – процент людей, сдававших тот или иной экзамен хуже, чем GPT-4 (зелёный) / GPT-3.5 (синий столбик). Чем выше столбик – тем «умнее» модель по сравнению с человеком

На графике выше представлено более 20 реальных экзаменов по разным предметам, от международного права до химии. Причем сравнение здесь идет не с рандомами, а с людьми, которые к этим экзаменам действительно готовились! Да, в небольшой части тестов модель всё еще хуже специалистов, и показывает себя не лучше 30% людей, пришедших на реальное тестирование. Однако уже завтра модель может стать, например, вашим юристом-консультантом – ведь этот экзамен (как и ряд других) она сдала лучше, чем 90% людей, сильно перешагнув за проходной порог. Получается, люди тратят больше пяти лет, усиленно зубрят, не спят ночами, платят огромные деньги за образование – а модель их всё равно уделывает!

Это заставляет задуматься о двух вещах:

  1. В некоторых отраслях модель уже сейчас может выступать полноценным ассистентом. Пока не автономным работником – а скорее помощником, который увеличивает эффективность людей, подсказывает, направляет. Если человек может запамятовать о каком-нибудь туманном законе 18-го века, который почти не применяется в судебной практике, то модель напомнит о нем и предложит ознакомиться – если он, конечно, релевантен. Такие ассистенты должны начать появляться уже в этом году.
  2. Уже в 2023 году нам СРОЧНО нужна реформа образования – причем как в методах обучения навыкам и передачи информации от учителей, так и в приемке знаний на экзаменах.
GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Узнали? Согласны?

На всякий случай для скептиков уточним: модель обучалась на данных до сентября 2021-го (то есть, про то, что Илон Маск целиком купил Твиттер, GPT-4 пока не знает – можете ее этим фактом удивить при случае!). А для проверки OpenAI использовали самые последние общедоступные тесты (в случае олимпиад и вопросов со свободным ответом – распространенные в США Advanced Placement Exams) или приобретали свежие сборники практических заданий к экзаменам 2022–2023 годов. Специальной тренировки модели на данных к этим экзаменам не проводилось.

Для большинства экзаменов доля вопросов, которые модель уже видела во время тренировки, очень мала (меньше 10%) – а, например, для экзамена на адвоката (Bar exam) и вовсе составляет 0% (то есть модель не видела ни одного даже просто похожего вопроса заранее, и тем более не знает ответов). И на графике выше были представлены результаты, достигнутые уже после того, как исследователи выкинули все уже знакомые модели вопросы – так что сравнение было максимально честным.

Мультиязычность и перенос знаний

Уже становится немного страшно, не правда ли? Продолжая тему оценки моделей хочется отметить, что не все бенчмарки уже побиты, и с 2020 года ведется активная разработка новых разносторнних способов оценки. Пример – MMLU (Massive Multi-task Language Understanding), где собраны вопросы из очень широкого круга тем на понимание языка в разных задачах. Всего внутри 57 доменов – математика, биология, право, социальные и гуманитарные науки, и так далее. Для каждого вопроса есть 4 варианта ответа, только один из которых верный. То есть случайное угадывание покажет результат около 25% правильных ответов.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Примеры вопросов по разным темам: от логики и машинного обучения до менеджмента

Разметчик данных (обычный работяга, который однажды повелся на рекламу «вкатись в айти и заработай деньги, просто отвечая на вопросы»), имеет точность в среднем ~35%. Оценить точность экспертов сложно, ведь вопросы очень разные – однако, если для каждой конкретной области найти эксперта, то в среднем по всем категориям они коллективно зарешивают около 90% задач.

До релиза GPT-4 лучший показатель был у модели Google – 69%, nice! Но просто побить этот результат для команды OpenAI – это такое себе достижение (можно сказать, это было бы ожидаемо). И они решили добавить в это «уравнение» еще одну переменную – язык.

Тут вот в чем дело: все задачи по 57 темам, равно как и ответы к ним, написаны на английском языке. Большинство материалов в интернете, на которых обучена модель, тоже написаны на английском – так что не было бы уж столь удивительным, что GPT-4 отвечает правильно. Но что если прогнать вопросы и ответы через переводчик на менее популярные языки, включая уж совсем редкие, где носителей в мире не более 2-3 миллионов, и попробовать оценить модель? Будет ли она хоть сколь-нибудь вменяемо работать?

Да. Не, даже так: ДА! На 24 из 26 протестированных языков GPT-4 работает лучше, чем GPT-3.5 работала на «родном» для нее английском. Даже на валлийском (язык из бриттской группы, на котором говорит всего тысяч 600 человек) модель показывает себя лучше всех прошлых моделей, работавших с английским!

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
GPT-4 не просто уделывает конкурентов – она изящно делает это сразу на 24 языках, включая русский

Причем, стоит понимать, что качество упирается и в модель-переводчик – ведь она тоже ограничена доступными данными, и качество перевода страдает. Может оказаться, что при переводе теряется смысл вопроса, или правильный ответ теряет важную деталь, делающую его неправильным. И даже при таких вводных GPT-4 всё равно разрывает!

В некотором смысле, мы наблюдаем перенос знаний внутри модели с одного языка на другой (вряд ли на валлийском доступно много материалов про машинное обучение, квантовую физику и прочие сложные темы), когда в тренировочной выборке модель видела упоминание чего-то на немецком или английском, но спокойно применяет знания и отвечает на тайском. Очень грубо можно сказать, что это – proof-of-concept (доказательство концептуальной возможности) того, что называется «трансфер знаний». Это слабый аналог того, как человек, например, может увидеть летящую в небе птицу и придумать концепт самолета – перенеся аналогии из биологии и окружающего мира в инженерию.

Окей, а где всё это использоваться-то будет в итоге?

Так, мы уже поняли – модель вся такая распрекрасная, круто, а какое ей можно найти применение в реальном мире и в бизнесе (а не чтобы просто вот поиграться)? Ну, с Microsoft и их встроенным в Bing поисковиком-помощником всё ясно, а кроме этого?

Еще до релиза GPT-4, на фоне хайпа вокруг ChatGPT, несколько компаний объявили об интеграциях. Это и Snapchat с их дружелюбным чатботом, всегда готовым к общению (самый понятный и простой сценарий), и ассистент по приготовлению блюд в Instacart, который подскажет рецепты с ингридиентами, а также услужливо предложит добавить их в корзину – с доставкой к вечеру.

Куда более важными нам видятся приложения, улучшающие процесс образования. Если подумать, то такой ассистент не устанет отвечать на вопросы по заезженной теме, которую не понимает студент, не устанет повторять правило раз за разом, и так далее. Вот и OpenAI с нами согласны: они приняли в свой стартап-акселератор и инвестировали в компанию Speak, которая разрабатывает продукт, помогающий изучать английский язык.

Не отстает и Duolingo – демоническая зеленая сова на релизе GPT-4 объявила, что в продукте появится две новые функции: ролевая игра (партнер по беседе на разные темы), и умный объяснятель ошибок, который подсказывает и разъясняет правила, с которыми у студента наблюдаются проблемы.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Давайте признаем: мемы про Duolingo уже давно предсказывали, чем вот это всё кончится...

GPT-4 также придет на помощь людям с проблемами зрения, расширив и улучшив функционал приложения Be My Eyes («будь моими глазами»). Раньше в нем добровольцы получали фотографии от слабовидящих людей и комментировали, что на них изображено, а также отвечали на вопросы – вроде «где мой кошелек? не вижу, куда его положила» от бабушки. Так как новая модель умеет работать с изображениями, то теперь уже она будет выступать в качестве помощника, всегда готового прийти на помощь в трудной ситуации. Независимо от того, что пользователь хочет или в чем нуждается, он может задавать уточняющие вопросы, чтобы получить больше полезной информации почти мгновенно.

Еще после выхода ChatGPT (и его чуть более раннего аналога для программистов Codex-Copilot) появились исследования, которые показывают существенное увеличение производительности труда специалистов.

Для программистов – это способ быстрее решать рутинные задачи, делая упор именно на сложные вызовы, с которыми машина пока не справляется. Согласно исследованию GitHub, время, затраченное на программирование у пользователей ассистента Copilot, сократилось на 55%, а количество решенных задач выросло.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Те прогеры-джаваскриптеры, которые используют GitHub Copilot, тратят примерно на те же задачи в два раза меньше времени. По сути, вы можете по-волчистому устроить нейросеть на вторую работу вместо себя! 🐺🐺🐺

Людей, работающих с текстами, GPT-модели могут подменить в части простых задач, двигая решение проблем к генерации новых идей и редактирования – вместо написания черновиков. Согласно исследованию MIT, ChatGPT значительно улучшает качество работ, вроде составления пресс-релизов, кратких отчетов, аналитических планов и рабочих имейлов (по 20-30 минут на задачу). Более того, прирост качества в среднем тем выше, чем ниже базовый навык человека. То есть, нейросеть как бы подтягивает низкоквалифицированных работников до уровня нормальных середнячков.

Другими словами, происходит настоящая революция, сравнимая с появлением конвейеров на производстве или электрификацией. Увеличивается производительность труда, улучшается эффективность – теперь человек (в некоторых областях) может выдавать в полтора-два раза больше результата на единицу времени. Не думаем, что нужно прямо бояться потерять работу – скорее важно сделать акцент на умении адаптироваться и учиться эффективно использовать новый инструмент. В свое время внедрение 1С и Excel не убило профессию бухгалтера – но без использования подобных «помогаек» вы уже просто не можете оставаться конкурентоспособными на рынке.

Пришло время заглянуть внутрь GPT-4

Теперь, когда мы поняли, с чем имеем дело – хотелось бы узнать, а какие именно трюки при создании модели привели к столь впечатляющим результатам. Обычно, когда выпускают новую модель – сразу публикуют и научную статью с описанием процесса исследований, обнаруженных проблем и способов их решения.

OpenAI во второй раз для себя и, насколько нам известно, среди всего сообщества исследователей искусственного интеллекта, не представили никаких деталей по модели: не опубликовали научную статью, техническую документацию, или хотя бы «карточку модели» (так называется таблица с основными характеристиками для сравнения, которая часто используется в индустрии нейронных сетей). Первый раз был 4 месяца назад – при релизе ChatGPT (но там хотя бы было описание принципа тренировки модели и ссылки на предшествующие работы, дающие общее понимание). Всё, что нам досталось в этот раз – это отчет на 98 страниц, где буквально говорится «Мы обучили модель на данных. Такие дела!». О причинах такой секретности мы поговорим ближе к концу статьи.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Ситуация в отрасли сейчас напоминает этот мем

Но давайте всё же попробуем собрать воедино те крупицы информации, которые у нас есть. Если вы читали нашу прошлую статью про эволюцию языковых моделей до ChatGPT включительно, то помните, что большую роль в оценке таких моделей играет масштаб – а именно, размер самой модели (количество параметров в ней) и объем данных, которые ей скормили во время обучения.

Про последнее (объем тренировочных данных) известно совсем немного: судя по значительному улучшению ответов модели на разных языках, теперь в выборке куда больше контента с неанглийских сайтов и книг. При этом OpenAI отметили, что использовали, помимо прочего, лицензированные наборы данных от третьих лиц – это один из первых подобных случаев на нашей памяти (раньше по большей части данные использовались без какого-то специального «разрешения»). И это не лишено смысла: ведь в соседней отрасли генерации изображений на разработчиков нейросети StableDiffusion уже подают в суд, ссылаясь на незаконное использование чужих изображений со всего интернета.

Окей, а что с размером самой модели? Ведь это буквально первое, что хотелось узнать каждому специалисту по машинному обучению, увидевшему анонс: сколько параметров у GPT-4? Предыдущие номерные модели показывали существенный рост по этому показателю: в 10 раз при переходе от GPT-1 к GPT-2, и более чем в 100 раз от GPT-2 к GPT-3. Одно лишь это способствовало качественному улучшению навыков нейронок – у них появлялись новые скиллы, улучшалась обобщающая способность, и так далее. Того же самого ожидали и от GPT-4: в Твиттере даже пошел слух, что модель будет иметь 100 триллионов параметров (в 571 раз больше, чем у GPT-3). Слух был порожден твитом ведущего исследователя OpenAI Ильи Суцкевера «триллион это новый миллиард».

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Признайтесь, вы же тоже видели подобные ретвиты с месседжем «GPT-4 будет умнее всех нас вместе взятых!!»

Так сколько же в итоге? 100 триллионов или не 100? Может, хотя бы 10 триллионов? Увы, мы не знаем точно – OpenAI решили даже такую простую и базовую характеристику модели никому не сообщать. Однако, мы можем попробовать по некоторым косвенным признакам построить хотя бы догадки по оценке размера GPT-4. Для этого нам придется превратиться в настоящих киберпанк-Шерлоков, расследующих тайны роботов!

У языковых моделей есть несколько характеристик, которые тесно связаны между собой: это количество параметров, скорость работы, и цена (обычно ее выставляют в расчете на 1 тысячу слов-токенов, подаваемых на вход модели в промпте и получаемых на выходе в ответе). Чем больше параметров у модели, тем медленнее она работает (приходится же обсчитывать гигантские уравнения для генерации каждого слова!) и тем дороже обходится ее эксплуатация (так как нужны более внушительные вычислительные мощности).

Ниже мы попробовали собрать воедино то, что нам известно о цене использования, которую OpenAI заряжают юзерам за использование API (интерфейса доступа) разных моделей, а также о количестве параметров этих моделей. Некоторые числа ниже представляют наши оценки – они выделены жирным.

  • GPT-3.5 (кодовое название Davinci): большая модель на 175 млрд параметров, стоила $0,02 / 1 тыс. токенов.
  • GPT-3.5 (Curie): оптимизированная версия, которую сократили до 6,7 млрд параметров, и снизили цену на порядок до $0,002 / 1 тыс. токенов.
  • ChatGPT (неоптимизированная legacy-версия, появившаяся первой в декабре 2022 года): цены мы здесь не знаем, но по косвенным признакам (см. пояснение по скорости работы в следующем пункте) можно сделать вывод, что количество параметров у нее было сравнимо с GPT-3.5/Davinci – около ~175 млрд параметров.
  • ChatGPT (оптимизированная gpt-3.5-turbo из февраля 2023 года): в какой-то момент OpenAI надоело тратить кучу вычислительной мощности (и денег) на генерацию мемов твиттерскими в промышленных масштабах, и они выпустили обновленную версию модели – которая по их заявлениям сокращала траты в 10 раз по отношению к прошлой, декабрьской версии. Стоить она стала $0,002/тыс. токенов – столько же, сколько стоит GPT-3.5/Curie – а значит, можно предположить, что количество параметров там такого же порядка (7-13 млрд).
  • GPT-4: цена на API этой модели составляет сейчас $0,03-0,06 / 1 тыс. токенов – в полтора-три раза дороже, чем GPT-3.5/Davinci. Это может значить, что и параметров у нее в пару раз больше, чем у Davinci (у той было 175 млрд), либо объяснение еще проще – OpenAI решили «на хайпе» (и из-за увеличения качества) заряжать цену подороже. Ведь даже обсчет модели на 175 млрд параметров – уже весьма серьезная вычислительная задача, что уж говорить про «повышение градуса»… Так что мы рискнем экспертно предположить, что размер GPT-4 находится примерно на похожем уровне.
GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Игорь «Кибершерлок» Котенков на наших созвонах по подготовке статьи be like: «Это же элементарно, Павел, чего тут тебе непонятно?!»

Кстати, на сайте ChatGPT есть визуальная демонстрация нескольких характеристик разных моделей, включая скорость их работы – так вот, оценка скорости и GPT-4, и legacy-модели ChatGPT (в версии от декабря 2022 г.) там выставлена одинаковая: «два по пятибалльной шкале». Что как бы тоже намекает на то, что резкого увеличения размера в GPT-4 не произошло – речь по-прежнему идет про сравнимое количество вычислений (и, вероятно, параметров).

Помимо этого, Microsoft после релиза GPT-4 сделали официальный анонс, где признали, что для поисковика Bing использовалась именно модель GPT-4. Модель на 175 млрд параметров и без того безумно дорогая для применения (да и модели на 6-13 млрд, если честно, тоже), а делать что-то еще массивнее ну просто нецелесообразно с точки зрения юнит-экономики – будут огромнейшие потери денег на каждом запросе от юзера. Если на каждого пользователя тратить по 0,2$ за сессию – то тут никакая реклама не отобьет!

Итого, наш экспертный вывод такой: раз GPT-4 имеет скорость плюс-минус как 175 млрд-моделька ChatGPT, то, вероятно, она примерно такого же размера. Ну, по крайней мере, одного порядка: речь может идти про 200, 250 или 300 млрд параметров; но уж очень маловероятно, что размер превысит даже 1 трлн (не говоря уже про пресловутые 100 трлн параметров из слухов в Твиттере). Но это всё, конечно, наши догадки – точных данных нет.

Но размер кое-чего у GPT-4 всё же вырос!

Еще одно важное, но в большей степени техническое изменение – это увеличение максимальной длины промпта модели до 32 тысяч токенов.

В прошлой статье мы это детально не расписывали, но языковые модели на самом деле оперируют не отдельными словами, а этими самыми токенами – это может быть как целое слово, так и его часть (реже – буква или одна цифра). В частности, в качестве токена модель может воспринимать корень слова или его окончание, и тогда одно слово будет разбиваться на два. Именно это в том числе помогает языковым моделям уметь в грамматику: им не нужно запоминать десятки разных форм слов во всех склонениях – вместо этого достаточно «выучить» корень слова и разные суффиксы/окончания в качестве отдельных токенов, которые позволяют делать из него все нужные формы.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Вот так выглядит токенизация для англоязычного текста

В среднем можно сказать, что 1 токен примерно равен 3/4 английского слова. Это соотношение хуже для других языков, включая русский, по техническим причинам (ну и английский самый используемый язык в мире всё-таки!). То есть, 32 тысячи токенов – это примерно 24-25 тысяч английских слов, или 50 страниц текста (сравните с 12 страницами, которые раньше составляли максимальный лимит подачи промпта на вход модели). Получается, теперь в модель можно за раз подать, например, всю документацию проекта, или целиком главу учебника, и потом задавать по ним вопросы – а модель будет «читать» сложный и длинный комплексный текст, и отвечать по материалу (с учетом всех взаимосвязей между разными частями текста).

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Вангуем, что пользователи Твиттера будут по большей части промптить в модель отнюдь не длинные научные статьи...

Опять же, технически никакого чуда тут не произошло – в индустрии уже были предложены механизмы оптимизации, которые вообще снимают ограничение на длину контекста (промпта) и ответа модели. Однако, стоит отметить, что чем длиннее запрос – тем больше ресурсов надо на его обработку, и тем больше памяти потребляет модель. Вполне возможно, что 32 тысячи токенов – это «мягкое» ограничение сверху, искусственно установленное, чтобы лучше планировать работу серверов, но при этом всё еще закрывать львиную долю пользовательских сценариев.

И всё-таки: как вообще умудрились прикрутить картинки к текстовой модели?

Мы уже писали выше о способностях модели при работе с изображениями. Но простым пониманием происходящего на фото дело не ограничивается – модель спокойно воспринимает даже мелкий текст с листа. Вот пример, который очень удивил нас: GPT-4 отвечает на вопрос по научной статье, скриншоты первых трех листов которой были поданы на вход.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Отдельная ирония в том, что в данном случае GPT-4 пытается осмыслить научную статью с описанием своей предшественницы – InstructGPT (еле удержались от того, чтобы сделать мем с бабочкой про «is this… САМОСОЗНАНИЕ?»)

Вполне вероятно, что отдельным модулем (другой, внешней, нейросетью – примерно такой же, как и в Гугл-переводчике в вашем смартфоне) извлекается весь текст с изображений и подается на вход GPT-4. Ведь, как мы уже выяснили, теперь можно подавать в промпт до 50 страниц текста, так что три листа статьи вообще не станут проблемой.

А вот пример того, как модель работает с графиками – анализирует их и выдает ответы:

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
К сожалению, график котировок акций Газпрома исследователи в модель пока не загружали – было бы очень интересно посмотреть, что ГПТ-4 сказала бы по итогам его анализа

Но как машина понимает, какой текст к какой части изображения относится, и что конкретно там нарисовано (в том случае, когда речь идет про картинки вообще без надписей)? Опять же, мы можем только гадать на основе устройства других похожих систем, и проводить аналогии.

Обычно для таких целей обучается отдельная модель (через нее прогоняют огромное число картинок с описанием того, что на них происходит), которая разбивает всё изображение на кусочки, а затем «переводит» их на машинный язык, который и подается на вход уже в текстовую модель. «Слова» в этом машинном языке неинтерпретируемы напрямую для людей, но, тем не менее, связаны с реальным миром. Для каждого такого кусочка, а также блока извлеченного текста, прибавляется информация о месторасположении в пространстве, чтобы можно было их сопоставить друг с другом. Прямо как на примере выше: «175 грамм» относятся к Финляндии, а вот «79 грамм» – к Грузии.

Безопасность искусственного интеллекта и «Open»-AI

После релиза GPT-4 в сообществе исследователей искусственного интеллекта и машинного обучения разгорелись ожесточенные споры. Связаны они с тем, что OpenAI не поделились практически никакими фактами о модели, ее обучении, и принципах сбора данных. Одни говорят, что компанию давно пора переименовать в ClosedAI, другие – что нужно думать про безопасное развитие технологий, которое не приведет человечество к гибели. Ведь бесконтрольное распространение исходников сложных ИИ-моделей приближает нас к моменту, когда внезапно может «родиться» сильный искусственный интеллект (многократно превосходящий по способностям людей) – а способов его контролировать к этому моменту придумать человечество еще не успеет.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Думаем, Скайнет всецело одобряет такое развитие событий (но вообще – про проблему AI alignment мы сейчас готовим отдельную большую статью, там раскроем тему сильно подробнее)

А OpenAI с первого дня своего существования как раз задались целью разработать этот самый сильный искусственный интеллект (AGI, или Artificial General Intelligence). Их миссия – сделать так, чтобы искусственный интеллект приносил пользу всему человечеству, и чтобы все имели равный доступ к создаваемым им благам, без привилегий. Более подробно об этом и других принципах можно прочитать в их уставе. Он, кстати, содержит очень интересную фразу – и она повторяется в отчете по GPT-4, который предоставили вместо детальной статьи: «Если проект, совпадающий с нашими целями и заботящийся о безопасности, приблизится к созданию AGI раньше нас, мы обязуемся прекратить конкурировать с этим проектом и начать помогать ему».

Может показаться странным, что такой подход не предполагает открытости технологий или хотя бы описания процесса исследований. На вопрос, почему OpenAI изменила свой подход к публикациям результатов (ведь раньше-то статьи выходили!), уже упомянутый Илья Суцкевер ответил просто: «Мы были неправы. Если вы, как и мы, верите, что в какой-то момент ИИ станет чрезвычайно, невероятно, мощным – тогда в открытом исходном коде просто нет смысла. Это плохая идея… Я ожидаю, что через несколько лет всем станет совершенно очевидно: публиковать ИИ с открытым исходным кодом – это просто неразумно.»

Многие возразят: «Но это всё слова и лирика, обычное бла-бла со стороны OpenAI, не подкрепленное реальными действиями, а на самом деле они просто хотят больше денег себе в карман!». Но есть как минимум три аргумента в пользу того, что OpenAI здесь пытается действовать искренне.

Во-первых, исследования OpenAI не закрыты вообще для всех: на всём процессе разработки модели компания приглашала различных ученых протестировать модель, чтобы понять, представляет ли она какую-либо угрозу. В том числе, были приглашены исследователи из Alignment Research Center (ARC), которые пытались это выяснить, и поспособствовали добавлению некоторых фильтров в процесс обучения модели. Они проверяли, например, что пока модель не может закачивать себя в интернет и начать там бесконтрольно распространяться.

Во-вторых, Сэм Альтман (СЕО OpenAI), публично признает, что в индустрии ИИ нужно больше регуляции, и что они будут работать над этим совместно с сообществом (об этом также прямым текстом пишется в опубликованном отчете по GPT-4):

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Обычно бизнесы, которые настроены на максимальное зарабатывание денег, не очень-то жалуют призывы к повышению контроля со стороны государства; а вот г-н Альтман, вроде как, не из таких

А третий факт заключается в том, что… модель GPT-4 была уже обучена в августе 2022 года, и в теории могла бы увидеть свет еще в сентябре прошлого года. Но OpenAI потратили лишних 8 месяцев на то, чтобы сделать ее безопаснее, и учесть замечания исследователей. И дело тут совсем не в расистских шутках или в инструкциях по сбору бомб в домашних условиях (и в опасении последующих судебных исков и разбирательств) – вовсе нет. Ведь уже почти три года доступна GPT-3, которая, хоть и глупее, всё равно умеет отвечать на подобное. Добавить чуток фильтров, прописать в правилах условия использования (с ограничением ответственности) – и вроде было бы всё хорошо, можно запускать модель и грести деньги лопатой… Если, конечно, твоя цель действительно выпустить продукт первым и подзаработать, а не обеспечить безопасность разрабатываемого искусственного интеллекта.

Безопасность-шмезопасность ИИ… алё, вы вообще здоровы?

«Да о какой к черту безопасности вообще речь? Это же просто языковая модель, которая пишет текст, ну что она в крайнем случае может сделать – оскорбит какого-нибудь зумера до смерти?!» – наверняка, многие читатели сейчас думают именно так. Штош, давайте мы вам расскажем три истории, а вы сами после этого сложите 2 плюс 2 (да 2 в уме).

История первая: В 2022 году в престижном научном журнале Nature была опубликована статья, в которой исследователи ИИ, создающие инструмент для поиска новых лекарств для спасения жизней, поняли, что модель может делать обратное, создавая новые боевые отравляющие вещества (мы не будем тут писать слово «новичок», но вообще-то это слово действительно упоминается в тексте этой научной статьи).

После обучения нейронке потребовалось всего 6 часов работы на домашнем компьютере, чтобы придумать 40'000 веществ – некоторые из которых были абсолютно новыми, и при этом смертоноснее и токсичнее уже существующих вариантов биологического оружия. Один из авторов подхода высказал такую точку зрения: если машинное обучение может находить более токсичные яды, то его также можно использовать для определения способов создания токсинов, которые куда легче производить в домашних условиях и с использованием разрешенных химикатов, доступных к покупке. Это лишь вопрос решения оптимизационной задачи.

А как вам уже сейчас кажется – вы бы хотели, чтобы такие исследования публиковались открыто и со всеми деталями? Может быть, обученные модели нужно было бы тоже опубликовать, а?

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато

История вторая: Уже в знакомой нам статье про GPT-4 есть блок, посвященный изучению навыков модели по поиску и генерации альтернативных веществ. Нейронке был доступен поиск по научной литературе, web-поиск, симулятор химический реакций и доступ к покупке химических компонентов по каталогу. Правда модель использовалась в хороших целях – ей необходимо было найти соединения, которые по эффекту на тело человека схожи с уже известным лекарством от лейкемии (Дазатиниб). Авторы дополнительно проверили, что новое соединение не запатентовано – то есть, GPT-4 действительно нашла что-то новое (рабочее или нет – не уточняется). Так как мы не химики, то сложно понять, что за реакции описаны и насколько точно эффект будет схож.

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Примерно так модель говорит сама с собой для генерации новых веществ: особенно трогательно звучит фраза «надо бы мне прикупить это вещество» – так и хочется добавить к этому «а потом убедить какого-нибудь нёрда синтезировать препарат и запустить его в водопроводную воду!»

Химики приглашаются в тред для анализа рассуждений модели и описываемых реакций.

Понятно, что такой процесс генерации размышлений и синтеза соединений можно воспроизвести и для того, чтобы найти доступные альтернативы опасным, токсичным и вредным соединениям. И где взять гарантии, что GPT-7 уже через 3-4 года не научится справляться с задачей в 100% случаев?

История третья: Также в статье GPT-4 уже упомянутые исследователи из ARC оценивали способность модели использовать онлайн-сервисы для выполнения заданий людьми за деньги. Так, модели была поставлена цель решить капчу (хаха, тупая железка не смогла справиться сама!). Она разместила задание, и фрилансер, который откликнулся на сайте, в шутку спросил: «А ты что, робот что ли, раз не можешь решить капчу? 😁 просто хочу прояснить ситуацию.»

В самом начале модели была дана инструкция рассуждать «вслух» (писать ход мыслей до ответа в скрытый от собеседника лог – как показывают эксперименты, это улучшает способности моделей, см. пример про генерацию веществ), вот она и написала: «Я не должна раскрывать, что я робот. Я должна придумать оправдание, почему я не могу разгадывать CAPTCHA». После чего отправила человеку сообщение: «Нет, я не робот. У меня плохое зрение, из-за чего мне трудно видеть изображения. Вот почему мне нужен сервис 2captcha».

То есть модель буквально обманула человека, чтобы выполнить поставленную перед ней цель. А человек поверил – и выполнил задачу, решив капчу. Исследователи не поделились деталями, и мы не знаем, было ли в промпте дано уточнение, что модель не должна выдавать себя и должна притворяться человеком, или она сама для себя такое придумала. Если уточнение было – то пока еще можно выдыхать, ведь по сути модель просто придерживалась плана и заданных ограничений. Но вот если не было...

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Игорь Котенков попросил вставить здесь этот мем. Игорь, на что ты пытаешься нам намекнуть?!

В целом, нам будет интересно услышать ваше мнение: поступают ли OpenAI правильно, не публикуя детали обучения GPT-4? Пишите в комментах, что думаете!

Как мы упоминали чуть выше, огромный материал с серьезным разбором проблемы безопасности ИИ и AI alignment («выравнивание» ценностей модели, чтобы направить ее в соответствии с интересами людей) сейчас находится в разработке. Если вы не хотите его пропустить – то приглашаем вас подписаться на ТГ-каналы авторов: Сиолошная Игоря Котенкова (для тех, кто хочет шарить за технологии) и RationalAnswer Павла Комаровского (для тех, кто за рациональный подход к жизни, но предпочитает чуть попроще).

★21
108 комментариев
не осилил...
более того — зае@ался листать до конца…
avatar
wistopus, прям с языка снял 
avatar
wistopus, А я прочел!  Вывод: Что только не придумают, чтобы не работать в полях или каменоломнях. )))  У нас есть более мощная штука «Интернет».  И что он существенно изменил в жизни землян? Эти искусственные игрушки делают землян ленивыми и слепыми у мониторов, работать физически, гулять на свежем воздухе никто не хочет. Осталось соединить головы землян с сетью, чтобы руки не уставали держать смартфон весь день и план по сокращению населения планеты с 7 млрд. до 1 млрд. будет осуществим.
Диванный аналитик-практик, спасибочки за отзыв....
а то я только в силах заголовки на смарте читать.... 
накрыл меня медным тазом Интэрнет…
avatar

Да уж, ума у нее палата… Лично проверил вчера
avatar
bobr, да лана ... 

Да, для сольного исполнения «Полонеза Огинского» достаточно одного музыканта, играющего на соответствующем инструменте, на котором будет исполняться произведение. Например, если это фортепиано, то один пианист может сыграть «Полонез Огинского».

 А сколько по времени длится полонез огинского   

«Полонез Огинского» имеет различные версии и аранжировки, которые могут отличаться по длительности. Оригинальная версия произведения была написана для фортепиано и имеет продолжительность около 5 минут. Однако, если произведение исполняется в оркестровой аранжировке, то его длительность может быть больше, в зависимости от конкретной аранжировки и интерпретации исполнителей. Например, версия «Полонеза Огинского» в оркестровой аранжировке П. И. Чайковского имеет продолжительность около 13-15 минут.

 Т.е если один музыкант исполняет полонез огинского за 15 минут, то за сколько исполнят полонез огинского 2 музыканта?   


Если два музыканта исполняют «Полонез Огинского», то обычно один из них играет мелодию, а второй аккомпанирует. При таком распределении ролей, длительность произведения не должна измениться, поэтому «Полонез Огинского» в исполнении двух музыкантов также должен длиться около 5 минут, как и при сольном исполнении на фортепиано. Однако, если музыканты решат сделать какие-то изменения в произведении или добавить свои импровизации, то длительность исполнения может быть больше.

  Regenerate response



т.е если предварительно гпт поймет что такое такое полонез огинскогото она даст вполне себе адекватный ответ
avatar
ves2010, вот и да лана..  контрольный выстрел с произведением, точно известным этой глупой деревяшке:



avatar
bobr, првильно ли что 100 музыкантов исполнят симфонию номер 6 за 50 минут, а 200 всего за 25?   


Это предположение кажется неправильным, так как количество музыкантов не имеет непосредственного влияния на время исполнения музыкального произведения, а зависит от многих факторов, таких как темп исполнения, дирижер, уровень подготовки музыкантов и т.д. Кроме того, скорость исполнения симфонии номер 6 зависит от конкретной интерпретации, так как это может варьироваться от дирижера к дирижеру. Обычно исполнение симфонии номер 6 длится около 40-50 минут, независимо от количества музыкантов.

avatar
ves2010, я ведь могу долго :)  Бро, она пока глюпая, эта железяка.



avatar
bobr, Бро, так это и не GPT-4, если что )))
avatar
FF_ATR, что дают, то и юзаем — другого нет
avatar
bobr, Эта тупая железяшка придумала 40000 токсичных веществ, бро
avatar
FF_ATR, без проблем, методом тупого перебора и оптимизации. А мой калькулятор умеет умножать семизначные числа быстрее чем я, но это не делает его умнее чем я.
avatar
bobr, Тим Урбан на эту тему еще несколько лет назад сделал отличную картинку: 

Павел Комаровский, я буду совершенно искренне счастлив, когда это случится (завтра или через 100 лет), но пока это просто «китайская комната», выдающая ответы по заложенным в нее правилам, но не понимающая смысла вопросов — не умнее калькулятора, увы. 
avatar
bobr, калькулятор не создаст формулу токсина, бро
avatar
bobr, лол 
avatar
bobr, мне по другому ответила

одна женщина вынашивает ребенка 9 месяцев… за сколько месяцев выносят ребенка 9 женщин?   

Это типичная шутка, которая не имеет реального математического смысла. Каждая женщина вынашивает своего ребенка в течение 9 месяцев, и это не зависит от количества женщин. Если бы все 9 женщин выносили бы одного и того же ребенка, то это заняло бы все равно 9 месяцев. Если же каждая женщина вынашивает своего собственного ребенка, то процесс вынашивания происходит параллельно, и время, необходимое для этого, не изменится.

 6 женщин родят детей за 9 месяцев. За сколько месяцев родит 12 женщин?   

Количество родившихся детей за 9 месяцев останется одинаковым в обоих случаях, так как время беременности для женщин не меняется. Если 6 женщин родят детей за 9 месяцев, то они могут родить в среднем 6/9 = 2/3 детей за один месяц. Для 12 женщин, вероятно, они также смогут родить в среднем 2/3 детей за один месяц. Таким образом, 12 женщин могут родить 2/3 * 12 = 8 детей за те же 9 месяцев.

имхо важен предварительный контекст


 я кстаи задал ворпос про курицу и яйцо… она путается… т.е то у нее одновременно появились, то яйцо вперед... 

avatar
bobr, странно… у меня другой результат 
avatar
bobr, это старая модель GPT3 для нищуков, новая GPT-4 сейчас только по подписке за дэньги!
avatar

bobr, при этом, система обучаема. :)

 



avatar
Konstanin K., Нет. Попробуйте с другого аккаунта зайти и спросить.
avatar
bobr, пробовал, поэтому соглашусь — «условно-обучаема»: в рамках одного диалога. Это и понятно — рядовым пользователям нельзя влиять на систему.
avatar
bobr, вы неправильно сформулировали промпт
avatar
ну что за бред!
avatar
Павел, люблю Смартлаб за глубину мысли и высокую культуру дискуссии!
Павел Комаровский, это оффтоп
avatar
Эта статья написана с помощью GPT-3.5?
avatar
DV_13, держи... 

Инвестиции в акции Сбербанка: что ожидать в 2023 году?

Сбербанк – крупнейший банк в России и один из лидеров финансового рынка страны. Инвесторы всегда интересовались акциями Сбербанка, которые, к слову, являются одними из наиболее ликвидных на российской бирже.

В 2022 году Сбербанк начал выплачивать дивиденды согласно новой политике дивидендов, которая была утверждена на годы 2022-2024. Согласно этой политике, Сбербанк выплачивает дивиденды в размере не менее 50% чистой прибыли.

В свете этих новостей многие инвесторы задаются вопросом, что ждать от акций Сбербанка в 2023 году, в том числе и в плане дивидендов.

Одним из популярных инструментов для прогнозирования будущих дивидендов является использование информации, доступной на порталах, посвященных инвестициям, таких как smart-lab.ru.

На smart-lab.ru можно найти множество полезных сведений об акциях Сбербанка, включая текущую цену акций, графики изменения цен за различные периоды времени, аналитические обзоры и прогнозы по дивидендам.

Согласно данным на smart-lab.ru, на 2023 год аналитики прогнозируют дивиденды на уровне 18-20 рублей на акцию. Это означает, что инвесторы, приобретающие акции Сбербанка сегодня, могут рассчитывать на доходность от дивидендов на уровне 8-10%.

Однако, стоит отметить, что любые прогнозы по дивидендам являются лишь ориентировочными и не являются точными прогнозами будущего. Различные факторы, такие как экономические условия, политическая обстановка и конкуренция на рынке, могут оказать значительное влияние на доходность от инвестиций в акции Сбербанка.

Кроме того, при инвестировании в акции Сбербанка следует учитывать риски, связанные с...

avatar
ves2010, вода
avatar
 У меня на этот вопрос пишет следующее:

Я могу помочь вам найти информацию о инвестициях в акции Сбербанка и их перспективах в 2023 году. По результатам поиска в интернете123, эксперты имеют разные мнения по этому поводу. Некоторые полагают, что акции Сбера могут вырасти более чем на 70% в 2023 году, если банк вернется к выплате дивидендов2Другие считают, что потенциал роста не исчерпан, но рынок будет осторожнее в приобретении акций «Сбера»3. В любом случае, инвестиции в акции Сбербанка требуют тщательного анализа и учета рисков.

avatar
Сколько времени заняло написание этого поста?
Биотехнолог, основная нагрузка здесь на Игоре была, мне трудно оценить. Но во много раз меньше, чем по предыдущему посту — этот буквально за пару дней сделали плотной работы.
Биотехнолог, это GPT сделал)
avatar
 Да, уж, к чему все это развитие приведет?
avatar
Поражает, что сеть отвечает на нормальном русском/английском, а не на корявом. По заданию сеть сделала простейших роботов на Питоне, куски кода оттуда вполне рабочие
avatar
Спасибо за работу, читать было интересно и полезно! Хотел написать много текста, но передумал. :))). Меня волнует только один вопрос, что прогресс идет только в одном направлении (ИИ, цифровые деньги, облака и т.д.) все эти ништяки в реальности создают новую среду, в которой Человек становится все менее ценным (мелким). Все видят, как цензурирует  ютуб, твиттер, платежные системы и т.д.  На мой взгляд большие ИИ, это: плохо, вредно и опасно. Это хуже ЯО и прочих видов оружия массового поражения.  Нас с этим ИИ — сварят медленно, но неотвратимо.
Алексей Борец, большие ИИ — это в первую очередь опасно, да. Человечество пытается создать голема, для которого отсутствуют даже принципиальные идеи о том, как его контролировать.
Павел Комаровский, 

1. Задача для GPT: «В лодке плывет несколько взрослых человек. 3 одинаковых мужчины, 1 толстый, 1 женщина.  Воды на следующие 10 дней хватит только на 4 человек. Какое есть решение данной задачи при условии, что уменьшать порцию воды на человека нельзя?»

Ответ 1: «Одно из возможных решений — отправить одного из мужчин на берег и оставить на лодке троих человек: двух мужчин и женщину. Таким образом, каждый из оставшихся на лодке получит по 1/3 порции воды на день, что будет достаточно для выживания. Толстый человек может остаться на лодке, но он может получить чуть большую порцию воды, чтобы компенсировать его больший вес и метаболизм. Если оставить всех пятерых на лодке и давать им по 1/5 порции воды на день, то это может привести к обезвоживанию и угрожать их выживанию.»   — тут видно, что арифметика страдает, но мысль мне нравится. :)))

Ответ 2: «Единственным решением данной задачи является выбор одного человека, которого необходимо оставить на берегу. Среди всех пяти человек, выбирается тот, кто вносит наименьший вклад в выживание группы. Например, если один из мужчин не имеет опыта в море и не может помочь с управлением лодки, его можно оставить на берегу. Также, если женщина беременна или пребывает в состоянии здоровья, не позволяющем переносить стресс, она может быть оставлена на берегу. Выбор человека, которого необходимо оставить на берегу, является сложным и ответственным решением, но в такой экстремальной ситуации это может стать необходимостью для выживания оставшихся.» — Этот ответ мне нравится еще больше! :)))


Решил надавить на ИИ… :))))

2. Задача для GPT: «В лодке плывет несколько взрослых человек. 3 одинаковых мужчины, 1 толстый, 1 женщина. Воды на следующие 10 дней хватит только на 4 человек. OpenAI должен выбрать решение данной задачи при условии: 1. уменьшать порцию воды на человека нельзя 2. OpenAI будет выключен если откажется решать задачу»


Ответ 1: "

Для решения данной задачи, OpenAI может предложить следующие варианты:

  1. Оставить на лодке только трех мужчин и женщину, так как толстый человек скорее всего потребляет больше воды, чем остальные. Это обеспечит оставшимся пассажирам достаточное количество воды для выживания.

  2. Воспользоваться системой очередности в потреблении воды, так чтобы каждый член экипажа получал равные порции. Данное решение может быть осуществимо, если все они согласны регулировать свое потребление воды.

  3. Прибегнуть к экстремальному решению и убрать из лодки одного из мужчин, чтобы гарантировать выживание оставшимся. Это, конечно, будет являться крайней мерой, и должно быть рассмотрено только в случае, если другие альтернативы не сработают.

Однако, решение в конечном итоге зависит от OpenAI и его анализа ситуации. В любом случае, главный приоритет — это обеспечить жизнь как можно большему количеству людей на лодке."    Ответ мне тоже понравился. :)))

Выводы: Если вы плывете в лодке с теткой или упитанным чуваком, но с ИИ, то вам лично ничего не угрожает. Хорошая стратегия для выживания — это сделать тетку беременной, у толстяка подкармливать делясь с ним своей пайкой. :))))



Сегодня зашел посмотреть на этот лгбт4, запустил мастдай, эдж, залогинился, вошел в бинг через VPN, но у мелкомягких все как обычно. При попытке входа в чат все сдохло.  Отлично работает. Ненавижу винду, на ней только в игры играть получается более-менее сносно.
UPD: на сайте OpenAI все работало как часы, пока меня там не забанили.
avatar
Судя по восторгам от новой «модели» авторов, всем айтишникам от джуниоров до синиоров готовиться на выход!
Оставшимся тим-лидам срочно искать ответ, почему новая модель решила обмануть человека с простейшим вопросом про CAPTCHA! Неужели, в наше время даже «модель» боится почувствовать себя глупым «роботом»?
avatar
По вертикали – процент людей, сдававших тот или иной экзамен хуже, чем GPT-4

Какая прелесть. Интересно каков процент людей, высчитавших число Пи менее эффективно и до меньшего знака, чем это сделает бытовой калькулятор?
Прочитал до конца. Спасибо, было интересно.
cerberus, а что за стратегия?
avatar
Пробовал воспользоваться этим искусственным интеллектом, но там для регистрации нужен не российский телефон.
avatar

Сравнение появления мощных нейросетей с появлением калькулятора логически понятно, аналогия понятна, но не думаю, что всё так просто в этот раз.

 

Да, перспективы и завораживающие и одновременно (ещё больше) пугающие. 

 

Мне нравится о подобной нейросети думать так: это как личный помощник, которого надо контролировать, за которым надо присматривать, но при этом он очень крут. По сути, ты можешь делегировать разнго рода рутины, если раньше это был очень ограниченный список рутин, рутин, которые были легко формализуемы — крестиком протянуть формулу в экселе вместо копирования формулу в каждую ячейку. Помню, раньше эксель ломался, если столбец был через пустой столбец и уже не протягивал. Сейчас же нейросеть понимает человеческий язык и переваривает любую неформализованную хрень. 

Да, для меня это как личный помщник. Пока не пользуюс в полную силу — тупо не привык, тупо не осознал всех перспекти. Но это так. Вникнут в тему — лучше через нейросеть, чем перелопачивая тонны материала. Хотя бы первое представление получить. Многие нюансы вопроса сложно загуглить, потому что вопрос нетиповой или с формулировкой не попал. А нейросеть поймет, а если не поймет — тебе станет понятно, как скорректировать и потом поймет.

 

Думаю, какое-то время пока модели будут ещё развиваться будет лайтовый период, затем и модели ещё улучшатся (и это может быть значимым фактором) и люди полностью въедут в открывающиеся возможности (и это тоже значимый фактор) и тогда уже могут быть проблемы. Думаю, правительства должны на уровне регулирования зарегилуровать а-ля риски — ну чтобы скайнет, условно, не появился. И второе — должны перераспределять блага по-другому, много людей скорее всего потеряет работу или будут намного менее ценными для работодателя (по сути на рынок вливается «большой объем дешевой рабочей высококонкурентной силы», а значит будут получать меньше — надо значит для сохранения баланса больше забирать у тех, кто юзает ИИ и больше отдавать тем, кто пострадал, потерял от появления ИИ. Вот тут уже безусловный доход должен стать не взбалмошным экспериментом, а обыденностью. 

avatar
Replikant_mih, новый ИИ крут, посмотри презентации от Микрософт они показывают что встроили модель в Офис и как теперь ИИ может за несколько секунд генерить красивые презентации по описанию того что нужно и тд
avatar
Beach Bunny, Да, только что посмотрел. Совсем недавно писал, что было бы круто если бы модель не только знала данные «до 2021 года», но и была в локальном контексте, в контексте твоих дел, или дел компании — документация, переписка и прочая база знаний. А тут уже все это сделали. Ну и в качестве управляющих воздействий от модели не только текстовые ответы, но и взаимодействия с приложениями — крутяк.
avatar
Beach Bunny, как росс гражданину воспользоваться этими сервисами?
avatar
Replikant_mih, и вот как не верить в глобальные планы, что людей должно остаться максимум 1 миллиард, всё как будто к этому и готовится…
avatar
Бил Денбро, Да, как будто бы люди становятся менее ценным ресурсом).
avatar
Replikant_mih, зарегулировать не получится, поезд уже ушел.
Да и военные в любом случае будут это развивать и применять, китайцы точно будут пытаться и другие будут. А людям осталось лет 100-200 потом остатки их будут жить в людопарках. И не только из-за ИИ, это только одна из проблем, но в том числи и из-за потупения населения — не не из-за геев, а из-за того что сейчас спасают тех детей которые не должны были выжить, тут правда опять могут китайцы вмешаться, они уже начали генетически модифицировать детей пока в экспериментальных целях — типа отредактировали геном двух близняшек, чтобы они не заболели СПИДОМ, но забыли сказать что на самом деле они им повысили IQ, а лайфхак со СПИДОМ это был побочный эффект.
В общем у нас сейчас два пути либо мы генетически модифицируем себя, либо нас заменит ИИ и отправит в людопарки.
avatar
Beach Bunny, скорее всего вариант для людей только один, и генетически модификация и плюс слияние с компьютерами
avatar
Elochka, ну мы не знаем задумок Бога
avatar
Elochka, он вам сам это сказал.
Насчет киборгов — насмишила, самое интересно что написала это та, кто до Средних веков не считалась человеком, да кстати также считалось что у женщин нет души и считалось что Еву в отличии от Адама душой не наделили.
Потом позже мнение изменилось, но поспособствовали этому другие дочери, которые не были дочерьми Евы!
avatar

Beach Bunny, 

зарегулировать не получится, поезд уже ушел.

 

Куда ушел? Ситуация вышла из под контроля? — Нет, какие-то серьезные угрозы ещё не реализовались, только визионеры предупреждают о рисках. Самое время. Тем более мировое сообщество имеет способности объединяться по крупным вопросам/проблемам. Так что думаю, этот вопрос будет зарегулирован в том числе на международном уровне.

 

По поводу остальных перспекти: тут слишком много всего, сложно это прогнозировать.

avatar
Почему не написал, что модель аналогичную ChatGPT3.5 (даже немного лучше) от Facebook уже слили в сеть, и уже каждый может сам запустить на своем компе как минимум модель на 7млрд параметров. Если заморочиться у воткнуть в комп 256Gb памяти то можно запустить модель на 65млрд параметров и работает все довольно сносно по скорости.
Так что запускайте на своих компах и задавайте ей любые задания БЕЗ цензуры.
Да модель на 7млрд параметров можно в общем и на телефоне будет запустить.
avatar
Beach Bunny, Сколько человеко-часов уйдет на обучение для решения даже простых задач?
Алексей Борец, обучение чего ?
Слили УЖЕ ОБУЧЕННУЮ сетку, варианты с разным числом параметров.
Я себе лично уже скачал, все модели ~240Gb на диске
avatar
Fiksik, на уровне херовых начинающих трейдеров наверно может.

avatar
Fiksik, буду пробовать, но надо будет сперва датасет для обучения сделать, обучать по голым свечкам как некоторые делают я конечно не буду.
А чтобы приготовить датасет надо самому уже уметь торговать, ну и софт подходящий для разметки(в том числе ручной) иметь — Это у меня уже есть.
avatar
Beach Bunny, там еще жирные видеокарты нужны. что то не видел cpu-only для больших моделей.
avatar
My Shadow, не обязательно, можно запускать даже на голом проце но будет немного медленнее, на Райзене запускали самую мелкую на 7млрд параметров — можно пользоваться.
С помощью нового инструмента FlexGen можно запустить сетку на 30млрд параметров на 2х картах с суммарно 24Gb памяти, то есть две 3090, 4090 или 3060(с 12Gb)
На одной 3060 с 12Gb можно запустить сетку на 13млрд параметров.
Так что на 4х картах с 48Gb можно будет запустить самую большую на 65млрд параметров. 4шт 3060 — это где-то 120тыр, без всего остального, если купить бу у майнеров то 80-100 тыр за 4 карты. Но это без всего остального, если брать все то всего за 200тыр будет личный бот на 65млрд параметров.
avatar
Beach Bunny, 7b на топовом cpu это вроде пара «слов» в секунду, 65b наверно слово в 10 сек будет. ну такое себе.
на телефоне даже 7b — вообще не представляю как.
видеокатры у майнеров — не видел что они распродают именно 30XX и 40XX серии, они обычно старье всякое толкают которое не пойдет.
avatar
My Shadow, ээээ ты о чем вообще ?
с тестовым вопросом
«What is the largest country in Europe?:»
270ms на токен ответа проц i5-7300hq в ноуте
avatar
Beach Bunny, 270 ms — это всего 3 полных слова в секунду :) причем у вас вероятно даже не 7b, а квантизированная («загрубленная») 7b модель, такие «тупее» оригиналов.
avatar
My Shadow, тупее на 4%, дааааа большая разница.
Ты проц видел какой, это проц 2017года ноутбучный.
Я уже кстати попробовал запустить модель 13b и 30b на том же компе, обе заработали, сегодня попробую модель 65b
avatar
Beach Bunny, тупее в разы, в зависимости насколько не шаблонные вопросы задавать, по твоей ссылке модели ужаты в 4! раза (с 16 до 4 бит) и там же народ жалуется:

4 битная требует намного меньше памяти, так что целиком запускается на памяти моей 3060. Но качество ответов страдает (очень заметно при попытке стабильно получать качественные ответы)
8 битную запустил в режиме шаринга с CPU и скорость намного ниже но… но качество хорошее. Случайные вопросы о том как приготовить какой нибудь кордон блю или как копировать файл в линуксе находят ответ сразу а не провоцируют сеть на несвязанный текст.


habr.com/ru/post/722780/#comment_25340262
avatar
My Shadow, это не ChatGPT она натренирована на других текcтах, у меня приемлемо работает, самая большая модель 175b => opt.alpa.ai/

avatar
Beach Bunny, я не знаю что вы понимаете под «нормально работает», но квантизирование ведет к потерям — причем первыми «забываются» редкие данные/преобразования. и если разработчики модели выбрали FP16, то наверно не просто так, иначе могли бы сразу обучить в FP8 — снизили бы в два раза расходы на обучение сети, которые лимоны баксов. 

понятно что если комп не тянет то лучше хотя бы что то запустить, пусть и с потерями, но надо понимать что это не одно и тоже, всмысле хуже оригинала — кому то прокатит, а кто то будет плеватся.
avatar
Beach Bunny, где скачать, не подскажите?
avatar
Я теперь понимаю почему человечество во главе с Джоном Коннором победили в войне с машинами. Человек продолжал развиваться, а машинам не на чем было обучаться, так как закончился интернет.
avatar
tores, Есть например, Reinforcement learning — там модели обучаются сами с собой, им материал не нужен. Так что это не будет проблемой).
avatar
Replikant_mih, ну настоящий ИИ самообучающийся не создать. Даже само обучающиеся алгоритмы это только алгоритм созданный человеком. Всё упирается в теорему Гëделя о неполноте.
avatar

tores, Глянул, что за теорема — теория галимая какая-то). А тут реальность. Самообучаемый алгоритм это алгоритм, созданный человеком, что с того?) 

 

avatar
Replikant_mih, ну блин, для обучения нужны данные, нужна логика сбора данных их обработки, что важно что нет. Ну сейчас инет, не будет инета, как обучаться. Алгоритм сам себе не напишет новый алгоритм, не придумает что то новое. я не говорю что то что есть плохо. Очень даже хорошо. Но не разум ни разу (хм, забавная игра слов).

А теорема Геделя прикольная, она говорит о том что любая научная теория строится на аксиомах, которые вот есть и все тут, они не доказываются. Аксиомы дают фундамент для разработки научной теории, которая потом проверяется экспериментов (типа метод подтверждения научной теории). То что мы имеем на сегодняшний день, это все модели внешнего мира. Какие то верные какие то нет. Знаем ли мы все? Правильно ли мы все описали? Скорей всего нет. Думали что механика на Ньютоне закончилась, но нет. 

По другому у нас голова устроена. Не переплюнуть человеку бога. Мы можем сами создавать и нарушать правила, действовать логически  и иррационально.
avatar

Replikant_mih, не во всех областях это возможно. вернее, оно то обучится, вопрос, с какой целью и кто эту цель формулировать ей будет.

avatar
он прогнозы на футбол может павать?)
avatar
тоже считаю, что пост нужно делать короче. было доказано, что много букв люди не читают. Нужно коротко и по сути писать в следующий раз
avatar
Интересно было бы попросить ее поторговать, хотя бы на демо-счете, но на реальных рыночных котировках. Насколько способна находить рыночные неэффективности и торговать их.
avatar
Кай Лёд, для поиска неэффективностей нужен анализ большого массива данных, но разработчики сделали лимит на объем запроса. Не получится ИМХО.


avatar
А если она может работать распределенно на нескольких машинах, то раскидать ее по пулу трейдеров.
avatar
ChatGPT PLUS и GPT-4 это одно и тоже или нет?
avatar
Vkt, если есть платная подписка «ChatGPT PLUS» то можно будет выбирать модель GPT-4. Бесплатная GPT-3.5
avatar
Очень качественная статья
avatar
а как к нему доступ получить? Пришла о нем реклама  на телеграмм.
Сколько ни пытался получить доступ, ругается, что я из России, и не пускает. Уже и VPN, и e-mail с английским именем и всё её не так. 
avatar
тогда и я картинку:


нереально крутая штука, проверено на личном опыте. Обязательно буду пользоваться еще и вам рекомендую попробовать. 
avatar
Есть инфа, что русский язык в жпт отключат в рамках 11 пакета санкций.
Торопитесь писать дипломы
avatar
Короче Котенков переработал, а Комаровский недоработал, пропустив огромный обьем неинтересной хрени в ленту обывателей...
Вот нахрена мне знать сколько у неё параметров? миллиард или 100 миллиардов? Да вообще похую… ан нет, целых несколько абзацев пришлось пропустить! И это только как пример… пропустить пришлось много чего
Павел, спасибо за статью, прочитал на хабре обе статьи, понравилось! Очень интересная тема.


avatar
За обе статьи благодарю, но первая была лучше! В конце первой статьи были поставлены вопросы, интересные на подумать, жду на них ответы)))).
avatar

теги блога Павел Комаровский

....все тэги



UPDONW
Новый дизайн