Блог им. Replikant_mih |По-дружески стресс-тестим LLM

Был в игривом настроении, решил подловить ИИшку. 

По-дружески стресс-тестим LLM



( Читать дальше )

Блог им. Replikant_mih |Взаимодействие с LLM обогащает

Вот в каком смысле:


Во взаимодействии с LLM большую большущую роль играет контекст менеджмент. Вот мы задали модели вопрос, или дали задание, а что мы предоставили ей в качестве контекста? Какие-то ссылки, какие-то инструкции, какие-то ориентиры, какие-то «воспоминания» и т.д. И вот когда много взаимодействуешь с моделями и играешься контекстом и когда-то забываешь догрузить, или даёшь неполный или неконсистентный и т.д. — видимшь, как это влияет на результаты. Банальный пример: задаёшь какой-то вопрос по физике, очень не помешает дать в качестве контекста кто ты такой, потому что ответ нобелевскому лауреату по физике и ответ третьекласснику разумно делать разными. 

 

И чем же этот опыт взаимодействия с моделями обогащает? А тем, что это очень похоже на человеческое общение. Мы очень часто «не догружаем» контекста людям. Часто мы что-то знаем, например, о себе, но забываем об этом сказать другому человеку, потому что в конкретной ситуации это важно, что ещё хуже — не забываем сказать, а почему-то считаем, что «все итак это знают». В общем общение с LLM это как общение с людьми только на стероидах и может опрозрачивать структуру процесса. В общем очень инсайто генерирующее занятие. Рекомендую.



( Читать дальше )

Блог им. Replikant_mih |Ожидаю переворот в кинематографе (AI)

Люблю фантастику, периодически выходят добротные фильмы с относительно небольшими бюджетами или даже совсем не большими. Но чтоб делать что-то масштабное, эпическое и т.д. наверно без бюджетов сложно. 

Думаю, всё меняется. Как и в других сферах из-за AI на первое место в кинематографе будут выходить идеи, креатив, смелость, талант. Наверно видели разные сгенеренные нейросетями ролики в ютубе — многие очень креативные, творческие, смелые. Это предвестники. С текущим уровнем нейросетей уже можно делать видео с вполне себе хорошим качеством, будет, видимо ещё лучше. Это уже не эти треш видео из первых поколений где Уилл Смитт есть спагетти. Так что у молодых талантливых режиссеров, да даже режиссером быть не надо если есть желание, идеи — вперед. Можно создавать целые миры, целые вселенные, невероятные истории. Смелые, креативные, тебе не нужно доказывать прокатным студиями что это выгорит, окупится, в ответ они тебе будут говорить, что это слишком рискованно. 

Мне например, в фантастике или фильмах в целом не нужно чтобы были самые первоклассные спецэффекты, достаточно чтобы они не были совсем картонными, как в эпоху до компьютерных эффектах или в совсем дешевых B-movie, а AI уже генерит контент лучше, чем этот уровень.



( Читать дальше )

Блог им. Replikant_mih |LLM похожи на людей (их мозги)

LLM — новая реальность. Да, осталось много кто про них ещё не особо знает, кто «не верит» и т.д., но им всё сложнее не верить и не замечать.


Я заметил много параллелей между работой LLM и человеческим мозгом. Осознание некоторых параллелей очень порождает многие внутренние рассуждения и инсайты.


Какие параллели и инсайты я вижу:


— Модели очень разные, есть например, рассуждающие модели, а есть не рассуждающие — так же и люди, есть те, кто шустро, быстро что-то делают и хороши в этом, а есть те, кто много думают и хороши в этом. Первые хороши где надо по-быстрому подсуетиться, вторые — где качественно подумать. И «применять» таких людей нужно в релевантных этой составляющей задачах… как и нейросети. Нужен просто фактологический ответ — спроси «быструю», нужно обдумать — спроси «умную».

— У нейросети есть системные промпты. Это и те которые ты прописываешь и те, которые разработчики зашили. О, это отличный аналог всему тому, что у человека на уровне подсознания — это и ценности, убеждения, какие-то яркие предыдущие прожженные в мозгу опыты и т.д.



( Читать дальше )

Блог им. Replikant_mih |Пообщался с ChatGPT-3 о том... как работает ChatGPT-3.

Не буду пока писать много о модели, о том, как я вижу будущее у всего этого, о том, какая польза может быть сейчас. Об этом всём позже.

Потестил чего алгоритм может, потестил как модель помнит предыдущую чать диалога, задавал каверзные вопросы и т.д. 

Что могу сказать. Тест Тьюринга где-то сзади пыль от убежавшей вперед модели глотает.

Как минимум это очень увлекательно. И нет, это не только игрушка, развлекушка, веселушка. Уже в таком виде эти штуки могут очень много. А через какое-то время смогут пипец как много.

Процесс общения (язык не поворачивается назвать это просто взаимодействием) проходил например так: в какой-то момент решил спросить, на каких принципах устроена модель, дальше стало любопытно, она запоминает инфу (факты, например) или как-то по-другому делает это. Модель сказала, что генерализует скорее, чем запоминает. Дальше я спросил дату рождения какого-то чувака известного, она ответила. Я ей говорю: как же так, ты же генерализуешь, как можно нагенерализовать дату рождения какого-то чувака если не знаешь её, она стала оправдываться: ой вы меня не так поняли, и стала уточнять понятие «генерализую», мол я много упоминаний этого факта встречала, и вот у меня «генерализовалось» воспоминание, дальше я спросил, а если бы факт упоминался в обучающей выборке 1 раз он могу бы «генерализоваться» чтобы модель на соответствующий вопрос могла привести в качестве ответа этот факт, она говорит да и как-то тоже это объяснила, но тут я уже сам сломался. 

( Читать дальше )

....все тэги
UPDONW
Новый дизайн