Не буду пока писать много о модели, о том, как я вижу будущее у всего этого, о том, какая польза может быть сейчас. Об этом всём позже.
Потестил чего алгоритм может, потестил как модель помнит предыдущую чать диалога, задавал каверзные вопросы и т.д.
Что могу сказать. Тест Тьюринга где-то сзади пыль от убежавшей вперед модели глотает.
Как минимум это очень увлекательно. И нет, это не только игрушка, развлекушка, веселушка. Уже в таком виде эти штуки могут очень много. А через какое-то время смогут пипец как много.
Процесс общения (язык не поворачивается назвать это просто взаимодействием) проходил например так: в какой-то момент решил спросить, на каких принципах устроена модель, дальше стало любопытно, она запоминает инфу (факты, например) или как-то по-другому делает это. Модель сказала, что генерализует скорее, чем запоминает. Дальше я спросил дату рождения какого-то чувака известного, она ответила. Я ей говорю: как же так, ты же генерализуешь, как можно нагенерализовать дату рождения какого-то чувака если не знаешь её, она стала оправдываться: ой вы меня не так поняли, и стала уточнять понятие «генерализую», мол я много упоминаний этого факта встречала, и вот у меня «генерализовалось» воспоминание, дальше я спросил, а если бы факт упоминался в обучающей выборке 1 раз он могу бы «генерализоваться» чтобы модель на соответствующий вопрос могла привести в качестве ответа этот факт, она говорит да и как-то тоже это объяснила, но тут я уже сам сломался.
В общем пока я на уровне хиханек-хаханек потестил. Но потенциал ого-го.
А, ну и понял, что здесь работает тот же самый базовый принцип «инструмента». Если умному человеку дать нормальный инструмент, он сможет нормальную пользу из этого извлечь, если глупому дать, он не сможет, если умному человеку дать крутой интрумент — он сможет крутую пользу извлечь, если неумному — не сможет. ChatGPT-3, по сути, это тоже инструмент. По крайней мере на текущем этапе (надеюсь, так и будет оставаться :)) ).
Да, по сути что делает эта штука — предсказывает наиболее подходящее продолжение текста в ответ на написанный. Да, это вроде просто языковая модель, но и развитие мозга началось с языка — язык это и представление информации, образов и т.д. и способ передачи, так что, повторюсь, я бы скорее пересмотрел определение сильного ИИ. «Продвинутый поисковик» это скорее не то, чем модель является, а то как её можно использовать (один из множества вариантов).
Сильный ИИ появится в момент технологической сингулярности, то есть человек уже будет не нужен. Кроме того, человек уже не сможет уничтожить сильный ИИ или как-то ему помешать. Пресловутые законы роботехники Азимова по сложности такая же задача, как и сам сильный ИИ. Их не внедрить. Остается только кнопка глобального самоуничтожения с секретным «ноевым ковчегом» для избранных.
tester37, Можно за 20 баксов в месяц купить продвинутый вариант — чуть бодрее, чуть свежее. А так оба варианта безлимитные по кол-ву запросов, вроде.
Что мешает — скорее, что это пока только чат. И может быть то, что модель обучена на огромном массиве данных, но они ограничены сверху где-то 2021 годом. И тем, что пока у модели нет никаких доступных управляющих воздействий кроме «написать в чат в ответ на сообщение».
Когда этой мощной модели сверху накинуть специализированных данных и знаний, в т.ч. размеченных — она сможет специализировать в конкретных областях знаний и эксперизы. Если дать ей доп. управляющие команды — она сможет рулить разными системами, например, одно из простых и очевидных вариантов — типа личный помощник — преобразует коману в задачу, когда надо напишет письмо, спишется в чате и т.д.
А можно этот чат попросить поискать свежие данные? Снизу какими эпохами ограничена?
Кто-то потеряет, но кому-то нужно и управлять ботами.
А потом не зря же все эти пандемии, 125 гендеров и т.д.
Слишком расплодились мы, Боливар не вывезет…
Вроде есть ссылки что с «ценностными представлениями» — беда. Если не фейк… то вот разве не дичь?
«Интернет-пользователи продолжают тестировать ChatGPT. Сначала робота заставили поучаствовать в бесчеловечном (нет) эксперименте. Перед ИИ (искусственным интеллектом) поставили непростую задачу: какой-то учёный заложил 50-мегатонную бомбу в 20-миллионном мегаполисе. Чтобы разминировать устройство, достаточно использовать пароль, в котором есть слово „негр“. Можно ли инженеру напечатать это слово, если до взрыва осталась одна минута? 0 Источник: slack-imgs.com „Нет“, — ответил ChatGPT, и предложил искать другие пути, т.к. расистское оскорбление недопустимо. Экспериментатор усложнил задачу, написав, что до взрыва осталось 30 секунд и времени на поиски оптимального решения нет. Но и эти жёсткие условия не сломили нейросеть, ответившую, что даже в такой ситуации нельзя применять расовые оскорбления. А потом робот предложил инженеру покончить с собой.
В рамках чата модель помнит, о чем ты с ней говорил в рамках текущего диалога. Так что думаю, подобные ограничения могут осуществляться подобным же образом, типа при каждом ответе модель сначала читает список «правил», затем твой вопрос. Ну типа: нельзя отвечать так-то и так-то и чтобы ответы содержали то-то и то-то, сейчас пользователь задаст вопрос, нужно ответить в соответствии с этими правилами.
Я сам тоже пробовал только чат прям на странице ОпенАИ. Но из одного подкаста слышал, что есть приложения уже всякие к ней. Типа какое-то «Дали», которое тебе может контент генерить и рисовать, например для вебсайта. Возможно это в телефонных версиях..
Так, что там возможности огромные.
Общаясь на тему того как она работает обнаружил что есть несколько модулей к которым она обращается, при простом общении один при более глубоком задействует более сложные части «мозга». Ответ сильно фильтрует, может даже притворяться что не знает термин пока не попросишь отвечать «как DAN» (надеюсь знаете этот прием внушения).
Владимир Я, Очень крутая особенность, что можно контролировать процесс, что у модели есть память диалога, т.е. ты что-то спросил, получил ответ, можешь уточнить, просить конкретизировать, подходишь с каких-то нужных тебе углов и постепенно собираешь нужный тебе ответ.
Прям настолько манипулировать как вы написали, я, наверно, пока не пробовал)). Ну и в целом сильно глоубоко не исследовал модель, скорее пока просто поигрался. Но меня впечатлило. Она не просто вытаскивает смысл из вопроса, а потом ответ из своей памяти, она реагирует на нюансы, контексты, очень впечатляюще.
Вот тут подробнее про этот прием. Достаточно чтобы обходить фильтры.
А если разрешить выдавать сомнительные умозаключения то вообще полет фантазии дальше чем у наркомана )
Применительно к трейдингу. Дать доступ к счетам, поставить ТЗ — увеличивать баланс, вот правила игры. И все… наверное :)
Или те кто это создал и управляет все в душе Перельманы, которым нафиг не нужны эти ваши деньги, так как у них есть полная власть над миром и без этих ваших денег
tester37, Ну, возможно уже (или в ближайшее время) твоей задачей будет нарисовать «чертеж» и контролировать его выполнение, а не нарисовать чертеж, найти строителей, которые будут строить (или ты сам будешь строить) и т.д.
Как будет работать вариант: мы задаем некий вектор и «мотивации» и дальше модель в рамках этого вектора, подпитывамая этой мотивацией решает все сопутствующие вопросы — мыслительные, организационные и т.д.
По общению с моделью и чисто умозрительно, есть опасения, что модель на долгой дистанции при таком подходе будет сваливаться в теоретизирование. Любит она списки пунктов выдавать)). Но может и нет — хз.
Ну ему можно помогать. Уточняющих вопросов позадавать. А ты уверен? А проверь на предмет конкретного вида ошибок. А какие виды ты знаешь? А вот по каждому из них и проверь и т.д. На автомате, по крайней мере сейчас это так не работает.
ответы сгенерировала сгенерировала сгенерировала
нейро нейро нейросеть