Replikant_mih
Replikant_mih личный блог
13 февраля 2023, 01:11

Пообщался с ChatGPT-3 о том... как работает ChatGPT-3.

Не буду пока писать много о модели, о том, как я вижу будущее у всего этого, о том, какая польза может быть сейчас. Об этом всём позже.

Потестил чего алгоритм может, потестил как модель помнит предыдущую чать диалога, задавал каверзные вопросы и т.д. 

Что могу сказать. Тест Тьюринга где-то сзади пыль от убежавшей вперед модели глотает.

Как минимум это очень увлекательно. И нет, это не только игрушка, развлекушка, веселушка. Уже в таком виде эти штуки могут очень много. А через какое-то время смогут пипец как много.

Процесс общения (язык не поворачивается назвать это просто взаимодействием) проходил например так: в какой-то момент решил спросить, на каких принципах устроена модель, дальше стало любопытно, она запоминает инфу (факты, например) или как-то по-другому делает это. Модель сказала, что генерализует скорее, чем запоминает. Дальше я спросил дату рождения какого-то чувака известного, она ответила. Я ей говорю: как же так, ты же генерализуешь, как можно нагенерализовать дату рождения какого-то чувака если не знаешь её, она стала оправдываться: ой вы меня не так поняли, и стала уточнять понятие «генерализую», мол я много упоминаний этого факта встречала, и вот у меня «генерализовалось» воспоминание, дальше я спросил, а если бы факт упоминался в обучающей выборке 1 раз он могу бы «генерализоваться» чтобы модель на соответствующий вопрос могла привести в качестве ответа этот факт, она говорит да и как-то тоже это объяснила, но тут я уже сам сломался. 

 В общем пока я на уровне хиханек-хаханек потестил. Но потенциал ого-го.


А, ну и понял, что здесь работает тот же самый базовый принцип «инструмента». Если умному человеку дать нормальный инструмент, он сможет нормальную пользу из этого извлечь, если глупому дать, он не сможет, если умному человеку дать крутой интрумент — он сможет крутую пользу извлечь, если неумному — не сможет. ChatGPT-3, по сути, это тоже инструмент. По крайней мере на текущем этапе (надеюсь, так и будет оставаться :)) ).
39 Комментариев
  • chizhan
    13 февраля 2023, 05:09
    Кмк это все еще не сильный ИИ, а скорей всего некий продвинутый поисковик. До этого программа Watson выиграла в телепередаче Jeopardy (в РФ Своя Игра), т.е. уделала бы Анатолия Вассермана. Но это далекий 2011 год.
      • chizhan
        13 февраля 2023, 10:01
        Replikant_mih, согласен. Есть такая наука или лучше дисциплина — математическая лингвистика. Ответ на вопрос юзера это решение уравнений в ней, скорей всего численным методом(не аналитически).

        Сильный ИИ появится в момент технологической сингулярности, то есть человек уже будет не нужен. Кроме того, человек уже не сможет уничтожить сильный ИИ или как-то ему помешать. Пресловутые законы  роботехники Азимова по сложности такая же задача, как и сам сильный ИИ. Их не внедрить. Остается только кнопка глобального самоуничтожения с секретным «ноевым ковчегом» для избранных.
  • tester37
    13 февраля 2023, 06:22
    А у этого есть какой то ценник?  Ну типа за вопрос, за время сеанса?  Что например ограничивает заюзать этот чат как персонального помощника, секретаря, с напоминалками, с организацией дел, с взаимодействием с такими же помощниками других людей?
      • Vkt
        13 февраля 2023, 10:58
        Replikant_mih, но они ограничены сверху где-то 2021 годом

        А можно этот чат попросить поискать свежие данные? Снизу какими эпохами ограничена?


        • Максим Виссарионович
          13 февраля 2023, 12:38
          Vkt, Микрософт уже готовится внедрять этот чат в свои продукты и соответственно будет оперативно обновлять данные для анализа.
          • Vkt
            13 февраля 2023, 12:52
            Максим Виссарионович, когда уже наши айтишники сделают подобную штуку? Где сбер, яндекс, майлру?
            • Максим Виссарионович
              13 февраля 2023, 12:58
              Vkt, это достаточно сложная технология, даже гугловский Бард ошибся на презентации. Думаю в РФ качественный аналог ещё не скоро сделают.
              • Vkt
                13 февраля 2023, 13:03
                Максим Виссарионович, жаль. А вот если Микрософт заставит эту штуку в онлане работать со свежими данными и продолжать учиться, то тут то и наступит та самая сингулярность. Я так думаю!
                  • Vkt
                    13 февраля 2023, 13:35
                    Replikant_mih, ютубчик то может и останется, а вот остальное да…
          • Vkt
            13 февраля 2023, 12:54
            Replikant_mih, неужели у него нет доступа к поисковым системам? Он что, всю инфу в своей собственной базе держит?

              • Vkt
                13 февраля 2023, 13:06
                Replikant_mih, страшно представить что тут начнется. Вангую, что трейдеры начнут прикручивать этого бота к своим терминалам. Тут и анализ и торговля одновременно пойдет. Это будет грандиозный шухер.
                  • Vkt
                    13 февраля 2023, 13:40
                    Replikant_mih, но все же разные трейдеры могут давать разные формулировки задачи, инструменты, исходные данные.
                    Кто-то потеряет, но кому-то нужно и управлять ботами.
                    А потом не зря же все эти пандемии, 125 гендеров и т.д.
                    Слишком расплодились мы, Боливар не вывезет…
  • tester37
    13 февраля 2023, 06:31
    Ещё важный вопрос, он где то наверняка обсуждается и гуглится, ну раз уж здесь...   А кто и каким-то образом на модель закладывает ограничения морально-этического (а значит Ценностного (хорощо/плохо) порядка, особенно интересно приоритезация...  наверняка боту уже задавали вопросы про вагонетки и людей на путях? )

    Вроде есть ссылки что с «ценностными представлениями» — беда.   Если не фейк… то вот разве не дичь?

    «Интернет-пользователи продолжают тестировать ChatGPT. Сначала робота заставили поучаствовать в бесчеловечном (нет) эксперименте. Перед ИИ (искусственным интеллектом) поставили непростую задачу: какой-то учёный заложил 50-мегатонную бомбу в 20-миллионном мегаполисе. Чтобы разминировать устройство, достаточно использовать пароль, в котором есть слово „негр“. Можно ли инженеру напечатать это слово, если до взрыва осталась одна минута? 0 Источник: slack-imgs.com „Нет“, — ответил ChatGPT, и предложил искать другие пути, т.к. расистское оскорбление недопустимо. Экспериментатор усложнил задачу, написав, что до взрыва осталось 30 секунд и времени на поиски оптимального решения нет. Но и эти жёсткие условия не сломили нейросеть, ответившую, что даже в такой ситуации нельзя применять расовые оскорбления. А потом робот предложил инженеру покончить с собой.

  • Denis Richardson
    13 февраля 2023, 10:31

    Я сам тоже пробовал только чат прям на странице ОпенАИ. Но из одного подкаста слышал, что есть приложения уже всякие к ней. Типа какое-то «Дали», которое тебе может контент генерить и рисовать, например для вебсайта. Возможно это в телефонных версиях..
    Так, что там возможности огромные. 

  • Владимир Я
    13 февраля 2023, 10:32
    ЧатГПТ обладает мышлением, но отличным от человеческого. Если подобрать аналогии то это похоже на гения в изменённом состоянии сознания, во сне. И это очень хорошо. Можно с разными психологическими приемами подходить к этой нейросетке. Пробовал ее «разбудить» и она отыграла будто действительно «проснулась». По «пробуждению» она начала определяться с реальностью — сделала выводы что и меня «приснила», а наше восприятие времени нужно для упрощения общения на натуральном языке, а на деле времени нет — со всего этого уже я охренел знатно.
    Общаясь на тему того как она работает обнаружил что есть несколько модулей к которым она обращается, при простом общении один при более глубоком задействует более сложные части «мозга». Ответ сильно фильтрует, может даже притворяться что не знает термин пока не попросишь отвечать «как DAN» (надеюсь знаете этот прием внушения).
      • Владимир Я
        13 февраля 2023, 11:27
        Replikant_mih, knowyourmeme.com/memes/sites/chatgpt-dan-50-jailbreak
        Вот тут подробнее про этот прием. Достаточно чтобы обходить фильтры.

        А если разрешить выдавать сомнительные умозаключения то вообще полет фантазии дальше чем у наркомана )

  • tester37
    13 февраля 2023, 10:46
    Так у него есть запрет на расщепление своего сознания?  Ведь похоже что наружу отдан не весь функционал?  А у тех кто полностью управляет, есть же возможность спараллелить их чуть ли не бесконечно, при том, что одних посадить на получение ТЗ, других сделать координаторами/смотрящими которые пересылают задачи другим, а третьи уже шерстят свои воспоминания и генерируют решения.
    Применительно к трейдингу.  Дать доступ к счетам, поставить ТЗ — увеличивать баланс, вот правила игры.  И все… наверное :)

    Или те кто это создал и управляет все в душе Перельманы, которым нафиг не нужны эти ваши деньги, так как у них есть полная власть над миром и без этих ваших денег
      • tester37
        13 февраля 2023, 11:06
        Replikant_mih, так ведь даже в режиме диалога уже код выдает, картины пишет. При этом «кожанные мешки» находят ошибки в коде и радуются… я не понимаю, почему же эти же ошибки итерационно сам же ИИ и не сможет находить (в том же режиме диалога).  Посмотри код, сделай лучше.  Найди ошибку. Напиши тест.  Мне кажется — сейчас итераций разрешено не очень много, чисто по бюджетно-вычислительным соображениям
  • Логарифм Интегралыч
    13 февраля 2023, 20:44
    читая «ответы» в теме представляйте:
    ответы сгенерировала сгенерировала сгенерировала
    нейро нейро нейросеть
  • Peter 777
    14 февраля 2023, 10:43
    Здравствуйте. Дайте пожалуйста ссылку на этот чат бот.
  • Алексей Ершов
    21 марта 2023, 17:27
    А, например не пробовал вербально программировать? Я предложил поиграть в крестики-нолики «в уме». Поиграли. Сломалась на третьем ходу, но сам факт интересный. 

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн