
OpenAI отмечает, что речь не идёт о выпуске новых языковых моделей прямо сейчас. Компания пояснила, что обучение этих нейросетей ещё не завершено и окончательный результат их обучения может отличаться от того, о чём она говорит сегодня. В то же время OpenAI принимает заявки исследовательского сообщества на тестирование этих моделей перед их публичным выпуском. Компания ещё не решила, когда это произойдёт.
В сентябре этого года OpenAI запустила думающую ИИ-модель o1 (кодовое название Strawberry). Решение назвать новые модели o3 связано с тем, что таким образом компания решила избежать путаницы (или конфликтов товарных знаков) с британской телекоммуникационной компанией O2.
Как утверждает OpenAI, её новая модель o3 превосходит предыдущие рекорды производительности по всем направлениям. В рамках теста ARC-AGI, который был специально создан для сравнения возможностей искусственного интеллекта с интеллектом человека, модель o3 более чем в три раза превзошла возможности o1, продемонстрировав результат в 88 %.
Весомым преимуществом o3, как и o1, является возможность моделей «рассуждать» и эффективно проверять свои же факты, чтобы избегать различного рода ошибок и галлюцинаций. Правда, разработчики из OpenAI заявили, что процесс проверки фактов перед выдачей ответа приводит к небольшой задержке — от нескольких секунд до нескольких минут (зависит от сложности вопроса). Кроме того, задержка связана с тем, что модель определяет, соответствует ли запрос пользователя политике безопасности OpenAI. Компания утверждает, что при тестировании нового алгоритма защиты на o1 она намного лучше следовала правилам безопасности, чем предыдущие модели, включая GPT-4.
И всё же, как отмечают журналисты TechCrunch, основным недостатком «рассуждающих» моделей является то, что для их работы требуется гораздо больше вычислительных мощностей, поэтому в итоге их использование обходится значительно дороже «обычных» решений.
Источник: 3dnews.ru
«Проблемы с распознаванием лиц – всего лишь капля в море »
Однако, западная статистика утверждает, что пока полицейская система распознавания лиц ошибается в 81% случаев. Много! Так, согласно данным, полученным в Университете Эссекса, в руках британских полицейских технология делает ошибку при распознавании преступников 4 раза из 5, выбирая совершенно ни в чем не повинных людей.
www.mk.ru/politics/2025/01/19/professor-zhdanov-ocenil-obektivnost-iskusstvennogo-intellekta-v-policeyskikh-rassledovaniyakh-vsego-lish-instrument.html
практика критерий истины
остальное понятно у кого есть мозги
Хотя бы берите с них деньги за рекламу.
Если не деньги, то бесплатный доступ к продукту.
Я не знаю почему именно этот тест считают «человеческим». Но в любом случае, даже выполнение этого теста не создать некий мозг который может делать всё. Это лишь показывает способность мыслить и решать логические задачи, которые ранее сеть не видела.
И в целом они могли обмануть всех. Специально натренировав ее на решение подобных задач. Примерно как Самсунг обманывал с фотографией луны.
Кто такой Сэм Альтман
Личная и частная жизнь Альтмана – не тайна, хотя он ее и не афиширует. Он этнический еврей.
сэм Альтман – открытый гей, никогда не скрывавший своей ориентации, хотя при этом не всегда жил в толерантной среде.
мне только кажется что мы много потеряли когда бог уничтожил садом и гомору и там таких было наверняка полножуть короче
и в этом ИИ их логика и правила
все стало понятней
а я то давно задавал вопрос в чем в каком виде предстанет Антихрист в этом мире
а вот и он состоящий из слов и только из слов
а что человеку надо для утешения кроме слов ?
значит прав был кое кто что еврейская библия это не про прошлое, а это план который оне исполняли
ай да евреи, ай да молодцца
иудохристианство потом иудокоммунизм и иудомарксизм и вот это
красиво исполненно
и никто не рыпнется
интересно а хлеб сажать кто будет ?