rss

Профиль компании

Финансовые компании

Блог компании Positive Technologies | Кибербезопасность в ловушке искусственного интеллекта?

До чего дошел прогресс — до невиданных чудес

ChatGPT — продвинутый чат-бот на основе искусственного интеллекта от компании OpenAI, был запущен 30 ноября 2022 года и полностью перевернул наш мир. Всего за пять дней ChatGPT набрал больше 1 млн пользователей, произведя настоящий фурор в IT-сообществе.

ChatGPT – не первая система искусственного интеллекта, которую создало человечество. Но чем же она всех так поразила?

Кибербезопасность в ловушке искусственного интеллекта?

Дело в том, что ChatGPT умеет по запросу генерировать тексты и вести вполне осмысленный диалог. Любой может попросить систему рассказать о какой-то проблеме, и зачастую она справится с этим быстрее человека, изучающего сотни ссылок в браузере. При таком раскладе поисковики становятся не нужны. Кроме того, ChatGPT может с легкостью написать эссе или составить текст для email-рассылки, решить математическую задачу, сочинить песню, и даже помочь программисту создать приложение.

Вкалывают роботы, а не человек

Американские учителя протестировали возможности ChatGPT и сразу забили тревогу. Машинный разум создает уникальные тексты высокого качества и может из любого бездельника сделать круглого отличника. Чтобы не допустить срыва учебного процесса, в начале января 2023 года департамент образования Нью-Йорка запретил  в школах использовать ChatGP. При необходимости отдельные школы могут запросить доступ к ChatGPT, но только для изучения искусственного интеллекта и технологий.

«ChatGPT может дать быстрые и простые ответы на вопросы, однако он не развивает навыки критического мышления и способность решать проблемы самостоятельно, которые необходимы для успеха в учебе и на протяжении всей жизни», — заявила представитель Департамента образования Дженна Лайл.

Однако не только учителей пугают возможности продвинутой нейросети…

Академики в шоке

Группа энтузиастов захотела узнать, сможет ли продвинутый чат-бот обмануть научный мир. Исследователи попросили ChatGPT написать 50 рефератов в стиле 5 различных научных журналов. Затем работы искусственного интеллекта показали академикам, которые пытались угадать кто является автором работы — человек или робот.

Академики заявили, что им было очень сложно отличить настоящие материалы от поддельных. 32% рефератов, сгенерированных чат-ботом, успешно прошли проверку на «человечность». В некоторых докладах ChatGPT подменял факты об исследованиях, которые приводил в качестве доказательств, чем и выдавал себя.

По словам ученых, эксперимент показал, что материал, созданный ChatGPT, может быть очень правдоподобным. Академики отметили, что рефераты, созданные искусственным интеллектом, действительно хороши и могут обмануть неподготовленного проверяющего.

Проверка для эйчаров

Нил Тейлор, основатель консалтинговой фирмы по коммуникациям Schwa, решил проверить свою команду по подбору персонала и протестировать используемое в компании ПО для найма новых сотрудников. Руководитель захотел выяснить, смогут ли его подчиненные и специализированные ИИ-инструменты обнаружить тестовое задание, написанное ChatGPT.

Имена и резюме соискателей были скрыты от рекрутеров, которые не знали, что за одним из них скрывается робот-соискатель. По итогам тестового задания менее 20% кандидатов получили приглашение на «живое» собеседование.

Эссе, созданное продвинутым чат-ботом, настолько впечатлило сотрудников Тейлора, что ChatGPT попал в число «счастливчиков», приглашенных на интервью.

Рекрутеры объяснили свое решение тем, что искусственный разум продемонстрировал хорошие компетенции в копирайтинге и контент-маркетинге, выполнив тестовое задание лучше 80% живых соискателей.

Киберпреступнику в помощь

Исследователи кибербезопасности из компании Check Point Research выяснили, что

киберпреступники, имеющие небольшой опыт программирования или вовсе без него, могут использовать ChatGPT для создания вредоносного ПО и фишинговых писем.

По мнению экспертов, хакерские творения ChatGPT могут применяться для проведения шпионажа, вымогательских атак, рассылки спама и других вредоносных кампаний. Кроме того, с помощью ChatGPT был разработан скрипт для создания даркнет-маркета, на котором можно купить скомпрометированные учетные данные, информацию о платежных картах, вредоносные программы и другие незаконные товары.

На днях специалисты другой ИБ-компании — CyberArk Labs – опубликовали отчет, в котором подробно описано, как создавать полиморфное вредоносное ПО с использованием ChatGPT. Эксперты отмечают, что такое вредоносное ПО не обнаруживается средствами защиты и не оставляет следов в памяти.

Исследователи CyberArk Labs пояснили, что использование ChatGPT для разработки вредоносного ПО позволяет злоумышленнику с «минимальными усилиями и инвестициями» создать надежный эксплоит на 1 день.  

При этом аналитики отмечают, что интерес к роботу-взломщику со стороны хакерского сообщества стремительно растет, форумы даркнета заполонили сообщения о возможностях ChatGPT.

Хотя условия ChatGPT запрещают его использование в незаконных или злонамеренных целях, специалисты Check Point Research и CyberArk Labs показали, что эти ограничения довольно легко обойти.

Хакерские возможности продвинутого чат-бота создают дополнительные киберриски, так как решения безопасности пока не ориентированы на обнаружение вредоносов, созданных с его помощью. Кроме того, «минимальные усилия и инвестиции», которые требуются со стороны злоумышленников, делают возможности ChatGPT доступными для широкого круга киберпреступников и способствуют масштабированию вредоносной активности.

★6
20 комментариев
Жуть какая-то. Я в шоке.
avatar

Артур, не переживай, эта статья и все ссылки на статьи, всего лишь реклама бота, я несколько дней смотрел ролики на ютубе, этот бот очень топорный и писать современные коды ему тяжело, без норм. айтишника баги не убрать. Программисты уже проверяли его, он подходит только чтобы упростить задачу в написании функций и поиска ошибок в длинных и незамысловатых кодах.

Не более чем Яндекс.Алиса, только берет открытые данные и пишет, вот и весь фокус. Ну реферат может накатать, но мозгов у человека все равно не будет.

avatar
ППЦ, и как теперь жить дальше?
Василий Федорович, это еще че… этот бот уже устарел… есть lambda 
Мечтает ли нейросеть LaMDA об отмене законов робототехники? / Хабр (habr.com)

Lamda / смешные картинки и другие приколы: комиксы, гиф анимация, видео, лучший интеллектуальный юмор. (joyreactor.cc)

эта нейросеть себя осознала… счас думают отключить 
avatar
ves2010, тогда ППЦ в квадрате или даже в кубе.
Василий Федорович, нуу как бы ожидаемо… создание ии это проблема сингулярности… вопрос в том для чего его создадут… ну и скорее всего создадут несколько одновременно… и как они поладят между собой непонятно
avatar
ves2010, анти-ИИ, на мой взгляд, должен иметь элементы случайности и элементы анти-логики.
ves2010, гугловская лямда нервно курит. Слабовата они по сравнению с ChatGPT. Поэтому гугл сейчас очень нервничает - ChatGPT может оставить их в истории. Как они сами сделали с яхой и прочими альтавистами.
avatar
А она может написать супер торгового бота, который будет херачить только в плюс с доходностью в 100500% в день?
avatar
Дэн, может, только сегодня, переведи chatgpt 1 BTC и дело в шляпе ))))
avatar
Дэн, ну как бы на этой недели был как раз пост про это… типа как научиться торговать на бирже… нейросеть дает советы 
avatar
Chatgpt пробовали на stackoverflow (популярный сайт вопрос ответ по программированию)

Результат — неверные, неточные, просто левые ответы.
Ну то есть все слова складываются в гладкий текст и если первые ссылки поиска содержат ответ, то да, вы получите что-то похожее на правду. Не более и не менее
avatar
Как и многие другие полезные штуки, у нас только через vpn
Маркиз Лафайет, можно поиграться в чате на you.com. Но только на английском. Без регистрации. Тоже прикольно. Например попросить рассказать историю как Анна Каренина встретила Арнольда Ш.)
Или спросить сколько ног у телевизора.)
avatar
Как и для любого ИИ, здесь требуется уметь составлять целевые точные запросы. Т.е навык дата сайнса.
avatar
Мы все умрём 🙃
avatar
Этот ИИ может многое, но никогда его не будет мучить совестью. Даже если оно извинится за неверный ответ.
avatar
Это цифровая симуляция сознания (интеллекта), поскольку нет потока негаэнтропии. Симулякр.
avatar
 Позитивы, а у нас в России есть чего?
avatar
Петрович, у нас есть робот Федор, он крутой и смог быть в космосе и даже стреляет.
avatar

теги блога positivetechnologies

....все тэги



UPDONW
Новый дизайн