Копипаст

Копипаст | Как разумно беспокоиться об искусственном интеллекте. Быстрый прогресс в области искусственного интеллекта вызывает не только волнение, но и страх. Насколько вы должны волноваться?

Как разумно беспокоиться об искусственном интеллекте. Быстрый прогресс в области искусственного интеллекта вызывает не только волнение, но и страх. Насколько вы должны волноваться?


Новые «большие языковые модели» (llms) — такие, на которых работает Chatgpt, чат-бот, созданный стартапом Openai, — удивили даже своих создателей своими неожиданными талантами по мере их масштабирования. 

Такие «эмерджентные» способности включают в себя все, от решения логических головоломок и написания компьютерного кода до идентификации фильмов по сюжетным кратким описаниям, написанным смайликами.


Эти модели призваны изменить отношения людей с компьютерами, знаниями и даже с самими собой. Сторонники искусственного интеллекта утверждают, что он может решить большие проблемы путем разработки новых лекарств, разработки новых материалов для борьбы с изменением климата или решения сложностей термоядерной энергии. Для других тот факт, что возможности искусственного интеллекта уже опережают понимание их создателей, рискует воплотить в жизнь научно-фантастический сценарий катастрофы машины, которая перехитрила своего изобретателя, часто с фатальными последствиями.


Эта бурлящая смесь волнения и страха затрудняет взвешивание возможностей и рисков. Но можно извлечь уроки из других отраслей и прошлых технологических сдвигов.

Так что же изменилось, чтобы сделать ИИ намного более способным? Насколько вам следует бояться? И что должны делать правительства?


Первая волна современных систем искусственного интеллекта, появившаяся десять лет назад, полагалась на тщательно размеченные обучающие данные. Получив достаточное количество помеченных примеров, они могли научиться делать такие вещи, как распознавать изображения или расшифровывать речь. 

Современные системы не требуют предварительной маркировки, и в результате их можно обучать, используя гораздо большие наборы данных, взятые из онлайн-источников.

По сути, llms можно обучать во всем Интернете, что объясняет их возможности, как хорошие, так и плохие.


Эти возможности стали очевидны для широкой публики, когда в ноябре был выпущен Chatgpt. За неделю им воспользовался миллион человек; 100 млн за два месяца. 

Вскоре его стали использовать для написания школьных сочинений и свадебных речей. Популярность Chatgpt и попытка Microsoft включить его в свою поисковую систему Bing побудили конкурирующие фирмы также выпускать чат-ботов.


Некоторые из них привели к странным результатам. Бинг Чат предложил журналисту уйти от жены. 

Chatgpt был обвинен в клевете профессором права. 

llms дают ответы, которые имеют налет правды, но часто содержат фактические ошибки или откровенные выдумки. Тем не менее, Microsoft, Google и другие технологические фирмы начали включать llms в свои продукты, чтобы помочь пользователям создавать документы и выполнять другие задачи.


Недавнее увеличение мощности и заметности систем искусственного интеллекта, а также растущее осознание их возможностей и недостатков вызвали опасения, что технология сейчас развивается так быстро, что ее нельзя безопасно контролировать. Отсюда призыв к паузе и растущее беспокойство по поводу того, что ИИ может угрожать не только рабочим местам, достоверности фактов и репутации, но и самому существованию человечества.


Вымирание? Восстание?

Страх, что машины лишат рабочие места, существует веками. Но до сих пор новые технологии создавали новые рабочие места взамен уничтоженных. Машины, как правило, могут выполнять одни задачи, но не другие, что увеличивает спрос на людей, которые могут выполнять работу, которую машины не могут выполнять. 

Может ли на этот раз быть иначе? Нельзя исключать внезапных потрясений на рынках труда, даже если пока их не видно. Предыдущие технологии, как правило, заменяли неквалифицированные задачи, но llms могут выполнять некоторые задачи белых воротничков, такие как обобщение документов и написание кода.


Степень экзистенциального риска, создаваемого искусственным интеллектом, является предметом горячих споров. Эксперты разделились. 

В опросе исследователей искусственного интеллекта, проведенном в 2022 году, 48% полагали, что вероятность того, что влияние искусственного интеллекта будет «чрезвычайно плохим (например, вымирание человечества)) составляет не менее 10%. 

Но 25% сказали, что риск равен 0%; медианный исследователь оценил риск в 5%.


Кошмар заключается в том, что продвинутый искусственный интеллект наносит огромный ущерб, создавая яды или вирусы или убеждая людей совершать террористические акты. 

У него не должно быть злых намерений: исследователи опасаются, что у будущих ИИ могут быть цели, которые не совпадают с целями их создателей-людей.


Такие сценарии не следует отбрасывать. 

Но все они связаны с огромным количеством догадок и отходом от современных технологий. И многие воображают, что будущие искусственные интеллекты будут иметь неограниченный доступ к энергии, деньгам и вычислительной мощности, которые сегодня являются реальными ограничениями и могут быть запрещены мошенническим искусственным интеллектом в будущем. 


Более того, эксперты склонны завышать риски в своей области по сравнению с другими прогнозистами. 

(И Маск, который запускает свой собственный стартап в области искусственного интеллекта, заинтересован в том, чтобы его конкуренты отказались от этих инструментов.) 

Жесткое регулирование или даже пауза сегодня кажутся чрезмерной реакцией. 


Регулирование необходимо, но по более приземленным причинам, чем спасение человечества. Существующие системы искусственного интеллекта вызывают серьезные опасения по поводу предвзятости, конфиденциальности и прав интеллектуальной собственности. 

По мере развития технологий могут стать очевидными и другие проблемы. Ключ в том, чтобы сбалансировать обещания ИИ с оценкой рисков и быть готовым адаптироваться.


Пока правительства используют три различных подхода. 

На одном конце спектра находится Великобритания, которая предложила «легкий» подход без новых правил или регулирующих органов, но применяет существующие правила к системам искусственного интеллекта. 

Цель состоит в том, чтобы увеличить инвестиции и превратить Великобританию в «сверхдержаву искусственного интеллекта». Америка применила аналогичный подход, хотя администрация Байдена сейчас ищет общественное мнение о том, как может выглядеть свод правил.


ЕС занимает более жесткую позицию. 

Предлагаемый им закон классифицирует различные виды использования ИИ по степени риска и требует все более строгого контроля и раскрытия информации по мере того, как степень риска возрастает, скажем, от музыкальных рекомендаций до самоуправляемых автомобилей. 

Некоторые виды использования ИИ вообще запрещены, например, подсознательная реклама и удаленная биометрия. Фирмы, нарушающие правила, будут оштрафованы. Некоторые критики считают эти правила слишком удушающими.


Но другие говорят, что нужен еще более строгий подход. Правительства должны относиться к искусственному интеллекту как к лекарствам, со специальным регулятором, строгим тестированием и предварительным одобрением перед публичным выпуском. 

Частично этим занимается Китай, требуя от компаний регистрировать продукты искусственного интеллекта и проходить проверку безопасности перед их выпуском. 

Но безопасность может быть не столько мотивом, сколько политикой: ключевое требование состоит в том, чтобы продукция ИИС отражала «основную ценность социализма».


Что делать? 

Легкого подхода вряд ли будет достаточно. Если искусственный интеллект является такой же важной технологией, как автомобили, самолеты и лекарства — а есть веские основания полагать, что это так, — то, как и им, потребуются новые правила. 


Соответственно, модель ЕС наиболее близка к истине, хотя ее система классификации переработана и подход, основанный на принципах, был бы более гибким. 

Принудительное раскрытие информации о том, как системы обучаются, как они работают и как они контролируются, а также требование проведения проверок было бы сопоставимо с аналогичными правилами в других отраслях.


Это может позволить более жесткое регулирование с течением времени, если это необходимо. 

В этом случае может показаться целесообразным специальный регулирующий орган; 

то же самое можно сказать и о межправительственных договорах, подобных тем, которые регулируют ядерное оружие, если появятся правдоподобные доказательства экзистенциального риска. 


Чтобы контролировать этот риск, правительства могли бы создать орган по образцу ЦЕРНа, лабораторию физики элементарных частиц, которая также могла бы изучать безопасность и этику искусственного интеллекта — области, в которые у компаний нет стимулов вкладывать столько, сколько может пожелать общество.


Эта мощная технология создает новые риски, но также предлагает исключительные возможности. 

Балансировать между ними означает действовать осторожно. Взвешенный подход сегодня может обеспечить основу для добавления новых правил в будущем. 

Но сейчас самое время начать строить эти основы.

Оригинал

P.S. Подпишитесь на проект «КОГоть» — “КраткоОГлавном” в Телеграм, Дзен, VK и Youtube
  • Ключевые слова:
  • ChatGPT

теги блога Андрей Колесников

....все тэги



UPDONW
Новый дизайн