Нет никаких сомнений в преданности Сэма Альтмана Openai, фирме, стоящей на переднем крае революции в области искусственного интеллекта (ИИ). В качестве соучредителя и руководителя он, похоже, работал так же неустанно ради успеха, как и в предыдущем стартапе, где его целеустремленность привела к приступу цинги, болезни, которая чаще всего ассоциируется с моряками ушедшей эпохи, которые слишком долго оставались в море, не имея доступа к воде. свежая еда.
Поэтому его внезапное увольнение 17 ноября стало шоком. Причины, по которым совет директоров фирмы потерял доверие к Альтману, неясны. Слухи вызывают беспокойство по поводу того, что он слишком поспешно расширял коммерческие предложения Openai, не принимая во внимание последствия для безопасности, в фирме, которая также пообещала развивать эту технологию для «максимального блага человечества».
Также ходят слухи, что некоторые инвесторы компаний добиваются восстановления Альтмана на работе; другие сообщения предполагают, что вместо этого он может открыть собственную конкурирующую фирму. Однако ясно то, что события в Openai являются наиболее драматичным проявлением более широкого раскола в Кремниевой долине.
На одной стороне находятся «обреченники», которые считают, что, если его не контролировать, искусственный интеллект представляет экзистенциальную угрозу человечеству, и поэтому выступают за более строгие правила. Им противостоят «бумеры», которые преуменьшают страх перед апокалипсисом ИИ и подчеркивают его потенциал для ускорения прогресса. Лагерь, который окажется более влиятельным, может либо поощрять, либо препятствовать ужесточению регулирования, что, в свою очередь, может определить, кто больше всего получит выгоду от ИИ в будущем.
Корпоративная структура Openai преодолевает этот разрыв. Основанная как некоммерческая организация в 2015 году, компания три года спустя создала коммерческую дочернюю компанию для финансирования своих потребностей в дорогостоящих вычислительных мощностях и интеллектуальных силах для продвижения технологии вперед. Удовлетворение конкурирующих целей думеров и бумеров всегда было трудным.
Раскол частично отражает философские разногласия. Многие в лагере думеров находятся под влиянием «эффективного альтруизма» — движения, которое продвигает исследования для защиты от ИИ, который становится мошенником. В число обеспокоенных входят Дарио Амодей, руководитель Anthropic, создатель моделей, и Демис Хассабис, соучредитель DeepMind, исследовательской лаборатории искусственного интеллекта Alphabet. Другие крупные технологические компании, в том числе Microsoft и Amazon, также обеспокоены безопасностью ИИ.
Бумеры поддерживают мировоззрение, называемое «эффективным акселерационизмом», которое утверждает, что развитию искусственного интеллекта следует не только позволить беспрепятственно, но и ускорить его. Возглавляет инициативу Марк Андриссен, соучредитель компании венчурного капитала Andreessen Horowitz. Другие специалисты по искусственному интеллекту, такие как Ян ЛеКун и Эндрю Нг из Meta, а также множество стартапов, включая Hugging Face и Mistral AI, следуют за ним.
Г-н Альтман, похоже, симпатизировал обеим группам, публично призывая к созданию «ограждений», чтобы сделать ИИ безопасным, одновременно подталкивая Openai к разработке более мощных моделей и запуску новых инструментов, таких как магазин приложений, позволяющий пользователям создавать своих собственных чат-ботов. Ее крупнейший инвестор, Microsoft, которая вложила в Openai более $10 млрд за 49% акций, не получив ни одного места в совете директоров материнской компании, как сообщается, недовольна, узнав об увольнении всего за несколько минут до того, как об этом узнал Альтман. Если он не вернется, вполне вероятно, что Openai более твердо встанет на сторону обреченных.
Однако, похоже, здесь происходит нечто большее, чем просто абстрактная философия. Как оказалось, эти две группы также разделены по более коммерческим направлениям. Думеры являются первопроходцами в гонке ИИ, у них более глубокие карманы и они поддерживают запатентованные модели. С другой стороны, бумеры, скорее всего, будут догоняющими фирмами, меньшими по размеру и предпочитающими программное обеспечение с открытым исходным кодом.
Начните с первых победителей. Chatgpt Openai добавил 100 миллионов пользователей всего за два месяца после запуска, за ним следует Anthropic, основанная перебежчиками из Openai и сейчас оцениваемая в 25 миллиардов долларов. Исследователи из Google написали оригинальную статью о больших языковых моделях, программном обеспечении, которое обучается на огромных объемах данных и лежит в основе чат-ботов, включая Chatgpt. Фирма выпускает более крупные и умные модели, а также чат-бота под названием Bard.
Между тем, лидерство Microsoft во многом основано на ее большой ставке на Openai. Amazon планирует инвестировать в Anthropic до $4 млрд. Но в сфере технологий движение первым не всегда гарантирует успех. На рынке, где технологии и спрос быстро развиваются, у новых участников есть широкие возможности потеснить действующих игроков.
Это может придать дополнительную силу стремлению сторонников ужесточения правил. Выступая перед американским Конгрессом в мае, г-н Альтман выразил опасения, что эта отрасль может «нанести значительный вред миру», и призвал политиков принять конкретные правила для ИИ. В том же месяце группа из 350 учёных и технических руководителей, в том числе из Openai, Anthropic и Google, подписала однострочное заявление, предупреждающее о «риске исчезновения», который ИИ представляет наравне с ядерной войной и пандемиями. Несмотря на ужасающие перспективы, ни одна из компаний, поддержавших это заявление, не приостановила свою работу по созданию более мощных моделей ИИ.
Политики изо всех сил стараются показать, что они серьезно относятся к рискам. В июле администрация президента Джо Байдена подтолкнула семь ведущих производителей моделей, в том числе Microsoft, Openai, Meta и Google, к взятию на себя «добровольных обязательств» по проверке их ИИ-продуктов экспертами перед выпуском их для широкой публики. 1 ноября британское правительство заставило аналогичную группу подписать еще одно необязывающее соглашение, которое позволяло регулирующим органам проверять их продукты искусственного интеллекта на предмет надежности и вредоносных возможностей, таких как угроза национальной безопасности. За несколько дней до этого Байден издал гораздо более резкий указ. Он обязывает любую компанию, занимающуюся искусственным интеллектом, которая создает модели сверх определенного размера (определяемого вычислительной мощностью, необходимой для программного обеспечения), уведомлять правительство и делиться результатами испытаний на безопасность.
Еще одна линия разногласий между этими двумя группами — будущее искусственного интеллекта с открытым исходным кодом. Фильмы были либо проприетарными, как у Openai, Anthropic и Google, либо открытыми. Выпуск в феврале модели llama, созданной Meta, стимулировал активность в области искусственного интеллекта с открытым исходным кодом (см. диаграмму). Сторонники утверждают, что модели с открытым исходным кодом более безопасны, поскольку они открыты для проверки. Недоброжелатели опасаются, что обнародование этих мощных моделей ИИ позволит злоумышленникам использовать их в злонамеренных целях.
Но спор по поводу открытого исходного кода может также отражать коммерческие мотивы. Венчурные капиталисты, например, являются его большими поклонниками, возможно, потому, что они подсматривают способ для стартапов, которые они поддерживают, догнать передовые рубежи или получить свободный доступ к моделям. Действующие игроки могут опасаться конкурентной угрозы. В просочившейся записке, написанной инсайдерами Google, признается, что модели с открытым исходным кодом достигают результатов в некоторых задачах, сравнимых с их собственными собратьями, и их создание обходится гораздо дешевле. В меморандуме делается вывод, что ни у Google, ни у Openai нет защитного «рва» против конкурентов с открытым исходным кодом.
Пока регуляторы, похоже, восприимчивы к аргументам обреченных. Указ Байдена может затормозить развитие искусственного интеллекта с открытым исходным кодом. Широкое определение моделей «двойного назначения», которые могут иметь как военные, так и гражданские цели, в приказе налагает сложные требования к отчетности для небольших стартапов. Функции, которые делают программное обеспечение с открытым исходным кодом таким успешным, также являются помехой при выполнении нормативных требований. Любая форма централизованной отчетности сложна, поскольку она создается армией разработчиков и порождает множество вариантов.
Не каждая крупная технологическая фирма попадает по обе стороны этой границы. Решение Meta открыть исходный код своих моделей искусственного интеллекта сделало ее неожиданным лидером среди стартапов, предоставив им доступ к мощной модели, на основе которой можно создавать инновационные продукты. Meta делает ставку на то, что всплеск инноваций, вызванный инструментами с открытым исходным кодом, в конечном итоге поможет ей, создавая новые формы контента, которые будут привлекать пользователей и радовать рекламодателей. Apple является еще одним исключением. Крупнейшая в мире технологическая фирма особенно молчат об искусственном интеллекте. При запуске нового iPhone в сентябре компания продемонстрировала многочисленные функции искусственного интеллекта, не упомянув сам термин. Когда ее подталкивают, ее руководители склонны превозносить «машинное обучение» — еще один термин, обозначающий искусственный интеллект.
Это выглядит умно. Крах в Openai показывает, насколько разрушительными могут быть культурные войны из-за ИИ. Но именно эти войны будут определять, как будут развиваться технологии, как они будут регулироваться и кто уйдет с добычей.
Мой телеграм канал ОПЦИОНЫ НА АМЕРИКЕ
И впереди выборы. Под демами будет ИИ Альтмана и Цука. Конкурентом будет грок. С помощью ИИ попытаются залезть в мозг каждого избирателя.
Переводим ее на русский
Прогоняем через chatgpt, чтобы он пережевал немного другими словами
PROFIT !
https://www.google.ca/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwiTu6CXwdKCAxWuMTQIHUgSAe0QFnoECBAQAQ&url=https%3A%2F%2Fwww.economist.com%2Fbusiness%2F2023%2F11%2F19%2Fthe-sam-altman-drama-points-to-a-deeper-split-in-the-tech-world&usg=AOvVaw17ve-0jSPed5rZG0kDXsPl&opi=89978449