Блог им. Koleso

ИИ позволяет клонировать голоса. Это может помочь мошенникам и разрушить творческие индустрии.

ИИ позволяет клонировать голоса. Это может помочь мошенникам и разрушить творческие индустрии. 

Дженнифер Дестефано ответила на звонок с неизвестного номера.

«Мама, я облажалась», — сказал ей голос дочери, всхлипывая. «Эти плохие люди завладели мной». Мужчина продолжал требовать деньги, иначе он накачал бы ее дочь наркотиками и оставил ее в Мексике.

Но пока она держала его на связи, друзьям удалось связаться с ее дочерью, только чтобы узнать, что она на самом деле свободна и здорова на лыжной прогулке в Аризоне. Голос, использованный в телефоне, был фальшивым.

ДеСтефано, все еще потрясенная, рассказала эту историю на слушаниях подкомитета Сената США по искусственному интеллекту в июне. Об опасностях, которые таит в себе технология клонирования голоса, только сейчас начинают говорить вслух.

В последние месяцы большая часть внимания, уделяемого искусственному интеллекту (ИИ), уделялась так называемым «широкоязычным моделям», таким как Chatgpt, которые штампуют текст. Но последствия клонирования голоса также будут глубокими.

Краткий образец голоса можно использовать для обучения модели искусственного интеллекта, которая затем может произнести любой заданный текст, звучащий как этот человек.

Ожидается, что Apple включит эту функцию для iPhone в свою новую операционную систему iOS 17, которая должна быть выпущена в сентябре. Он рекламируется как помощь людям, которым может угрожать потеря голоса, например, из-за дегенеративного заболевания, такого как альбуминоз.

Для тех, кто хочет попробовать клонирование голоса сейчас, ElevenLabs, стартап ИИ, предлагает пользователям возможность создавать свои собственные клоны за считанные минуты.

Результаты тревожно точны.

При создании воспроизведения система предлагает ползунок, который позволяет пользователям выбирать между изменчивостью и стабильностью. Выберите больше вариативности, и звук будет иметь реалистичную интонацию, включая паузы и спотыкания, такие как «э-э…».

Тейлор Джонс, лингвист и консультант, внимательно изучил качество клона его голоса ElevenLabs в видео на YouTube. Используя статистические тесты, он показал, что в «его» произношении некоторых гласных были некоторые отклонения.

Но низкотехнологичный тест, «разговор» с собственной матерью, одурачил женщину, которая его воспитала. («Никогда больше так не делай», — предупредила она.) Джонсон повторил эксперимент со своей матерью, которая без промедления ответила клону-Джонсону.

В течение нескольких лет клиенты могли идентифицировать себя по телефону в своем банке и других компаниях, используя свой голос. Это было обновление безопасности, а не опасность. Даже одаренный мимик не мог обмануть систему обнаружения.

Но появление клонирования заставит адаптироваться, например, путем включения голоса только как одного из нескольких факторов идентификации (и, таким образом, подрывая удобство), чтобы предотвратить мошенничество.

Творческие отрасли тоже могут столкнуться с проблемами. Навыки актеров озвучивания, отработанные на протяжении всей жизни, могут быть сорваны за считанные секунды.

The Telegraph, британская газета, недавно сообщила об актерах, которые по ошибке отказались от прав на свои голоса, что позволило их бесплатно клонировать. В будущем потребуются новые контракты. Но некоторые действующие лица могут на самом деле счесть клонирование благоприятным.

Вэл Килмер, потерявший большую часть голоса из-за рака горла, был рад восстановить свой голос для «Лучшего стрелка: Маверик». Других можно не отправлять в студию для повторных съемок.

Больше всего угроза для средних профессионалов, а не суперзвезд.

Еще одна отрасль, которой придется столкнуться с появлением клонов, — это журналистика.

Скрытые записи — такие как хвастовство Дональда Трампа о том, что он хватал женщин за определенную часть тела, — уже давно стали предметом сенсаций блокбастеров. Кто теперь поверит истории, основанной на аудиоклипе?

Чуть проще справиться с ложными срабатываниями: записи, выдающие себя за кого-то, но являющиеся подделками.

Здесь могут пригодиться сложные криминалистические методы, доказывающие, что клип был создан, скажем, в зале суда. Противоположная проблема — ложноотрицательные результаты — возникает, когда общественные деятели отрицают подлинные записи.

Доказать, что клип подлинный, сложно, а то и невозможно. Журналистам нужно будет показать, как они получили и сохранили аудиофайлы, если, как это часто бывает, они не пообещали анонимность источника.

Во время своей первой президентской кампании Трамп сделал больше, чем кто-либо, для популяризации термина «фейковые новости» — и это было задолго до того, как клонирование голоса, дипфейковые видео, искусственно созданные изображения и тому подобное получили широкое распространение.

Теперь все больше людей, пойманных на правонарушениях, будут искушены защитой: «Это был не я».

У многих людей будет еще больше оснований им верить.

Оригинал

P.S. Подпишись на канал ГлавИнформ —  ГИБбон  — о том как экономика, политика и технологии влияют на нашу жизнь.

  • Ключевые слова:
  • ИИ
3 комментария
ерунда 
люди придумают какие то контры
а вот страшней звонки с того света
вспомнился успех Грабового 
Вован и Лексус — наше все
avatar

Если смотреть на исторические аналогии, то появление кино и телевидения ударило по театральному бизнесу. Но появились новые громадные рынки. Общество, в целом, выиграло. Актеры получили возможность заработать миллионы.

Надеюсь и здесь люди найдут себе достойное место. 

avatar

теги блога Андрей Колесников

....все тэги



UPDONW
Новый дизайн