master1
master1 личный блог
28 января 2024, 01:05

Голоса

Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Для генерации голоса мошенники используют искусственный интеллект. Риски атак наиболее актуальны для малого и среднего бизнеса, где многие вопросы решаются напрямую с владельцем компании, считают эксперты. По их мнению, бороться с проблемой должны банки и государственная антифрод-система. Однако последняя на данный момент не анализирует звонки в мессенджерах.

www.kommersant.ru/doc/6466833
2 Комментария
  • Игорь ПМ
    28 января 2024, 03:05
    Самое смешное, что, отгородившись ИИ, банки попали в др. ловушки (везде есть свои + и -).
    Например, при звонке в КЦ банков и предупреждение входного ИИ, что никому нельзя предоставлять секретное слово и др. свои личные данные, «маринки и виталики» пока еще не знают что отвечать на мои ответы на их вопросы:
    — Скажите секретное слово (личные данные).
    — Мне ваш ИИ запретил их сообщать кому-либо.
    — Но мы — не кто-либо.
    — А откуда я знаю, что Вы не мошенники?
    — Но Вы звоните в официальный КЦ банка.
    — Мошенники тоже так говорят. Да и переадресацию устроить недолго ...
    — (ступор)
  • Валерий Осипенко
    28 января 2024, 05:57
    радуйтесь, что пока ИИ напрямую в голове не звучит 
    но и это скоро будет. если в голове пусто

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн