Блог им. master1

Голоса

    • 28 января 2024, 01:05
    • |
    • master1
      Smart-lab премиум
  • Еще
Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Для генерации голоса мошенники используют искусственный интеллект. Риски атак наиболее актуальны для малого и среднего бизнеса, где многие вопросы решаются напрямую с владельцем компании, считают эксперты. По их мнению, бороться с проблемой должны банки и государственная антифрод-система. Однако последняя на данный момент не анализирует звонки в мессенджерах.

www.kommersant.ru/doc/6466833
★2
2 комментария
Самое смешное, что, отгородившись ИИ, банки попали в др. ловушки (везде есть свои + и -).
Например, при звонке в КЦ банков и предупреждение входного ИИ, что никому нельзя предоставлять секретное слово и др. свои личные данные, «маринки и виталики» пока еще не знают что отвечать на мои ответы на их вопросы:
— Скажите секретное слово (личные данные).
— Мне ваш ИИ запретил их сообщать кому-либо.
— Но мы — не кто-либо.
— А откуда я знаю, что Вы не мошенники?
— Но Вы звоните в официальный КЦ банка.
— Мошенники тоже так говорят. Да и переадресацию устроить недолго ...
— (ступор)
avatar
радуйтесь, что пока ИИ напрямую в голове не звучит 
но и это скоро будет. если в голове пусто

теги блога master1

....все тэги



UPDONW
Новый дизайн