Главная » 2020 » Июль » 29 » Мошенники используют ИИ для создания голосовых дипфейков

Мошенники используют ИИ для создания голосовых дипфейков

29.07.2020 в 14:36 просмотров: 349 комментариев: 0 Техно
Аферисты нашли применение дипфейку (deepfake) — методике синтеза аудиовизуального контента, которая основана на искусственном интеллекте. С ее помощью мошенники копируют голоса реальных людей и затем, используя методы социальной инженерии, пытаются обманом заставить людей перевести им деньги.

Консалтинговая фирма по безопасности NISOS поделилась отчетом, в котором анализируется одна из таких попыток мошенничества. Эксперты обнародовали аудиозапись, на которой звучит голос, похожий на гендиректора неназванной технической компании.

Аудио было отправлено в виде голосового сообщения. В нем «фейковый» начальник просит одного из своих сотрудников «немедленно оказать помощь в завершении срочной коммерческой сделки».

Атака в итоге не увенчалась успехом, поскольку сотрудник, получивший сообщение, заподозрил неладное и переслал запись юристам компании.

Как пишет издание The Verge, в будущем такие атаки будут происходить чаще, так как инструменты для дипфейков становятся более доступными. Ведь все, что нужно для создания голосового «клона» — это доступ ко множеству записей выбранной цели. Чем больше данных и чем лучше качество звука, тем удачней выйдет аудиофейк. Для этих целей могут использоваться записи интервью, выступлений или телефонных звонков.

Самый известный и первый зарегистрированный пример аудиомошенничества произошел в 2019 году, когда исполнительный директор британской энергетической компании перевел аферистам 220 тыс евро после получения телефонного звонка якобы от гендиректора головного офиса компании.
Аватар enr091 Наталия Ришко
Журналист/dozeninfo
Фотографии по теме
Комментарии 0
avatar
Copyright © Все права защищены: 2018 - 2024 Копирование материалов сайта разрешено только при указании ссылки на источник DOZENinfo