Мошенники используют ИИ для создания голосовых дипфейков
Аферисты нашли применение дипфейку (deepfake) — методике синтеза аудиовизуального контента, которая основана на искусственном интеллекте. С ее помощью мошенники копируют голоса реальных людей и затем, используя методы социальной инженерии, пытаются обманом заставить людей перевести им деньги.
Консалтинговая фирма по безопасности NISOS поделилась отчетом, в котором анализируется одна из таких попыток мошенничества. Эксперты обнародовали аудиозапись, на которой звучит голос, похожий на гендиректора неназванной технической компании.
Аудио было отправлено в виде голосового сообщения. В нем «фейковый» начальник просит одного из своих сотрудников «немедленно оказать помощь в завершении срочной коммерческой сделки».
Атака в итоге не увенчалась успехом, поскольку сотрудник, получивший сообщение, заподозрил неладное и переслал запись юристам компании.
Как пишет издание The Verge, в будущем такие атаки будут происходить чаще, так как инструменты для дипфейков становятся более доступными. Ведь все, что нужно для создания голосового «клона» — это доступ ко множеству записей выбранной цели. Чем больше данных и чем лучше качество звука, тем удачней выйдет аудиофейк. Для этих целей могут использоваться записи интервью, выступлений или телефонных звонков.
Самый известный и первый зарегистрированный пример аудиомошенничества произошел в 2019 году, когда исполнительный директор британской энергетической компании перевел аферистам 220 тыс евро после получения телефонного звонка якобы от гендиректора головного офиса компании.
Консалтинговая фирма по безопасности NISOS поделилась отчетом, в котором анализируется одна из таких попыток мошенничества. Эксперты обнародовали аудиозапись, на которой звучит голос, похожий на гендиректора неназванной технической компании.
Аудио было отправлено в виде голосового сообщения. В нем «фейковый» начальник просит одного из своих сотрудников «немедленно оказать помощь в завершении срочной коммерческой сделки».
Атака в итоге не увенчалась успехом, поскольку сотрудник, получивший сообщение, заподозрил неладное и переслал запись юристам компании.
Как пишет издание The Verge, в будущем такие атаки будут происходить чаще, так как инструменты для дипфейков становятся более доступными. Ведь все, что нужно для создания голосового «клона» — это доступ ко множеству записей выбранной цели. Чем больше данных и чем лучше качество звука, тем удачней выйдет аудиофейк. Для этих целей могут использоваться записи интервью, выступлений или телефонных звонков.
Самый известный и первый зарегистрированный пример аудиомошенничества произошел в 2019 году, когда исполнительный директор британской энергетической компании перевел аферистам 220 тыс евро после получения телефонного звонка якобы от гендиректора головного офиса компании.