Преступники использовали «клонированный» с помощью ИИ голос, чтобы ограбить банк в ОАЭ на 35 миллионов долларов
15.10.2021, 16:46 Голос, клонированный искусственным интеллектом (ИИ), был использован как инструмент для крупного ограбления в Объединенных Арабских Эмиратах. Изображение Gref_exe с сайта Pixabay
Преступники создали «дипфейк»-голос директора крупной компании, которому якобы срочно понадобилась большая сумма денег
Как сообщает Gizmodo, ссылаясь на отчет Forbes, преступники украли около 35 миллионов долларов (почти 2,5 миллиарда рублей) из банка Объединенных Арабских Эмиратов с помощью моделирования голоса с использованием ИИ.
В январе прошлого года управляющему банком в Объединенных Арабских Эмиратах позвонил человек, чей голос он узнал. Этим человек якобы был директор компании, с которым управляющий общался раньше. «Директор» сказал, что находится в процессе крупной коммерческой сделки и ему срочно нужен перевод на сумму 35 миллионов долларов.
Управляющему также пришло электронное письмо от компании и ее юриста. Все это убедило его в том, что сделка реальна. Он перевел деньги.
Исследователи из Дубая выяснили, что мошенники использовали технологию «глубокого голоса» для имитации голоса директора. ОАЭ считают, что это была тщательно продуманная схема, в которой участвовало не менее 17 человек. Переведенные деньги позже разошлись по нескольким счетам, разбросанным по всему миру.
Как отмечает Gizmodo, это не первый случай, когда технология имитации голоса используется для крупного ограбления. В 2019 году аналогичная участь постигла энергетическую компанию в Соединенном Королевстве: мошенникам удалось украсть около 220 000 евро (более 18 миллионов рублей), выдав себя за главного исполнительного директора компании.
Преступники создали «дипфейк»-голос директора крупной компании, которому якобы срочно понадобилась большая сумма денег
Как сообщает Gizmodo, ссылаясь на отчет Forbes, преступники украли около 35 миллионов долларов (почти 2,5 миллиарда рублей) из банка Объединенных Арабских Эмиратов с помощью моделирования голоса с использованием ИИ.
В январе прошлого года управляющему банком в Объединенных Арабских Эмиратах позвонил человек, чей голос он узнал. Этим человек якобы был директор компании, с которым управляющий общался раньше. «Директор» сказал, что находится в процессе крупной коммерческой сделки и ему срочно нужен перевод на сумму 35 миллионов долларов.
Управляющему также пришло электронное письмо от компании и ее юриста. Все это убедило его в том, что сделка реальна. Он перевел деньги.
Исследователи из Дубая выяснили, что мошенники использовали технологию «глубокого голоса» для имитации голоса директора. ОАЭ считают, что это была тщательно продуманная схема, в которой участвовало не менее 17 человек. Переведенные деньги позже разошлись по нескольким счетам, разбросанным по всему миру.
Как отмечает Gizmodo, это не первый случай, когда технология имитации голоса используется для крупного ограбления. В 2019 году аналогичная участь постигла энергетическую компанию в Соединенном Королевстве: мошенникам удалось украсть около 220 000 евро (более 18 миллионов рублей), выдав себя за главного исполнительного директора компании.
Ещё новости по теме:
18:20