Компьютерный голос смог обмануть и людей, и алгоритмы
Американские исследователи выяснили, что программы для синтеза речи могут обмануть и людей, и алгоритмы для идентификации человека по голосу. Это тревожная новость.
Исследователи изучили модель атаки, при которой злоумышленники имеют доступ к образцам голоса жертвы. С помощью записей он может дообучить голосовую модель, чтобы она синтезировала речь жертвы.
Качество синтезированной речи исследователи проверяли на открытом программном обеспечении Resemblyzer и на сервисах Microsoft Azure, WeChat и Amazon Alexa. Также учёные позвали 14 добровольцев, чей голос записывали. В итоге синтезированный голос смог обмануть WeChat и Alexa в большинстве случаев.
Затем исследователи позвали 200 добровольцев, которым давали послушать синтезированные и настоящие голоса. В половине случаев участники не сумели отличить настоящий голос от поддельного.
Исследователи изучили модель атаки, при которой злоумышленники имеют доступ к образцам голоса жертвы. С помощью записей он может дообучить голосовую модель, чтобы она синтезировала речь жертвы.
Качество синтезированной речи исследователи проверяли на открытом программном обеспечении Resemblyzer и на сервисах Microsoft Azure, WeChat и Amazon Alexa. Также учёные позвали 14 добровольцев, чей голос записывали. В итоге синтезированный голос смог обмануть WeChat и Alexa в большинстве случаев.
Затем исследователи позвали 200 добровольцев, которым давали послушать синтезированные и настоящие голоса. В половине случаев участники не сумели отличить настоящий голос от поддельного.
Ещё новости по теме:
18:20