Эксперты оценили риски нецелевого использования биометрии с помощью нейросетей

Предоставление своей биометрии сторонним компаниям может сулить не только очевидные риски в плане утечки данных. Актриса дубляжа Алёна Андронова рассказала о том, что после выполнения озвучки текста для одного из своих заказчиков её голос был использован для тренировки нейросети и последующей продажи результатов её голосового синтеза другим компаниям.

Однажды я согласилась на заказ озвучки большого массива текста для внутренних нужд банка Тинькофф, а в итоге — я услышала себя в порно и лишилась части работы. Я подала иск в суд и хочу поделиться с вами этой историей, а также расскажу вам о том, что сейчас происходит с актерами озвучивания из-за развития нейросетей, как у нас в прямом смысле слова воруют голоса и обманывают нас в договорах. И это проблема не только нашей индустрии — сейчас легко подделать любую личность, украсть голос, подставить кого угодно – и расскажу, что мы предлагаем для того, чтобы защитить себя.

Алёна Андронова

Прочитать историю целиком можно на портале Пикабу.

Редакция it-news.online запросила комментарии у ряда компаний, специализирующихся на информационной безопасности.

Вопрос лежит, скорее, не в технической, а в юридической плоскости. Более того, угрозы могут быть связаны не только с подделкой голосов, но и визуальных образов. Фейковые ролики с известными личностями собирали немало просмотров в интернете, актёров успешно генерируют в кинематографе. Технически препятствий к этому нет.

Вероятно, с развитием и удешевлением технологии мошенники смогут использовать образы, например, публичных людей для того, чтобы вводить в заблуждение своих жертв. Другой вектор угроз может быть связан с использованием образа самого человека. Можно предположить, что часть людей, которые не хотят использовать биометрические данные, сомневаются как раз в связи с возможным несанкционированным использованием этих самых данных.

Фактически, в данном случае речь идёт о краже личности. Не только документов, но реально личности.

Владимир Ульянов,
руководитель аналитического центра компании Zecurion

История с подделкой образов, голосов стара как мир. Если вернуться в 20 век и посмотреть на популярных актеров, то можно заметить с десяток актрис, как две капли воды похожих, например, на Мерлин Монро. Просто теперь, благодаря нейросетям можно быстро копировать образы и голоса для роликов. Основная проблема тут кроится в том, что актрисе не заплатили роялти с творчества, созданного нейросетью на основе ее голоса. И тут уже возникает юридическая проблема, а не техническая. Учитывая растущую популярность нейросетей необходимо на законодательном уровне решать данный вопрос. А в части информационной безопасности, становится очевидным, что использование слепка голоса или лица является брешью в системе безопасности. Использование биометрии дает хорошие результаты, но только тогда, когда она выступает вторым или третьим фактором при аутентификации личности.

Дмитрий Овчинников,
Главный специалист отдела комплексных систем защиты информации компании «Газинформсервис»

Related posts

К 2027 году прогнозируется двукратный объем рынка безопасной разработки ПО

Исследование «Лаборатории Касперского»: каждый второй россиянин хотел бы жить в умном городе

Серия кибератак на российские компании провалилась из-за грубой ошибки хакеров