Совфед внес предложение маркировать синтезированные голоса

26 января 2024 г.

В России могут появиться законодательные ограничения для создания и использования сгенерированных при помощи нейросетей голосов людей. Это крайне актуально на фоне появления мошеннических схем, связанных с аудиодипфейками.

В Совете Федерации РФ прорабатываются законодательные предложения по использованию сгенерированного с помощью нейросети голоса людей. В первую очередь, данные людей, необходимые для создания такого контента, должны использоваться только с их согласия, также должна появиться маркировка таких материалов. «Согласно планируемым изменениям <...> использование записи голоса гражданина допускается только с его согласия. Обсуждается вопрос маркировки при использовании синтезированного голоса. Например, если компания использует синтез голоса, она должна будет уведомлять, что следующая информация, которую вы будете слышать, создана при помощи искусственного интеллекта. Такая мера обсуждается», — рассказал зампред Совета по развитию цифровой экономики при Совете Федерации Артем Шейкин. Он также отметил, что на сегодняшний день в российском законодательстве не закреплено понятие охраны голоса гражданина.

По словам Шейкина, синтезирование голоса людей, в том числе знаменитых, несет в себе риски создания различных мошеннических схем. Примерами могут послужить озвучивание запрещенного контента, а также ложные звонки с целью вымогательства, шантажа или рассылка через социальные сети сообщений с просьбой о финансовой помощи от якобы родных и знакомых людей.

Сегодня мы сталкиваемся с ситуацией, в которой лицо человека, а также его голос могут использоваться в мошеннических и противоправных целях без его ведома, отмечает член комитета Госдумы по информационной политике, информационным технологиям и связи, депутат фракции «Единая Россия» Антон Немкин. «Подобное положение дел может привести к повышению социальной напряженности, если дипфейки — как аудио так и видео — будут использоваться, например, в политических целях. И такие примеры уже были — например, в прошлом году видеоролик с „обращением“ президента России Владимира Путина, который транслировали ряд телеканалов и радиостанций, был подготовлен при помощи технологии дипфейк с использованием замены лица. В записи, которая выдавалась за выступление президента, было сделано несколько серьезных заявлений — если бы их распространение не удалось вовремя пресечь, последствия такой преступной выходки хакеров могли бы быть крайне масштабными», — отметил депутат.

Проблема использования дипфейков мошенниками в частных ситуациях против граждан также постепенно обретает свою актуальность. Например, не так давно распространилась мошенническая схема, в рамках которой, мошенники взламывали аккаунты в мессенджерах и рассылали сообщения близкому кругу с просьбой занять в долг. Однако нововведение злоумышленников заключалось в рассылке таких сообщений с использованием аудиодипфейков, что, конечно, является практически беспроигрышным способом обмана жертвы.

«В МВД говорят, что мошенники пока редко используют технологии создания голосовых фейков при помощи искусственного интеллекта, так как намного дешевле для них просто сымитировать голос человека в стрессовой ситуации. Например, когда звонок поступает ночью, там раздается глухой шепот с просьбой о помощи, у мошенников все равно получается добиться от жертвы тех сведений или тех действий, которые необходимы. Тем не менее, в дальнейшем число схем с использованием будет только расти по мере освоения мошенниками этой технологии», — предупредил Антон Немкин.

Источник: Пресс-служба депутата ГосДумы РФ Антона Немкина

( )   

Комментарии закрыты.