
Технологии искусственного интеллекта, способные генерировать и копировать человеческие голоса, открывают новые возможности для преступников. Мошенники уже используют синтезированные голоса знаменитостей, дикторов и даже родственников, чтобы обманывать людей, выманивать деньги или распространять противоправный контент. Эта проблема требует срочного законодательного решения.
1. Законодательная инициатива
В Совете Федерации ведется подготовка законопроекта, направленного на запрет использования технологий искусственного интеллекта для фальсификации голосов. Как сообщил заместитель председателя Сенатского совета по развитию цифровой экономики Артем Шайкин, инициатива была выдвинута после многочисленных обращений граждан. В частности, поводом послужила жалоба на использование голоса известного диктора в материалах, содержащих нецензурную лексику.
Сенатор отметил, что действующее законодательство защищает изображение человека, но не регулирует использование его голоса. Это создает правовой вакуум, которым активно пользуются злоумышленники. Новый закон должен установить правило: использование публичного голоса, в том числе сгенерированного ИИ, возможно только с прямого согласия человека или его правопреемников. За нарушение этой нормы последует юридическая ответственность.
2. Реальные угрозы и случаи мошенничества
Угрозы, исходящие от технологии глубокой подделки голоса (deepfake), уже перешли из разряда теоретических в практические. Участились случаи, когда мошенники, используя ИИ, звонят пожилым людям, имитируя голос их детей или внуков. Под предлогом срочной помощи — например, для оплаты штрафа или выкупа из заложников — они выманивают крупные суммы денег. Родители, услышав знакомый голос, часто действуют импульсивно, не успев проверить информацию.
Кроме того, синтезированные голоса публичных лиц — актеров, политиков, дикторов — используются для создания фальшивых новостных роликов, рекламы сомнительных услуг (в том числе порнографических ресурсов) или для призывов к радикальным действиям. Это подрывает доверие к медиа и создает серьезные социальные риски.
Обратите внимание: Развод Кузина и Артемовой, а также уход семьи Оганесян с проекта.
3. Проблемы реализации и технические решения
Эксперты в области информационной безопасности поддерживают необходимость подобного закона, но указывают на сложности его применения. Алексей Щукин, руководитель отдела информационной безопасности ЦКБ ГА, поясняет, что одного запрета недостаточно. Для его эффективной работы требуется создать целую инфраструктуру.
В первую очередь, нужна надежная методология экспертизы, которая позволит отличать настоящий голос от сгенерированного. Это требует развития специальных сервисов и подготовки квалифицированных кадров. Кроме того, для доказательства факта кражи или неправомерного использования голоса необходимы технические средства верификации.
Перспективным направлением считается создание единой государственной базы биометрических данных, которая могла бы служить эталоном для сравнения. Однако на пути к этой цели предстоит решить множество вопросов, связанных с защитой персональных данных и разработкой сложных алгоритмов анализа.
Таким образом, успех законодательной инициативы зависит не только от ее принятия, но и от параллельного развития технологических и экспертных механизмов контроля. Пока такие системы не созданы, главной мерой защиты остается информированность граждан о новых видах мошенничества и критическое отношение к неожиданным звонкам и просьбам о переводе денег.
Больше интересных статей здесь: Новости.
Источник статьи: Артем Шейкин: фальшивые родственники воруют деньги, а поддельные знаменитости призывают к преступлениям.