Дипфейки и ИИ-мошенничество: как защититься от обмана в эпоху искусственного интеллекта

С развитием технологий искусственного интеллекта распознать подделку становится все сложнее. МВД России предупреждает граждан о новых схемах мошенников, использующих дипфейки — реалистичные фото, видео и аудиозаписи, сгенерированные нейросетями. Злоумышленники часто применяют эмоциональные манипуляции, используя фразы вроде: «У меня проблемы, помоги», «Это срочно, переведи на эту карту» или «Мама/папа, я в беде, срочно нужны деньги».

1. Как работают мошенники?

Аферисты также имитируют голоса и видеосообщения начальников, сопровождая их инструкциями: «Это ваш руководитель, в связи с проверкой с вами сейчас будет связываться сотрудник ФСБ, обязательно с ним поговорите». Дипфейки — это медиафайлы, созданные с помощью ИИ, которые находят применение в кино, рекламе, образовании и науке. Например, исторических личностей «оживляют» для образовательных или развлекательных целей. Однако эту же технологию активно используют преступники.

По данным Forbes, в 2024 году число мошенничеств с дипфейками выросло в 2,3 раза по сравнению с предыдущим периодом. Технология стала доступнее, а на создание фальшивого видео теперь требуется всего 5–7 минут.

2. Реальные случаи обмана

На этой неделе россиянин Виталий потерял 3 миллиона рублей, пытаясь купить автомобиль из Европы через Telegram-канал. Он заключил договор с фирмой «ФОР», оплатил пошлины, но позже выяснилось, что фотографии «машины на таможне» были сгенерированы нейросетью, а автомобиль вообще не пересекал границу. Пострадавший обратился в полицию.

В сентябре житель Петрозаводска получил в мессенджере сообщение от «подруги» с просьбой одолжить 20 тысяч рублей. После перевода денег он обнаружил 15 пропущенных звонков от настоящей подруги. В итоге он перевел 40 600 рублей, а позже выяснилось, что аккаунт был взломан, а мошенники использовали дипфейк с лицом и голосом собеседницы. Видеосообщение было настолько реалистичным, что мужчина не заподозрил обмана.

3. Как фильтровать информацию в соцсетях?

Дамир Фейзуллов, директор по SMM и ORM в коммуникационном агентстве PR Partner, в интервью «Свободной Прессе» объяснил, как не стать жертвой дезинформации. Раньше фейки создавались вручную и были легко узнаваемы, но сегодня нейросети генерируют контент, который визуально почти неотличим от реального. Мы перестаем доверять своим глазам, и это — главный вызов современности.

Чтобы не утонуть в потоке недостоверной информации и не впасть в паранойю, важно выработать внутренние фильтры:

  • Проверять первоисточники.
  • Задавать вопрос «Кому это выгодно?».
  • Не спешить с выводами, особенно в соцсетях, где эмоции часто подменяют факты.

Полезно подписываться на профессиональные медиа, где соблюдается редакционная этика, и учиться распознавать манипуляции: кликбейт, обрезанный контекст, эмоциональные формулировки.

4. Как воспринимать контент из соцсетей?

Контент в соцсетях стоит рассматривать как поток личных интерпретаций, а не объективную реальность. Это фрагменты мозаики, а не целостная картина. Мы видим не мир таким, какой он есть, а то, как другие его переживают — через фильтры, алгоритмы и личные мотивы. Поэтому критическое мышление и время на обработку информации особенно важны, особенно если контент вызывает сильную эмоциональную реакцию.

Обратите внимание: Пенсионеры и получатели детских пособий лишены возможности получать выплаты на карты visa и mastercard.

5. Как распознать творения ИИ?

Чтобы отличить ИИ-сгенерированные фото и видео, обращайте внимание на детали, нарушающие законы реального мира:

  • В изображениях: лишние или сросшиеся пальцы, нереалистичные текстуры кожи, расплывчатые надписи, несоответствие теней и источников света.
  • В видео: неестественная мимика, эффект «пластиковой» кожи, анимация глаз без живого взгляда, искажения движений.

ИИ пока плохо справляется с массовыми сценами: предметы или люди в кадре могут «схлопываться», исчезать или дублироваться. Если в кадре происходит что-то заведомо неправдоподобное (например, панда едет на самокате в метро) — это повод задуматься, прежде чем делиться таким контентом.

6. Влияние ИИ на наше восприятие мира

Максим Куличенко, руководитель команды в сфере ИИ в компании TripleTen, отмечает, что главная сложность — все труднее отличить контент, созданный ИИ. Лингвистические исследования показывают, что около 40% научных публикаций созданы с участием ИИ, а почти 50% всей текстовой информации в интернете может быть сгенерировано нейросетями. В топовых поисковых результатах такой контент часто деприоритезируется, но все же составляет около 15%.

Все больше людей строят эмоциональную связь с ИИ, используя его как психолога или даже партнера. Само по себе это не плохо, но важно не терять связь между людьми. Чем больше внимания мы уделяем ИИ, тем меньше времени остается на настоящие человеческие отношения.

7. Как не стать параноиком?

Куличенко советует помнить, что единственная цель соцсетей — удерживать ваше внимание. Алгоритмы рекомендаций спроектированы так, чтобы вы оставались в ленте как можно дольше. Наш мозг лучше всего удерживает внимание на угрозах и неожиданных наградах, поэтому лента — это чередование тревожных новостей и милых видео.

Простое правило: не заходите в соцсети, пока не поймете, что именно хотите там сделать. Заранее решите, кому написать или что посмотреть, и не полагайтесь на рекомендации. Если это видеосервис, ищите конкретный контент, а не бесцельно листайте ленту.

Больше интересных статей здесь: Новости.

Источник статьи: Отличить реальные фото и видео от творений искусственного интеллекта все сложнее, возможно ли не стать жертвой обмана.