Искусственный интеллект как новое оружие мошенников

17.12.2025 12:50

3 мин

Уголовное право

Еще недавно аферисты действовали по примитивным сценариям — представлялись сотрудниками банков и пугали «подозрительными операциями». Сегодня ситуация изменилась радикально.

Еще недавно аферисты действовали по примитивным сценариям — представлялись сотрудниками банков и пугали «подозрительными операциями». Сегодня ситуация изменилась радикально. Развитие искусственного интеллекта дало преступникам новые инструменты: поддельные голоса, видеодипфейки и реалистичные сообщения от «знакомых людей».
Для правоохранительных органов и юристов это стало новым вызовом, а для граждан — серьезной угрозой.

Разберем, как работают современные схемы обмана, какая ответственность за них предусмотрена и почему в зоне риска находится каждый.

Современные схемы: как обманывают с помощью ИИ

Одна из самых распространенных схем — имитация голоса близкого человека. Злоумышленникам достаточно нескольких коротких голосовых сообщений из социальных сетей или мессенджеров. С помощью нейросетей они воспроизводят голос:

  • ребенка;
  • супруга или супруги;
  • руководителя организации;
  • делового партнера.

Жертве поступает звонок или сообщение с тревожным содержанием: авария, задержание, проверка, срочная необходимость перевода денег. Высокая реалистичность голоса подавляет критическое мышление — человек реагирует эмоционально и действует быстро.

Еще один опасный тренд — видеодипфейки. Потерпевший получает видеосообщение от «начальника» или «чиновника» с просьбой срочно перечислить средства. Визуальное подтверждение усиливает доверие и снижает осторожность.

Предусмотрена ли уголовная ответственность?

Краткий ответ — да. И она весьма суровая.

Как правило, подобные действия квалифицируются по статье 159 УК РФ (мошенничество). В зависимости от обстоятельств и размера ущерба наказание может достигать 10 лет лишения свободы.

А если человек «всего лишь создал голос»?

Существует опасное заблуждение: если преступление совершено с помощью нейросети, то ответственность «размывается».
С точки зрения уголовного права это не так.

ИИ — не субъект преступления, а всего лишь инструмент. Ответственность несет тот, кто:

  • создал поддельный контент;
  • применил его для введения в заблуждение;
  • получил или пытался получить материальную выгоду.

Даже если человек не общался с потерпевшим напрямую, его роль может быть признана соучастием.

Почему такие дела трудно расследовать

Основные сложности связаны с техническими и организационными факторами:

  • использование подставных SIM-карт;
  • размещение серверов за пределами России;
  • применение криптовалют;
  • сложные цепочки переводов и посредников.

Тем не менее практика показывает: при наличии цифровых следов и финансовых транзакций подобные дела доходят до суда.

Пример из реальной судебной практики

В одном из регионов РФ было рассмотрено дело, связанное с ИИ-мошенничеством.

Злоумышленники получили доступ к голосовым сообщениям молодого мужчины в мессенджере — это были обычные бытовые фразы и поздравления. С помощью нейросети они воссоздали его голос и позвонили матери.

Разговор длился менее минуты.
Голос, полностью идентичный голосу сына, сообщил, что он попал в ДТП и срочно нуждается в деньгах, так как «долго говорить нельзя».

Женщина перевела более 900 000 рублей.

Впоследствии выяснилось:

  • никакой аварии не было;
  • аккаунт мужчины был взломан;
  • деньги прошли через цепочку банковских карт и были обналичены.

Следствие установило всех участников схемы. Суд квалифицировал их действия по ч. 3 ст. 159 УК РФ.
Один из фигурантов получил реальный срок лишения свободы — несмотря на то, что он «лишь настраивал нейросеть» и лично с потерпевшей не контактировал.

Что делать, если вы столкнулись с таким мошенничеством

  • Немедленно подать заявление в полицию — каждая минута имеет значение.
  • Сохранить все доказательства: записи разговоров, переписку, реквизиты счетов.
  • Обратиться в банк с заявлением о спорной операции.
  • Не пытаться вести переговоры с мошенниками — это почти всегда ухудшает ситуацию.

Итог

Искусственный интеллект сам по себе не является злом. Однако в руках преступников он превращается в эффективное средство обмана. Уголовное законодательство постепенно адаптируется к новым реалиям, а количество дел, связанных с ИИ-мошенничеством, будет неизбежно увеличиваться.

С уважением,
адвокат Владимир Гусев.

Статья была полезна?

Не нашли ответа? Задайте вопрос юристам

0 Отзывы
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все отзывы