Преступный потенциал дипфейка в современном мире

Научная статья
DOI:
https://doi.org/10.60797/IRJ.2026.164.34
Выпуск: № 2 (164), 2026
Предложена:
31.01.2026
Принята:
11.02.2026
Опубликована:
17.02.2026
Правообладатель: авторы. Лицензия: Attribution 4.0 International (CC BY 4.0)
37
1
XML
PDF

Аннотация

Статья посвящена уголовно-правовому анализу использования технологий дипфейков в преступной деятельности в условиях цифровизации общественных отношений. Рассматривается криминогенный потенциал технологий дипфейк, отмечается отсутствие сформировавшейся судебной практики, что обусловливает сложности квалификации. Анализируются основные направления преступного применения дипфейков, включая обход систем биометрической идентификации, использование методов социальной инженерии и создание компрометирующих материалов. Выявляются ключевые проблемы уголовно-правовой регламентации, связанные с квалификацией деяний и доказыванием, формулируются предложения по совершенствованию действующего законодательства.

1. Введение

Стремительное развитие технологий искусственного интеллекта и их активное использование в преступной деятельности ставят перед современным уголовным правом принципиально новые вызовы, связанные с квалификацией деяний и доказыванием вины. Особую актуальность в этом контексте приобретает феномен дипфейка, подрывающий традиционные представления о доказательствах, средствах и способах совершения преступлений

.

2. Основные результаты

К 2026 году ландшафт угроз информационной безопасности претерпел фундаментальные изменения. Прогнозы аналитиков Gartner и Europol

,
подтвердились: использование искусственного интеллекта (ИИ) в преступных целях перешло из фазы экспериментов в фазу индустриализации. Если в начале 2020-х годов создание качественного дипфейка требовало мощных видеокарт и дней рендеринга, то сегодня облачные сервисы Dark Web предлагают услуги «Deepfake-as-a-Service» в режиме реального времени.

Проблема перестала быть теоретической. Согласно ретроспективным данным отчета Sumsub Identity Fraud Report, еще в 2023 году количество дипфейков в сфере верификации личности выросло в 10 раз, а в 2026-м мы будем наблюдать полную автоматизацию атак на системы KYC (Know Your Customer) банков и государственных сервисов

.

Это означает, что мошенничество будет осуществляться не через заранее записанные видео, а через живое общение в чатах и видеозвонках. Нейросети будут способны генерировать диалоги, адаптируясь к эмоциональным реакциям жертвы в реальном времени

.

Для понимания масштаба угрозы необходимо обратиться к ключевым прецедентам, которые формируют современную судебную практику, показывая уязвимость правовой системы.

Преступный потенциал технологии дипфейк реализуется в трех основных направлениях, которые требуют квалификации с точки зрения уголовного права

:

1. Биометрический взлом и хищение: обход систем FaceID и VoiceID для доступа к банковским счетам.

2. Социальная инженерия нового уровня: звонки от «родственников» или «генеральных директоров» с полной имитацией голоса и мимики.

3. Дискредитация и шантаж: создание порнографических материалов или компрометирующих видео с участием жертвы.

Показательным примером криминальной инженерии нового типа стало ограбление транснациональной компании Arup (Гонконгский филиал). Сотрудник бухгалтерии перевел мошенникам 25,6 млн. долларов после видеоконференции, в которой участвовал финансовый директор и несколько коллег. Все участники звонка, кроме жертвы, были дипфейками, сгенерированными в реальном времени на основе публичных видеозаписей руководства

. Данный кейс в контексте правоприменения демонстрирует переход от статьи 159.3 УК РФ (мошенничество с использованием ЭСП) к более сложным составам, где орудием преступления выступает не просто код, а синтетическая личность.

Актуальным остается распространение сервисов типа «Nudify» (автоматическое удаление одежды на фото), что привело к всплеску вымогательств

. Преступники требуют выкуп за непубликацию сгенерированного порноконтента. По данным ФБР и Европола, количество обращений по поводу «сексторшн» с использованием ИИ выросло на 300% за последние два года.

Правоприменительная практика сталкивается с проблемой сбора доказательств. Обычный осмотр видеозаписи следователем больше не эффективен

. На помощь приходят специализированные программные комплексы, которые должны стать обязательным инструментом экспертов-криминалистов:

1. Intel FakeCatcher: первая в мире система, работающая в реальном времени. Принцип действия основан на фотоплетизмографии (PPG) — программа анализирует микроизменения цвета кожи, вызванные кровотоком. На реальном видео «пульс» виден на пиксельном уровне, на дипфейке — отсутствует.

2. Microsoft Video Authenticator: анализирует границы смешения пикселей и артефакты сжатия, оценивая вероятность искусственного вмешательства («индекс достоверности»).

3. Reality Defender: мультимодальная платформа, используемая в банковском секторе для выявления синтетического голоса (audio deepfakes) при телефонном банкинге.

Однако злоумышленники в 2026 году используют методы «состязательного обучения» (adversarial attacks), специально добавляя шумы в видео, чтобы обмануть детекторы. Это создает бесконечную «гонку вооружений».

Несмотря на рост числа общественно опасных деяний, совершаемых с использованием дипфейков, единообразная судебная практика по данной категории дел в настоящее время не сформировалась. На законодательном уровне предпринимались попытки урегулировать указанную проблему. В Государственной Думе Российской Федерации высказывались предложения о введении уголовной ответственности за использование дипфейков, однако при обсуждении инициативы не был выработан однозначный подход к определению соответствующего состава преступления, не определена статья УК РФ для квалификации таких деяний. В результате правоприменитель вынужден прибегать к квалификации по уже существующим нормам уголовного закона, что обусловливает необходимость анализа их применимости к преступлениям, совершаемым с использованием технологий синтетического медиаконтента.

В российском правовом поле деяния с использованием дипфейков балансируют между статьями 128.1 (Клевета), 207.3 (Публичное распространение заведомо ложной информации) и 159 (Мошенничество), однако сложность технической атрибуции автора дипфейк-модели затрудняет привлечение к ответственности. Действующий Уголовный кодекс РФ требует адаптации к реалиям автоматизированной преступности

.

Анализ правоприменительной практики и действующего законодательства свидетельствует о том, что использование дипфейков в преступной деятельности порождает ряд взаимосвязанных уголовно-правовых и уголовно-процессуальных проблем, требующих нормативного разрешения.

Так, совершение мошеннических и иных преступлений с применением технологии дипфейк характеризуется повышенной степенью подготовки и причиняет значительный ущерб доверию к цифровой среде, однако в уголовном законе отсутствуют специальные квалифицирующие признаки, позволяющие учесть данный способ совершения преступления, в связи с чем обоснованным представляется дополнение статьи 63 УК РФ положением о совершении преступления с использованием технологий искусственного интеллекта для подделки биометрических данных или голоса.

Одновременно возникает проблема определения уголовно-правового статуса изображения лица и голоса, которые, являясь биометрическими персональными данными, могут незаконно использоваться для обучения нейросетей и создания синтетического контента, однако их копирование не образует состава хищения в силу нематериального характера таких данных, что обусловливает необходимость введения самостоятельной нормы, криминализирующую «Незаконное использование биометрических параметров лица для создания синтетического контента, порочащего честь и достоинство или используемого в целях хищения» и устанавливающую ответственность за незаконное использование биометрических параметров лица в целях хищения либо дискредитации личности.

Существенные затруднения возникают и на стадии доказывания, поскольку визуальный осмотр аудиовизуальных материалов следователем утрачивает эффективность в условиях нейросетевого синтеза, что требует нормативного закрепления обязанности проведения автоматизированной технической экспертизы цифровых доказательств, в том числе путем внесения соответствующих уточнений в статью 74 УПК РФ.

3. Заключение

Индустриализация киберпреступности в 2026 году ставит перед юристами ультиматум: либо правовая система интегрирует технические знания и инструменты (Liveness Detection, водяные знаки C2PA) в процесс квалификации преступлений, либо мы столкнемся с кризисом доверия к любым цифровым доказательствам. Борьба с дипфейками лежит не только в плоскости IT, но и в плоскости модернизации уголовного закона, который должен четко сигнализировать: кража цифрового лица — это тяжкое преступление.

Метрика статьи

Просмотров:37
Скачиваний:1
Просмотры
Всего:
Просмотров:37