Борьба с Deepfake в процессе регистрации: как остановить мошенников в эпоху победивших нейросетей

27.01.2026

Ключевые моменты из статьи

#1: Deepfake-as-a-Service — демократизация преступности. Готовые DaaS-киты стоят $200–1500 и позволяют мошенникам проводить сотни автоматизированных атак в день.

#2: Человек уже проиграл. Даже специалист по KYC определяет современный дипфейк с точностью 50–60% — хуже, чем случайный выбор. 3D-анализ микродвижений, текстур и биомеханики остаётся одной из последних линий защиты.

#3: Статическая защита против динамических атак. Система проверяет по одному и тому же набору алгоритмов. Мошенники используют ИИ-агентов, которые адаптируют атаки в реальном времени.

#4: Защита от дипфейков требует 4 независимых уровней, работающих одновременно. Только система, где отказ одного фильтра компенсируется срабатыванием другого (реальное время → 3D-анализ → поведенческая аналитика → экспертный триаж), может достичь 99%+ точности.

Deepfake — борьба с мошенниками при регистрации

Начало: увидеть — значит не верить

Январь 2026 года. На десятках тысяч камер в личных кабинетах казино, бирж и финтех-приложений появляются лица людей, которых никогда не существовало — искусная работа нейросетей. Система проверяет селфи, находит совпадение с фото в паспорте, аккаунт верифицирован. Начинается отмывание денег.

По данным Group-IB, между январём и августом 2025 года крупная финансовая компания зафиксировала 8065 попыток обхода проверок живого лица (liveness detection) с использованием фейковых изображений, созданных с помощью ИИ.

Системы защиты всё чаще не в состоянии различить фейк, созданный передовыми LLM-моделями, и реальный документ с селфи.

Часть 1: нейросети научились прошивать защиту

Взлёт deepfake-as-a-Service и демократизация обмана

Несколько лет назад создать качественный дипфейк могли только специалисты на дорогом оборудовании. Сегодня это за несколько минут может повторить почти любой владелец мобильного устройства.

Во второй половине 2025 года индустрия Deepfake-as-a-Service революционировала. Даркнет полон объявлениями о продаже готовых наборов (DaaS-kits) для генерации фейковых документов и селфи. Цена за пакет инструментов — от $200 до $1500. Окупаемость достигается после 3–5 успешных взломов. ProKYC и множество безымянных инструментов позволяют быстро создавать реалистичные паспорта, водительские права и видеоматериалы. Автоматизированные системы, управляемые ИИ-агентами, могут сгенерировать сотни вариантов поддельного контента в день, экспериментируя, пока хотя бы один не пройдёт фильтр.

Почему современные LLM стали оружием в руках мошенников

Модели вроде OpenAI Sora 2, Google Veo 3 и специализированных deepfake-генераторов перешагнули «порог неразличимости». Это значит:

  • Синтетические лица без артефактов. Раньше дипфейк выдавало мерцание вокруг глаз, деформация челюсти, неестественные переходы кожи. Современные модели производят стабильные лица с правильной геометрией. Человеческий глаз больше не видит разницу.
  • Клонирование голоса за секунды. Нескольких секунд аудио достаточно, чтобы создать точный клон голоса с естественной интонацией, ритмом, паузами дыхания.
  • Агенты и масштаб. ИИ-агенты автоматизируют весь цикл атаки: генерируют сценарий, создают видео, синтезируют голос, упаковывают в пакет для KYC-атаки — всё за часы. Один преступник — тысячи атак.

Статистика deepfake-атак 2025-2026

3 примера, которые мы наблюдали в декабре 2025 — январе 2026

Пример 1: Паспорт «гражданина Сергея Волкова»

Внешние признаки: Документ выглядит идеально. Водяные знаки на месте, микропечать видна, серия и номер пропечатаны чётко.

Как выявили подделку: Анализ EXIF-данных показал обработку через Photoshop с версией, нетипичной для полевой съёмки. Линии безопасности при увеличении выдали растеризацию — характерный признак синтеза через GAN. Спектроскопический анализ пиксельных шумов выявил искусственный паттерн, невозможный при реальной фотографии физического документа.

Важно: Статические системы ловят такие фейки. Но когда лицо на документе и лицо на селфи могут быть одновременно синтетическими и согласованными с точностью до пикселя — ситуация усложняется.

Пример 2: Паспорт с лицом, созданным через Stable Diffusion XL

Внешние признаки: Селфи выглядит живым. Естественное освещение, тёплые тона кожи, в глазах отражается свет. При динамической проверке лицо моргает, улыбается, двигается убедительно.

Как выявили подделку: Анализ микродвижений выявил механистичность моргания — синтетическое лицо моргает слишком идеально, слишком синхронно. Отсутствуют микротреморы век, присущие всем живым людям. Анализ глубины (depth mapping) показал нарушения объёма вокруг век и скул.

Важно: Поведенческая аналитика становится критична — проверка не просто движения, а механики.

Пример 3: Паспорт «Полины Иванченко», созданный через фейс-своп

Внешние признаки: Реальный скан паспорта, найденный или украденный, с подставленным лицом другого человека через FaceSwap.

Как выявили подделку: Анализ соответствия между лицом и геометрией черепа выявил несовпадение: скуловые кости, форма подбородка, расположение ушей не совпадали. При трёхмерной реконструкции это видно явно. Кожные текстуры не совпадали с освещением фона паспорта.

Важно: Face-swap цепляется на несовпадение трёхмерной геометрии и текстур — одно из немногих мест, где распознавание изображений ещё держит линию обороны.

Пример объявления в даркнете о продаже DaaS-kit

ProKYC v3.2 + Sora 2 API интеграция
✓ Генерирует паспорта с 99.2% схожестью
✓ Автоматический retry при отклонении
✓ Поддержка 45+ типов документов
✓ API для масштабирования атак
Цена: $350 / месяц
Тестовые результаты: 7 из 10 фейков прошли через KYC «крупной криптобиржи»

Часть 2: почему стандартная защита не работает. Четыре критические уязвимости

Большинство криптоплатформ, кошельков и бирж используют стандартный стек: проверка документа (OCR + защитные элементы), сравнение лиц (facial matching), liveness detection, поведенческая аналитика и AML-скрининг. На бумаге — неуязвимо. На практике — лотерея.

Проблема №1: Адаптивные системы атак. Мошенники итеративно улучшают дипфейк: генерируют → проверяют → если не прошло, меняют освещённость, угол, тон кожи → повторяют. В среднем требуется 5–10 попыток. Система защиты статична — атака динамична.

Проблема №2: Ложное чувство безопасности от «проверенных» алгоритмов. FaceNet и ArcFace уязвимы к targeted adversarial attacks — особым изображениям, которые алгоритм воспринимает как другого человека. Deepfake-генераторы научились использовать эти уязвимости.

Проблема №3: Люди больше не могут быть последней линией защиты. Точность специалиста по KYC — 50–60%, практически случайный выбор. Среднее время анализа одного кадра — 2,5 минуты. Вывод: человек как единственная последняя линия защиты мертв.

Проблема №4: Метаданные обманывают сами себя. Современные генераторы создают видео с корректными EXIF-данными, правильными маркерами камеры и следами обработки, имитирующими обычный смартфон.

Статистика 2025–2026 годов:

  • 42,5% попыток мошенничества используют ИИ.
  • 29% ИИ-атак успешно проходят первые уровни защиты при только автоматизированных проверках.
  • 8065 попыток в одной компании за 8 месяцев.
  • Количество deepfake-изображений в интернете выросло на 1600%: с 500 тысяч в 2023 до 8 миллионов в 2025 году.

Часть 3: как остановить deepfake-атаки

Уровень 1: Требование «живого» снимка

60–70% всех попыток фейка умирает сразу, если пользователи фотографируют документы и себя в режиме реального времени через WebApp. Загрузка сохранённого файла полностью отключена — снимок захватывается только через нативный API камеры. Мошенник не может просто отправить готовый синтетический фейк: он должен генерировать его в реальном времени, что требует радикально иной подготовки.

Уровень 2: Трёхмерный анализ лица и микродвижений

Система анализирует не просто 2D-изображение, а восстанавливает трёхмерную модель головы и отслеживает микродвижения:

  • Восстановление 3D-формы лица из видеопотока.
  • Проверка стабильности 3D-модели — фейк «дёргается» при переходе между кадрами.
  • Анализ механики: моргание, движение челюсти, наклон головы должны быть физически возможны для живого человека.
  • Несколько обязательных движений: повернуть голову, моргнуть, улыбнуться.

Уровень 3: Кроссверификация и поведенческая аналитика

Даже при идеальных селфи и документе система проверяет поведение пользователя: анализ девайса (ОС, история покупки), анализ сессии (прокси, геолокация), анализ времени (часовой пояс, история), анализ паттернов взаимодействия (скорость заполнения, что скопировали, что набирали вручную).

Подделать поведение реального человека, включая девайс, историю браузера, географию и моторику — это иной уровень сложности.

Уровень 4: Экспертная система на основе многофакторных правил

Система интегрирует все сигналы и строит граф подозрений. Ключевой фактор — не автоматизм действий, а интеллектуальный триаж: система знает, когда полагаться на автоматику, а когда привлечь человека. Если селфи имеет 87% вероятность быть фейком, но поведение полностью натурально — заявка идёт на ручную проверку, не блокируется автоматически.

Результаты: что даёт комплексный подход

Компании, внедрившие полный стек защиты, фиксируют драматический сдвиг:

  • Прошедшие дипфейк-атаки сокращаются с 2,3% до 0,14% — экспоненциальное улучшение.
  • Ложные срабатывания для легитимных пользователей падают на 76% — конверсия стабильна, безопасность растёт.
  • Атака, которая раньше проходила за несколько минут, теперь блокируется за 30 секунд с отправкой на экспертную проверку.

Выводы: политика Zero Trust в криптоиндустрии

Любой файл, фотография и видео лица рассматривается как потенциально синтетический до тех пор, пока не будет доказано обратное.

Путь защиты от deepfake-атак проходит через:

  1. Устранение точек входа (только загрузка в реальном времени).
  2. Трёхмерную проверку изображений.
  3. Поведенческую аналитику.
  4. Интеллектуальный триаж (в критических случаях роль человека высока).
  5. Постоянное обновление и адаптацию.

Многоуровневая защита требует от мошенника одновременно подделать лицо в 3D, механику движений, отпечаток устройства, паттерны поведения и данные сессии. Это уже коммерчески нецелесообразная операция.

Beorg: надёжная технология верификации личности

Как работает Beorg?

Beorg.Идентификация (KYC) — платформа для цифровой верификации с помощью ИИ, логических проверок, анализа метаданных, продвинутых технологий 3D-верификации и проверок по базам. Распознаёт 40+ типов российских документов и документы, удостоверяющие личность граждан 100+ стран. Система проверяет лица на живость, блокируя дипфейк-изображения, обеспечивает AML-скрининг по российским и международным базам. Соответствует ФЗ-152, помогает соблюдать ФЗ-115.

Главные преимущества:

  • Экономия до 90% на борьбе с фейками в процессе идентификации.
  • Российская юрисдикция: распознавание паспорта РФ с гарантией качества, транслитерация по ГОСТ.
  • Антифрод-система, проверка аппликанта от 30 секунд до 2 минут.
  • Удобная интеграция по API и кастомизируемый WebApp.
  • Сертификаты ФСТЭК, лицензия ФСБ.

Как Beorg блокирует deepfake-атаку за 30 секунд

  1. Селфи поступает не как файл, а через нативный модуль камеры (перехватываем в исходнике).
  2. 3D-анализ восстанавливает трёхмерную геометрию лица — синтетическое «дёргается» при переходе кадров, реальное — стабильно.
  3. Система требует 3 естественных движения (повернуть голову, моргнуть, улыбнуться) — синтетическое лицо выполняет их идеально синхронно, настоящее — с микротреморами.
  4. Поведенческая аналитика: VPN из Нигерии при IP из Москвы, время регистрации 3 ночи, паттерны заполнения как у бота — всё это красные флаги.

Результат: система отправляет на экспертную проверку за 30 секунд, специалист блокирует аккаунт за 2 минуты. Та же атака без стека защиты прошла бы за пару минут.

Чек-лист: готова ли ваша платформа к deepfake-войне?

  • ◊ Загрузка файлов полностью отключена, все снимки — через нативную камеру приложения.
  • ◊ Система восстанавливает 3D-модель лица и отслеживает микродвижения.
  • ◊ Включена поведенческая аналитика (анализ девайса, геолокация, паттерны взаимодействия).
  • ◊ Предусмотрен интеллектуальный триаж — критические случаи идут на ручную проверку.
  • ◊ Система обновляется ежемесячно под новые типы атак.

Результат:

  • 0–1 пункта: ваша платформа в критической зоне риска.
  • 2–3 пункта: хорошее начало, но недостаточно.
  • 4–5 пунктов: вы в топ-10% по защите от deepfake.

Часто задаваемые вопросы

Что такое Deepfake-as-a-Service и насколько это опасно?

Deepfake-as-a-Service (DaaS) — готовые наборы инструментов для создания поддельных документов и селфи, продающиеся в даркнете за $200–1500. Они позволяют мошенникам генерировать сотни вариантов фейков в день с помощью ИИ-агентов. По данным Group-IB, только одна финансовая компания зафиксировала 8065 попыток обхода liveness detection за 8 месяцев 2025 года. 42,5% попыток мошенничества сегодня используют ИИ.

Почему человек больше не может надёжно определить дипфейк?

Современные LLM-модели перешагнули «порог неразличимости»: синтетические лица не имеют артефактов мерцания или деформации, голос клонируется за секунды по нескольким секундам аудио. Эксперимент показал: 12 верификаторов определяли дипфейк с точностью 51% (хуже случайного выбора), тратя 2,5 минуты на один кадр. Человек как единственная последняя линия защиты — неэффективен.

Каковы четыре главные уязвимости стандартной KYC-защиты?

1) Адаптивные атаки: ИИ-агенты мошенников итеративно подбирают вариант, проходящий защиту (в среднем 5–10 попыток). Система защиты статична, атака динамична. 2) Известные алгоритмы (FaceNet, ArcFace) уязвимы к targeted adversarial attacks. 3) Человек-верификатор ненадёжен: точность 50–60%, почти случайный выбор. 4) Метаданные подделываются: генераторы создают видео с корректными EXIF-данными, имитирующими реальный смартфон.

Как работает многоуровневая защита от дипфейков?

Эффективная защита состоит из 4 уровней: 1) снимок только через нативную камеру в реальном времени (убивает 60–70% атак); 2) трёхмерный анализ лица и микродвижений — синтетическое лицо моргает «идеально», реальное — с микротреморами; 3) поведенческая аналитика (девайс, геолокация, паттерны заполнения форм); 4) интеллектуальный триаж — спорные случаи направляются на ручную проверку, а не блокируются автоматически.

Какие результаты даёт комплексный подход к защите от дипфейков?

Компании с полным стеком защиты сокращают прошедшие дипфейк-атаки с 2,3% до 0,14%. Ложные срабатывания для легитимных пользователей падают на 76%, конверсия остаётся стабильной. Атака, которая раньше проходила за несколько минут, теперь блокируется за 30 секунд с отправкой на экспертную проверку.

Что такое Beorg.Идентификация и как она защищает от дипфейков?

Beorg.Идентификация — KYC-платформа с ИИ, логическими проверками, 3D-верификацией лица, liveness detection и AML-скринингом. Распознаёт 40+ типов российских документов и документы 100+ стран. Проверка аппликанта занимает 30 секунд — 2 минуты. Соответствует ФЗ-152 и ФЗ-115, имеет сертификаты ФСТЭК и лицензию ФСБ. Экономия на борьбе с фейками — до 90%.

Работаем только с юридическими лицами

Работаем только с юридическими лицами.

    На указанный вами email мы автоматически пришлем презентацию.

      На указанный вами email мы автоматически пришлем типовое ТЗ.

      Работаем только с юридическими лицами.

      Вся информация по трудоустройству на странице "Вакансии"

      Ошибка: Контактная форма не найдена.

      Ошибка: Контактная форма не найдена.

      Ошибка: Контактная форма не найдена.