Содержание
Ключевые моменты из статьи
#1: Deepfake-as-a-Service — демократизация преступности. Готовые DaaS-киты стоят $200–1500 и позволяют мошенникам проводить сотни автоматизированных атак в день.
#2: Человек уже проиграл. Даже специалист по KYC определяет современный дипфейк с точностью 50–60% — хуже, чем случайный выбор. 3D-анализ микродвижений, текстур и биомеханики остаётся одной из последних линий защиты.
#3: Статическая защита против динамических атак. Система проверяет по одному и тому же набору алгоритмов. Мошенники используют ИИ-агентов, которые адаптируют атаки в реальном времени.
#4: Защита от дипфейков требует 4 независимых уровней, работающих одновременно. Только система, где отказ одного фильтра компенсируется срабатыванием другого (реальное время → 3D-анализ → поведенческая аналитика → экспертный триаж), может достичь 99%+ точности.

Январь 2026 года. На десятках тысяч камер в личных кабинетах казино, бирж и финтех-приложений появляются лица людей, которых никогда не существовало — искусная работа нейросетей. Система проверяет селфи, находит совпадение с фото в паспорте, аккаунт верифицирован. Начинается отмывание денег.
По данным Group-IB, между январём и августом 2025 года крупная финансовая компания зафиксировала 8065 попыток обхода проверок живого лица (liveness detection) с использованием фейковых изображений, созданных с помощью ИИ.
Системы защиты всё чаще не в состоянии различить фейк, созданный передовыми LLM-моделями, и реальный документ с селфи.
Несколько лет назад создать качественный дипфейк могли только специалисты на дорогом оборудовании. Сегодня это за несколько минут может повторить почти любой владелец мобильного устройства.
Во второй половине 2025 года индустрия Deepfake-as-a-Service революционировала. Даркнет полон объявлениями о продаже готовых наборов (DaaS-kits) для генерации фейковых документов и селфи. Цена за пакет инструментов — от $200 до $1500. Окупаемость достигается после 3–5 успешных взломов. ProKYC и множество безымянных инструментов позволяют быстро создавать реалистичные паспорта, водительские права и видеоматериалы. Автоматизированные системы, управляемые ИИ-агентами, могут сгенерировать сотни вариантов поддельного контента в день, экспериментируя, пока хотя бы один не пройдёт фильтр.
Модели вроде OpenAI Sora 2, Google Veo 3 и специализированных deepfake-генераторов перешагнули «порог неразличимости». Это значит:

Внешние признаки: Документ выглядит идеально. Водяные знаки на месте, микропечать видна, серия и номер пропечатаны чётко.
Как выявили подделку: Анализ EXIF-данных показал обработку через Photoshop с версией, нетипичной для полевой съёмки. Линии безопасности при увеличении выдали растеризацию — характерный признак синтеза через GAN. Спектроскопический анализ пиксельных шумов выявил искусственный паттерн, невозможный при реальной фотографии физического документа.
Важно: Статические системы ловят такие фейки. Но когда лицо на документе и лицо на селфи могут быть одновременно синтетическими и согласованными с точностью до пикселя — ситуация усложняется.
Внешние признаки: Селфи выглядит живым. Естественное освещение, тёплые тона кожи, в глазах отражается свет. При динамической проверке лицо моргает, улыбается, двигается убедительно.
Как выявили подделку: Анализ микродвижений выявил механистичность моргания — синтетическое лицо моргает слишком идеально, слишком синхронно. Отсутствуют микротреморы век, присущие всем живым людям. Анализ глубины (depth mapping) показал нарушения объёма вокруг век и скул.
Важно: Поведенческая аналитика становится критична — проверка не просто движения, а механики.
Внешние признаки: Реальный скан паспорта, найденный или украденный, с подставленным лицом другого человека через FaceSwap.
Как выявили подделку: Анализ соответствия между лицом и геометрией черепа выявил несовпадение: скуловые кости, форма подбородка, расположение ушей не совпадали. При трёхмерной реконструкции это видно явно. Кожные текстуры не совпадали с освещением фона паспорта.
Важно: Face-swap цепляется на несовпадение трёхмерной геометрии и текстур — одно из немногих мест, где распознавание изображений ещё держит линию обороны.
Пример объявления в даркнете о продаже DaaS-kit
ProKYC v3.2 + Sora 2 API интеграция
✓ Генерирует паспорта с 99.2% схожестью
✓ Автоматический retry при отклонении
✓ Поддержка 45+ типов документов
✓ API для масштабирования атак
Цена: $350 / месяц
Тестовые результаты: 7 из 10 фейков прошли через KYC «крупной криптобиржи»
Большинство криптоплатформ, кошельков и бирж используют стандартный стек: проверка документа (OCR + защитные элементы), сравнение лиц (facial matching), liveness detection, поведенческая аналитика и AML-скрининг. На бумаге — неуязвимо. На практике — лотерея.
Проблема №1: Адаптивные системы атак. Мошенники итеративно улучшают дипфейк: генерируют → проверяют → если не прошло, меняют освещённость, угол, тон кожи → повторяют. В среднем требуется 5–10 попыток. Система защиты статична — атака динамична.
Проблема №2: Ложное чувство безопасности от «проверенных» алгоритмов. FaceNet и ArcFace уязвимы к targeted adversarial attacks — особым изображениям, которые алгоритм воспринимает как другого человека. Deepfake-генераторы научились использовать эти уязвимости.
Проблема №3: Люди больше не могут быть последней линией защиты. Точность специалиста по KYC — 50–60%, практически случайный выбор. Среднее время анализа одного кадра — 2,5 минуты. Вывод: человек как единственная последняя линия защиты мертв.
Проблема №4: Метаданные обманывают сами себя. Современные генераторы создают видео с корректными EXIF-данными, правильными маркерами камеры и следами обработки, имитирующими обычный смартфон.
Статистика 2025–2026 годов:
60–70% всех попыток фейка умирает сразу, если пользователи фотографируют документы и себя в режиме реального времени через WebApp. Загрузка сохранённого файла полностью отключена — снимок захватывается только через нативный API камеры. Мошенник не может просто отправить готовый синтетический фейк: он должен генерировать его в реальном времени, что требует радикально иной подготовки.
Система анализирует не просто 2D-изображение, а восстанавливает трёхмерную модель головы и отслеживает микродвижения:
Даже при идеальных селфи и документе система проверяет поведение пользователя: анализ девайса (ОС, история покупки), анализ сессии (прокси, геолокация), анализ времени (часовой пояс, история), анализ паттернов взаимодействия (скорость заполнения, что скопировали, что набирали вручную).
Подделать поведение реального человека, включая девайс, историю браузера, географию и моторику — это иной уровень сложности.
Система интегрирует все сигналы и строит граф подозрений. Ключевой фактор — не автоматизм действий, а интеллектуальный триаж: система знает, когда полагаться на автоматику, а когда привлечь человека. Если селфи имеет 87% вероятность быть фейком, но поведение полностью натурально — заявка идёт на ручную проверку, не блокируется автоматически.
Компании, внедрившие полный стек защиты, фиксируют драматический сдвиг:
Любой файл, фотография и видео лица рассматривается как потенциально синтетический до тех пор, пока не будет доказано обратное.
Путь защиты от deepfake-атак проходит через:
Многоуровневая защита требует от мошенника одновременно подделать лицо в 3D, механику движений, отпечаток устройства, паттерны поведения и данные сессии. Это уже коммерчески нецелесообразная операция.
Beorg.Идентификация (KYC) — платформа для цифровой верификации с помощью ИИ, логических проверок, анализа метаданных, продвинутых технологий 3D-верификации и проверок по базам. Распознаёт 40+ типов российских документов и документы, удостоверяющие личность граждан 100+ стран. Система проверяет лица на живость, блокируя дипфейк-изображения, обеспечивает AML-скрининг по российским и международным базам. Соответствует ФЗ-152, помогает соблюдать ФЗ-115.
Главные преимущества:
Результат: система отправляет на экспертную проверку за 30 секунд, специалист блокирует аккаунт за 2 минуты. Та же атака без стека защиты прошла бы за пару минут.
Результат:
Deepfake-as-a-Service (DaaS) — готовые наборы инструментов для создания поддельных документов и селфи, продающиеся в даркнете за $200–1500. Они позволяют мошенникам генерировать сотни вариантов фейков в день с помощью ИИ-агентов. По данным Group-IB, только одна финансовая компания зафиксировала 8065 попыток обхода liveness detection за 8 месяцев 2025 года. 42,5% попыток мошенничества сегодня используют ИИ.
Современные LLM-модели перешагнули «порог неразличимости»: синтетические лица не имеют артефактов мерцания или деформации, голос клонируется за секунды по нескольким секундам аудио. Эксперимент показал: 12 верификаторов определяли дипфейк с точностью 51% (хуже случайного выбора), тратя 2,5 минуты на один кадр. Человек как единственная последняя линия защиты — неэффективен.
1) Адаптивные атаки: ИИ-агенты мошенников итеративно подбирают вариант, проходящий защиту (в среднем 5–10 попыток). Система защиты статична, атака динамична. 2) Известные алгоритмы (FaceNet, ArcFace) уязвимы к targeted adversarial attacks. 3) Человек-верификатор ненадёжен: точность 50–60%, почти случайный выбор. 4) Метаданные подделываются: генераторы создают видео с корректными EXIF-данными, имитирующими реальный смартфон.
Эффективная защита состоит из 4 уровней: 1) снимок только через нативную камеру в реальном времени (убивает 60–70% атак); 2) трёхмерный анализ лица и микродвижений — синтетическое лицо моргает «идеально», реальное — с микротреморами; 3) поведенческая аналитика (девайс, геолокация, паттерны заполнения форм); 4) интеллектуальный триаж — спорные случаи направляются на ручную проверку, а не блокируются автоматически.
Компании с полным стеком защиты сокращают прошедшие дипфейк-атаки с 2,3% до 0,14%. Ложные срабатывания для легитимных пользователей падают на 76%, конверсия остаётся стабильной. Атака, которая раньше проходила за несколько минут, теперь блокируется за 30 секунд с отправкой на экспертную проверку.
Beorg.Идентификация — KYC-платформа с ИИ, логическими проверками, 3D-верификацией лица, liveness detection и AML-скринингом. Распознаёт 40+ типов российских документов и документы 100+ стран. Проверка аппликанта занимает 30 секунд — 2 минуты. Соответствует ФЗ-152 и ФЗ-115, имеет сертификаты ФСТЭК и лицензию ФСБ. Экономия на борьбе с фейками — до 90%.
Работаем только с юридическими лицами
Работаем только с юридическими лицами.
Работаем только с юридическими лицами.
Ошибка: Контактная форма не найдена.
Ошибка: Контактная форма не найдена.
Ошибка: Контактная форма не найдена.