Отличить сгенерированное видео от снятого вживую становится всё сложнее, но пока есть ряд признаков, на которые обращают внимание специалисты и внимательные зрители.

Часто выдают себя мелкие несоответствия реальности. У людей могут «плавать» черты лица между кадрами, слегка меняться форма глаз, зубов, ушей, появляться лишние или странно двигающиеся пальцы, украшения или детали одежды могут пропадать и появляться. В живой съёмке такие скачки редки, если это не монтаж.
Движение и физика иногда выглядят не совсем естественно. Волосы, вода, дым, тени и отражения могут вести себя чуть «не по законам физики». Например, тень может не совпадать с источником света, а отражение в зеркале — запаздывать или быть неточным.
Свет и фокус тоже дают подсказки. В AI-видео освещение может быть слишком идеальным и одновременно не совсем логичным, а глубина резкости — кинематографичной там, где обычная камера так не сняла бы. Иногда фон выглядит как правдоподобная, но всё же картинка, а не реальное пространство.
Звук, если он есть, нередко содержит артефакты. Речь может быть слишком ровной, без естественных микропауз и дыхания, либо губы чуть расходятся с произносимыми звуками.
Есть и технический подход: анализ метаданных файла и специальные детекторы AI-контента. Они ищут цифровые «подписи» генерации, но ни один метод пока не даёт 100% гарантии.
Главная тенденция в том, что с каждым годом отличить на глаз труднее. Поэтому всё большее значение имеет источник видео и контекст. Если ролик вызывает сильные эмоции или выглядит как сенсация, разумно проверить, публиковали ли его надёжные СМИ и есть ли подтверждения из независимых источников.
существуют сейчас программы и сервисы, которые помогают определять, сгенерировано ли видео искусственным интеллектом (часто такие инструменты называют детекторами deepfake или AI-video detection). Однако никакая система пока не даёт стопроцентной гарантии, особенно если видео создано очень качественной нейросетью. Вот актуальные варианты:
1) Проверка водяных меток AI
• Google Gemini — можно загрузить короткое видео (до ~90 с и ~100 МБ) в приложение и система проверит, есть ли в нём невидимые водяные метки SynthID, которые Google добавляет в генерированные AI-видео и изображения. Это помогает определить, создано ли видео с помощью Google AI-инструментов.
2) Онлайн-детекторы видео
• ScreenApp AI Video Detector — бесплатный онлайн-инструмент, который анализирует видео на предмет признаков синтетического контента (например, неправильная синхронизация губ, аномалии движения и цифровые артефакты) и оценивает вероятность, что оно создано ИИ. Результат показывает процент вероятности дипфейка.
• Другие онлайн-детекторы и сервисы, которые анализируют видеофайл или ссылку, существуют — они используют машинное обучение, биометрические паттерны и визуальные аномалии для оценки достоверности.
3) Профессиональные deepfake-детекторы
• Есть более серьёзные инструменты, например Attestiv Video, которые используются организациями и компаниями для проверки подлинности видео (включая AI-генерацию и монтаж). Они делают подробный анализ и дают отчёт с уровнем подозрительности.
• В корпоративной или исследовательской среде есть продукты вроде DeepDetector, Phocus, Reality Defender, которые оценивают вероятность манипуляции в режиме реального времени для видео и аудио.
Важно понимать:
— Ни один из этих инструментов не гарантирует 100 % точности, особенно если видео создано современными моделями без водяных меток.
— Некоторые детекторы работают лучше с определёнными генераторами, а другие — с общими визуальными аномалиями.
— Часто полезно использовать несколько инструментов и учитывать результаты вместе с анализом исходного источника и контекста публикации.