Отличить сгенерированное видео от снятого вживую становится всё сложнее, но пока есть ряд признаков, на которые обращают внимание специалисты и внимательные зрители.

Часто выдают себя мелкие несоответствия реальности. У людей могут «плавать» черты лица между кадрами, слегка меняться форма глаз, зубов, ушей, появляться лишние или странно двигающиеся пальцы, украшения или детали одежды могут пропадать и появляться. В живой съёмке такие скачки редки, если это не монтаж.

Движение и физика иногда выглядят не совсем естественно. Волосы, вода, дым, тени и отражения могут вести себя чуть «не по законам физики». Например, тень может не совпадать с источником света, а отражение в зеркале — запаздывать или быть неточным.

Свет и фокус тоже дают подсказки. В AI-видео освещение может быть слишком идеальным и одновременно не совсем логичным, а глубина резкости — кинематографичной там, где обычная камера так не сняла бы. Иногда фон выглядит как правдоподобная, но всё же картинка, а не реальное пространство.

Звук, если он есть, нередко содержит артефакты. Речь может быть слишком ровной, без естественных микропауз и дыхания, либо губы чуть расходятся с произносимыми звуками.

Есть и технический подход: анализ метаданных файла и специальные детекторы AI-контента. Они ищут цифровые «подписи» генерации, но ни один метод пока не даёт 100% гарантии.

Главная тенденция в том, что с каждым годом отличить на глаз труднее. Поэтому всё большее значение имеет источник видео и контекст. Если ролик вызывает сильные эмоции или выглядит как сенсация, разумно проверить, публиковали ли его надёжные СМИ и есть ли подтверждения из независимых источников.

существуют сейчас программы и сервисы, которые помогают определять, сгенерировано ли видео искусственным интеллектом (часто такие инструменты называют детекторами deepfake или AI-video detection). Однако никакая система пока не даёт стопроцентной гарантии, особенно если видео создано очень качественной нейросетью. Вот актуальные варианты:

1) Проверка водяных меток AI

• Google Gemini — можно загрузить короткое видео (до ~90 с и ~100 МБ) в приложение и система проверит, есть ли в нём невидимые водяные метки SynthID, которые Google добавляет в генерированные AI-видео и изображения. Это помогает определить, создано ли видео с помощью Google AI-инструментов.

2) Онлайн-детекторы видео

• ScreenApp AI Video Detector — бесплатный онлайн-инструмент, который анализирует видео на предмет признаков синтетического контента (например, неправильная синхронизация губ, аномалии движения и цифровые артефакты) и оценивает вероятность, что оно создано ИИ. Результат показывает процент вероятности дипфейка.

• Другие онлайн-детекторы и сервисы, которые анализируют видеофайл или ссылку, существуют — они используют машинное обучение, биометрические паттерны и визуальные аномалии для оценки достоверности.

3) Профессиональные deepfake-детекторы

• Есть более серьёзные инструменты, например Attestiv Video, которые используются организациями и компаниями для проверки подлинности видео (включая AI-генерацию и монтаж). Они делают подробный анализ и дают отчёт с уровнем подозрительности.

• В корпоративной или исследовательской среде есть продукты вроде DeepDetector, Phocus, Reality Defender, которые оценивают вероятность манипуляции в режиме реального времени для видео и аудио.

Важно понимать:

— Ни один из этих инструментов не гарантирует 100 % точности, особенно если видео создано современными моделями без водяных меток.

— Некоторые детекторы работают лучше с определёнными генераторами, а другие — с общими визуальными аномалиями.

— Часто полезно использовать несколько инструментов и учитывать результаты вместе с анализом исходного источника и контекста публикации.