
Еще пару лет назад поддельное видео можно было узнать по кривой анимации рта или странным движениям. Сейчас все изменилось.
Google выпустил Veo 3 и Nano Banana. OpenAI запустил Sora с функцией «камео» — можно взять лицо любого человека и вставить в любую сцену. Midjourney тоже не отстает. И все эти инструменты доступны каждому, у кого есть смартфон.
Профсоюз актеров уже бьет тревогу. Они требуют от OpenAI усилить защиту. Потому что завтра любой сможет снять «фильм» с Брэдом Питтом, не платя ему ни цента.
Водяные знаки работают, но не всегда
OpenAI добавляет на все видео из Sora белую иконку облака, которая прыгает по краям. Как в TikTok, только подвижная.
Google Nano Banana тоже ставит водяные знаки автоматически. Meta помечает ИИ-контент в Instagram и Facebook. YouTube и TikTok ввели свои системы маркировки.
Но есть проблема. Существуют приложения для удаления водяных знаков. Загрузил видео, нажал кнопку — и никаких следов ИИ.
Метаданные расскажут правду
У каждого файла есть метаданные — скрытая информация о том, как он создан. Для обычных фото там записана камера, дата, место съемки. Для ИИ-видео — программа, которая его сгенерировала. Все видео Sora содержат специальные метки C2PA. Есть сайты, где можно проверить любой файл на наличие таких меток.
Правда, и тут есть загвоздка. Видео от Midjourney эти сервисы не распознают. А если видео пропустить через любой редактор и пересохранить — метаданные исчезнут.
На что смотреть, чтобы не попасться
Специалисты советуют обращать внимание на детали. Искаженный текст на вывесках. Предметы, которые исчезают или появляются из ниоткуда. Движения, которые нарушают законы физики.
Но главный совет — включать голову. Если Павел Дуров вдруг начал продавать чудо-таблетки для похудения, это повод задуматься.
«Белорусские компании все чаще просят консультации по цифровой безопасности. Дипфейки с руководителями компаний могут использовать для мошенничества или шантажа. Мы рекомендуем обучать сотрудников распознавать подделки и вводить дополнительные способы проверки важных сообщений», — объясняет эксперт ultra.by Денис Хилько.
История с генеральным директором OpenAI
Сэма Альтмана, главу OpenAI, журналисты спросили напрямую — что делать с поддельными видео? Его ответ многих удивил.
Он сказал, что обществу придется привыкнуть. Скоро любой сможет создать фейковое видео про кого угодно. И единственная защита — критическое мышление.
До появления Sora создать убедительный дипфейк могли только профессионалы. Теперь это может школьник за пять минут.
Что происходит в Беларуси
Компания B2B.ULTRA.BY отмечает рост запросов на оборудование для анализа видеоконтента. Банки, госструктуры, крупные компании — все хотят защититься от подделок.
Пока что большинство дипфейков в интернете — это развлекательный контент. Политики поют песни, знаменитости танцуют странные танцы. Но эксперты предупреждают — скоро начнется использование в мошеннических схемах.
Видите видео, где известный человек рекламирует что-то странное? Проверьте его официальные аккаунты. Не сказал ничего подобного? Значит, фейк.
Получили видеообращение от начальника с просьбой срочно перевести деньги? Позвоните ему и уточните. Лучше показаться параноиком, чем потерять деньги.
Хотите поделиться интересным видео? Сначала подумайте — а может ли это быть правдой? Если сомневаетесь, лучше не распространять.
Будущее уже наступило
Все крупные техкомпании вложились в разработку ИИ для создания видео. И это только начало. Скоро отличить настоящее видео от поддельного станет практически невозможно. Даже эксперты признают, что иногда ошибаются.
Единственное, что нас спасет — здравый смысл и привычка проверять информацию. Ну и помнить, что если что-то выглядит слишком хорошо или слишком плохо, чтобы быть правдой — скорее всего, так и есть.
Технологии развиваются быстрее, чем мы успеваем к ним адаптироваться. Но выбора нет. Либо научимся жить в мире, где любое видео может быть фейком, либо станем жертвами мошенников.
Выбор за нами.
