Intel заявляет, что может обнаруживать дипфейковые видео в режиме реального времени

    0
    3


    Intel утверждает, что разработала модель искусственного интеллекта, которая может в режиме реального времени определять, использует ли видео технологию дипфейка, ища тонкие изменения цвета, которые были бы очевидны, если бы объект был живым человеком.

    FakeCatcher утверждает, что гигант по производству микросхем способен возвращать результаты за миллисекунды и иметь точность 96 процентов.

    В последние годы возникла обеспокоенность по поводу так называемых дипфейковых видео, в которых используются алгоритмы искусственного интеллекта для создания поддельных кадров с людьми. Основное беспокойство было сосредоточено на том, что он потенциально может использоваться для того, чтобы политики или знаменитости выглядели так, будто они озвучивают заявления или делают то, чего они на самом деле не говорили и не делали.

    «Видео дипфейков сейчас повсюду. Вы, вероятно, уже видели их; видео знаменитостей, делающих или говорящих то, чего они на самом деле никогда не делали», — сказал научный сотрудник Intel Labs Илке Демир. И это касается не только знаменитостей, жертвами становятся даже обычные граждане.

    По словам производителя чипов, некоторые детекторы, основанные на глубоком обучении, анализируют необработанные видеоданные, чтобы попытаться найти контрольные признаки, которые позволили бы идентифицировать их как подделку. Напротив, FakeCatcher использует другой подход, включающий анализ реальных видео на наличие визуальных признаков, указывающих на то, что объект реален.

    Это включает в себя тонкие изменения цвета в пикселях видео из-за кровотока от сердца, перекачивающего кровь по всему телу. По словам Intel, эти сигналы кровотока собираются со всего лица, и алгоритмы переводят их в пространственно-временные карты, что позволяет модели глубокого обучения определять, является ли видео реальным или нет. Некоторые инструменты обнаружения требуют, чтобы видеоконтент был загружен для анализа, а затем ждал результатов несколько часов.

    Тем не менее, не исключено, что любой, у кого есть мотивы для создания подделок видео, может разработать алгоритмы, которые могут обмануть FakeCatcher, при наличии достаточного времени и ресурсов.

    Вполне естественно, что Intel широко использовала свои собственные технологии при разработке FakeCatcher, включая набор инструментов с открытым исходным кодом OpenVINO для оптимизации моделей глубокого обучения и OpenCV для обработки изображений и видео в реальном времени. Команды разработчиков также использовали платформу Open Visual Cloud для создания интегрированного программного стека для процессоров Intel Xeon Scalable. Программное обеспечение FakeCatcher может одновременно запускать до 72 различных потоков обнаружения на процессорах Xeon Scalable 3-го поколения.

    По данным Intel, существует несколько потенциальных вариантов использования FakeCatcher, в том числе предотвращение загрузки пользователями вредоносных дипфейковых видео в социальные сети и помощь новостным организациям в предотвращении трансляции манипулируемого контента. ®

    Предыдущая статьяCallisto Protocol показывает, как звуковой дизайн превращает игру из страшной в
    Следующая статьяКак изменить метод двухфакторной аутентификации в Твиттере
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.