Команда Массачусетского технологического института предлагает PhotoGuard для предотвращения дипфейковых моделей искусственного интеллекта

    0
    7

    [ad_1]

    Ученые-компьютерщики утверждают, что они придумали способ помешать системам машинного обучения манипулировать изображениями в цифровом виде и создавать дипфейки.

    В наши дни вы можете не только создавать изображения с нуля, используя модели ИИ — просто дайте им письменное описание, и они создадут соответствующие изображения — вы также можете манипулировать существующими изображениями, используя ту же технологию. Вы можете дать этим обученным системам изображение и описать, как вы хотите его изменить, или использовать графический интерфейс, чтобы управлять ими, и они работают.

    Это создает потенциал для ужасающего будущего, в котором социальные сети наводнены автоматизированной массовой дезинформацией или люди будут шантажироваться из-за снимков, искаженных машинами. Если никто не может отличить подделки от настоящих, они могут быть столь же разрушительными.

    Один из способов предотвратить это — наносить водяные знаки или цифровые подписи на изображения и другой контент, чтобы манипуляции можно было обнаружить. Другой путь, предложенный учеными из Массачусетского технологического института, заключается в том, чтобы спроектировать снимки таким образом, чтобы модели ИИ вообще не могли их изменить.

    «Рассмотрите возможность мошеннического распространения фальшивых катастрофических событий, таких как взрыв на значимой достопримечательности», — сказал Хади Салман, аспирант факультета электротехники и информатики университета, который работал над этим проектом.

    «Этот обман может манипулировать рыночными тенденциями и общественными настроениями, но риски не ограничиваются публичной сферой. Личные изображения могут быть ненадлежащим образом изменены и использованы для шантажа, что приведет к значительным финансовым последствиям при крупномасштабном применении».

    Салман вполне может быть прав. Дипфейки уже использовались для распространения дезинформации, обмана и преследования пользователей сети, а изображения, созданные искусственным интеллектом, становились все более реалистичными. Он предупредил, что по мере совершенствования технологии в будущем люди смогут создавать видео и с реалистичным ложным звуком.

    Вот почему Салман и его коллеги решили разработать программное обеспечение для машинного обучения, получившее название PhotoGuard, чтобы не дать злоумышленникам злоупотребить этими инструментами для манипулирования контентом.

    Изображения в основном обрабатываются моделями ML как массивы чисел. PhotoGuard настраивает эти массивы, чтобы помешать другим моделям машинного обучения правильно воспринимать входное изображение, чтобы в конечном итоге с изображением нельзя было манипулировать. Пиксели остаются нетронутыми с точки зрения людей, поэтому защищенное изображение выглядит одинаково для человеческого глаза, но не для компьютера.

    В приведенном ниже примере на фотографии изображены шутники американского телевидения Тревор Ноа и Майкл Коста на Открытом чемпионате США. Оригинальная — незащищенная — фотография может быть изменена с помощью модели распространения, управляемой текстом, чтобы заставить их появиться в совершенно другой обстановке: в бальном зале, танцующем вместе. Однако с применением изменений PhotoGuard модель диффузии отбрасывается невидимыми возмущениями и не может полностью изменить изображение.

    Рисунок из статьи MIT Photoguard

    Рисунок из статьи MIT PhotoGuard, показывающий, как в основном работает эта иммунизация данных от манипуляций. Нажмите, чтобы увеличить

    «В этой атаке мы искажаем входное изображение, чтобы окончательное изображение, сгенерированное [large diffusion model] — это конкретное целевое изображение (например, случайный шум или серое изображение)», — написали ученые в своей не рецензируемой статье с описанием PhotoGuard, опубликованной на ArXiv.

    Строго говоря, команда Массачусетского технологического института называет такой подход диффузной атакой. Его цель — обмануть ИИ, манипулирующий изображениями, и заставить его эффективно игнорировать любое текстовое приглашение, которое ему было дано.

    Существует второй, более простой метод, называемый атакой кодировщика, который пытается заставить манипулирующий ИИ воспринимать фотографию как что-то другое, например серый квадрат, что препятствует ее автоматическому редактированию. Результат в любом случае более или менее одинаков: попытки использовать ИИ для управления изображениями сходят с ума.

    «При применении атаки кодировщика наша цель — сопоставить представление исходного изображения с представлением целевого изображения (серое изображение)», — написала команда в своей статье. «Наша (более сложная) диффузионная атака, с другой стороны, направлена ​​​​на то, чтобы нарушить процесс диффузии, манипулируя всем процессом для создания изображения, напоминающего заданное целевое изображение (серое изображение)».

    Они провели свои эксперименты с Stable Diffusion Model v1.5 от Stability AI и отметили, что, хотя PhotoGuard может защитить изображения от цифрового изменения AI, его трудно применять на практике. Во-первых, диффузионная атака требует значительной мощности графического процессора, поэтому, если у вас нет под рукой такого кремния, вам не повезло.

    Исследователи утверждают, что на самом деле ответственность должна лежать на организациях, разрабатывающих эти инструменты ИИ, а не на отдельных лицах, пытающихся защитить свои изображения.

    «Совместный подход с участием разработчиков моделей, платформ социальных сетей и политиков представляет собой надежную защиту от несанкционированных манипуляций с изображениями. Работа над этой насущной проблемой сегодня имеет первостепенное значение», — заявил Салман.

    «И хотя я рад внести свой вклад в это решение, необходимо проделать большую работу, чтобы сделать эту защиту практичной. Компании, разрабатывающие эти модели, должны инвестировать в разработку надежных средств защиты от возможных угроз, создаваемых этими инструментами ИИ. эра генеративных моделей, давайте в равной степени стремиться к потенциалу и защите».

    PhotoGuard не идеальное решение. Если изображение доступно для загрузки без какой-либо защиты, злоумышленник может получить эту незащищенную версию фотографии, отредактировать ее с помощью ИИ и распространить. Кроме того, обрезка, поворот или применение некоторых фильтров могут нарушить возмущения PhotoGuard.

    Правление MIT заявило, что они работают над тем, чтобы сделать свое программное обеспечение с открытым исходным кодом (естественно, с лицензией MIT) более устойчивым к таким модификациям.

    Регистр попросил Салмана для дальнейшего комментария. ®

    [ad_2]

    Предыдущая статьяЗапуск OnePlus Open отложен из-за смены экранов
    Следующая статьяRedmi Watch 3 активных дебюта, Redmi 12 4G приземлился в Индии
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.