[ad_1]
Согласно исследованию, пользователи сети более склонны быть обманутыми дезинформацией, представленной в текстовой форме, чем видеоклипы, созданные с помощью алгоритмов.
Поддельный контент, созданный моделями машинного обучения, становится все более реалистичным. Изображения людей разного возраста, пола и расы выглядят как настоящие фотографии. Голоса можно клонировать и управлять ими по сценарию. Видео выглядят реалистично благодаря технике смены лица или синхронизации губ. Эти так называемые дипфейки могут создать впечатление, будто люди сказали или сделали то, чего на самом деле не было, заставляя нас поверить в ложь.
Эксперты и эксперты опасались, что людей будет легче обмануть дипфейковыми видео, потому что они сочтут материал более правдоподобным, увидев его, в то время как текст будет легко идентифицировать как подделку, потому что текст явно будет написан машиной или иным образом составлен.
Но эксперимент, проведенный исследователями из Массачусетского технологического института, показал обратное. Видеть не верить. Людям трудно отличить вымышленный текст от компьютерного видео. Даже если это кажется вам очевидным, по крайней мере, кто-то провел исследование. Это наука.
«Мы обнаружили, что методы коммуникации опосредуют точность различения: участники более точны на видео со звуком, чем на видео без звука, и более точны на видео без звука, чем на текстовые расшифровки», — написала команда в статье, опубликованной в этом месяце на arXiv, которая была отправлена на рассмотрение коллег. -рассмотрение.
Ученые набрали 5727 участников своего эксперимента и попросили их читать, слушать и смотреть различные политические речи, произнесенные президентом Джо Байденом и Дональдом Трампом. Им сказали, что 50% просматриваемого ими контента являются фальшивыми, и их попросили оценить, кажется ли что-то реальным или ложным. Программное обеспечение выдало текстовые расшифровки поддельных звуковых фрагментов для двух мужчин. Поддельные видеоклипы были созданы с помощью wav2lip для синхронизации видеозаписей двух мужчин, произносящих речи, с записями профессиональных актеров озвучивания, имитирующих пару из поддельных сценариев.
Чтобы убедиться, что результаты не были искажены политической ориентацией, около половины группы были демократами, а другая половина – республиканцами. В целом, они смогли определить, было ли что-то фальшивым примерно в 57% случаев для текста по сравнению с 76% для только аудио; и 82 процента для видео со звуком. Возможно, это скорее проверка способностей актеров озвучивания, но что мы знаем?
Исследователи пришли к выводу, что люди с меньшей вероятностью будут обмануты, чтобы поверить в ложь, если у них будет больше доступной информации.
«Эти результаты показывают, что обычные люди, как правило, внимательно относятся к каждому модулю общения, когда им поручают отличить настоящее от подделки, и имеют относительно острое чувство того, как звучат два последних президента США», — написали они. «Поскольку участники имеют доступ к большему количеству информации через аудио и видео, они могут сделать более точную оценку того, была ли политическая речь сфабрикована».
Участники могут судить, кажутся ли аудио и видео поддельными, слушая и обращая внимание на контрольные признаки, что сложнее с текстом. Контекст текста становится важным, потому что нет визуальных или звуковых подсказок, которые люди могли бы легко уловить. Вопрос к тексту звучит так: это то, что сказали бы Джо Байден или Дональд Трамп, если бы их дал им сценарист? Разрыв между точным обнаружением дезинформации в тексте, речи и видео, вероятно, будет уменьшаться по мере того, как качество дипфейков становится все более убедительным.
Исследователи заявили, что планируют исследовать использование более сложных дипфейков, созданных с использованием более сложных методов, таких как замена лица в видео. Регистр обратился к команде за комментариями.
«Опасность сфабрикованных видео может заключаться не в среднем алгоритмически созданном дипфейке, а в одном, тщательно отполированном и чрезвычайно убедительном видео», — предупредили они. ®
[ad_2]