Honor запустит свой инструмент обнаружения Deepfake AI в мире в апреле 2025 года, но мы узнаем больше в этом году MWC 2025. Эта система помогает людям обнаружить фальшивые изображения и видео, отправив оповещения при изменении контента. Цель состоит в том, чтобы повысить безопасность онлайн.
Как работает обнаружение DeepFake AI
Впервые показано в IFA 2024, AI сканирует носители на предмет признаков подделки. Он ищет:
- Размытые пиксели – Поддельные изображения часто имеют странные текстуры и пикселирование.
- Странные границы – Крайки лиц или объектов могут выглядеть неестественными.
- Глючи в видео – Кадры могут не совпадать правильно.
- Неестественные лица – ИИ находит неуместные особенности и странные пропорции.
Если обнаружен фальшивый контент, система немедленно предупреждает пользователей.
Почему глубины – проблема
ИИ изменил многие отрасли, но он также увеличил киберугроз. Отчет Института кибербезопасности 2024 года. Исследование Deloitte в 2024 году показало, что 59% пользователей изо всех сил пытаются рассказать реальным от поддельных СМИ. Кроме того, 84% людей хотят четкие этикетки на цифровом контенте. Честь считает, что для борьбы с этими рисками необходимы лучшие инструменты и командные работы в разных отраслях.
Такие группы, как Provenance and Authencity Content (C2PA), работают над правилами для проверки СМИ, сгенерированных AI.
Риски для бизнеса
Мошенничество с глубокими темпами быстро растут. В период с ноября 2023 года по ноябрь 2024 года 49% компаний сообщили о мошенничестве, связанном с глубокими темпами-увеличению на 244%. Тем не менее, 61% лидеров бизнеса не предприняли действий.
Самые большие риски включают:
- Мошенничество и кража личных данных – Преступники используют Deepfakes, чтобы притворяться реальными людьми.
- Корпоративный шпионаж – Фальшивые средства массовой информации могут распространять ложную информацию и вредить предприятиям.
- Дезинформация – Deepfakes может ввести в заблуждение общественность и повлиять на мнения.
Как компании сопротивляются
Чтобы остановить мошенничество с глубокими темпами, предприятия используют:
- Инструменты обнаружения ИИ – Система Чести пятна неестественного движения глаз, проблем с освещением и ошибок воспроизведения.
- Отраслевое сотрудничество – Такие группы, как C2PA, поддерживаемые Adobe, Microsoft и Intel, работают по стандартам проверки.
- Встроенная защита – Qualcomm’s Snapdragon X Elite использует ИИ для обнаружения глубоких норм на мобильных устройствах.
Будущее глубокой безопасности
Рынок обнаружения глубокого уровня будет расти на 42% каждый год, достигнув 15,7 млрд долларов к 2026 году. По мере улучшения глубоких настроек люди и предприятия должны использовать инструменты безопасности искусственного интеллекта, законы и программы повышения осведомленности для снижения рисков.
Unido предупреждает о Deepfakes
Марко Камия из Организации Организации Объединенных Наций по промышленному развитию (UNIDO) заявил, что DeepFakes подвергают риску личные данные. Конфиденциальная информация – например, местоположения, платежи и пароли – может быть украдена.
Камия подчеркнула, что мобильные устройства, которые хранят важные данные, являются главными целями для хакеров. Защита их является ключом к предотвращению мошенничества и кражи личных данных.
Он объяснил:
«Обнаружение AI Deepfake на мобильных устройствах имеет решающее значение для безопасности в Интернете. Это замечает детали, которые могут пропустить, как неестественное движение глаз, ошибки освещения и видео -глюки. Эта технология помогает людям, предприятиям и отраслям оставаться в безопасности ».
Честь подчеркнула важность обнаружения глубоких черт. В мире, где «видеть больше не верит», предприятия должны сосредоточиться на безопасности, чтобы защитить своих клиентов и репутацию.