Белый дом объявил в пятницу, что семь ведущих компаний-разработчиков искусственного интеллекта пообещали протестировать свои модели, поделиться исследованиями и разработать методы нанесения водяных знаков на машинно-генерируемый контент, чтобы сделать технологию более безопасной.
Лидеры Amazon, Anthropic, GoogleInflection, Meta, Microsoft и OpenAI пообещали работать над решением проблем безопасности, защищенности и доверия к искусственному интеллекту.
«Искусственный интеллект предлагает огромные перспективы и большой риск», — заявила администрация Байдена-Харриса. [PDF]. «Чтобы максимально использовать это обещание, Америка должна защитить наше общество, нашу экономику и нашу национальную безопасность от потенциальных рисков.
«Компании, разрабатывающие эти новаторские технологии, обязаны вести себя ответственно и обеспечивать безопасность своей продукции».
Эти организации согласились добровольно обеспечить безопасность продуктов в областях повышенного риска, таких как кибербезопасность и биозащита, прежде чем они станут общедоступными, путем проведения внутренних и внешних аудитов безопасности. Сообщается, что некоторые из этих испытаний будут проводиться независимыми экспертами. Они также пообещали поделиться передовым опытом в области безопасности и сотрудничать с другими разработчиками для разработки технических решений текущих проблем.
Модели ИИ часто являются проприетарными, и компании пообещали, что если они решат сохранить низкоуровневые детали своих моделей, такие как веса их нейронных сетей, в секрете по соображениям безопасности и/или коммерческим причинам, они будут стремиться защитить эти данные, чтобы они не были украдены злоумышленниками или проданы мошенническими инсайдерами. По сути, если модель по какой-либо причине не подлежит открытому выпуску, ее следует держать под замком, чтобы она не попала в чужие руки.
Все семь компаний также предоставят пользователям возможность сообщать о любых уязвимостях, которые необходимо исправить, и будут четко указывать возможности и ограничения своих моделей, а также объяснять, для чего их не следует использовать.
Чтобы попытаться решить такие проблемы, как дезинформация и дипфейки, группа обещает разработать такие методы, как системы цифровых водяных знаков для маркировки контента, созданного ИИ. Наконец, все они также пообещали уделять приоритетное внимание исследованиям в области безопасности, направленным на устранение предвзятости, дискриминации и конфиденциальности, и применять свои технологии во благо — подумайте о том, чтобы углубиться в исследования рака и изменения климата.
Говорить о разговорах, ходить пешком?
Однако последнее заявление Белого дома довольно слабое с точки зрения реального регулирования.
Все вышеперечисленное — это то, что, как вы надеетесь, эти компании в любом случае будут делать сами по себе. Если они откажутся от своего слова, то особых последствий не будет, учитывая, что эти обязательства были взяты на добровольной основе.
Тем не менее, Белый дом не совсем наивен. Он отметил, что на горизонте могут появиться жесткие правила для сдерживания и управления системами ML:
США и Великобритания не были такими деспотичными, как законодатели в Европе. Ни одна из этих двух стран не приняла никакого законодательства, конкретно касающегося разработки и развертывания ИИ, в отличие от Закона ЕС об ИИ. Министерство юстиции США и Федеральная торговая комиссия выпустили предупреждения о том, что технологии должны соответствовать законам, защищающим гражданские права, честную конкуренцию, защиту прав потребителей и многое другое.
На прошлой неделе FTC направила OpenAI письмо с просьбой объяснить, как обучаются ее модели и какие данные она собирает, поскольку агентство расследует, может ли компания нарушать законы о защите прав потребителей. ®