Восемь крупных компаний в сфере технологий, в том числе Nvidia, Palantir и Adobe, договорились объединить свои приложения искусственного интеллекта до их выпуска и расставить приоритеты в исследованиях, которые сделают их системы более надежными, сообщает нам Белый дом.
Сегодня администрация Байдена-Харриса похвасталась, что добилась добровольных обязательств. [PDF] от Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI и Stability AI для разработки программного обеспечения и моделей машинного обучения безопасным, надежным и заслуживающим доверия способом. Обязательства распространяются только на будущие модели генеративного ИИ.
Adobe и Stability AI создают продукты для преобразования текста в изображение, а Cohere, IBM, Salesforce и Nvidia предлагают предприятиям большие языковые модели. Между тем, Palantir и Scale AI являются подрядчиками правительства США, разрабатывающими и интегрирующими модели для военных, что практически охватывает весь спектр гипотетических эпизодов «Черного зеркала».
«Президент ясно дал понять: используйте преимущества искусственного интеллекта, управляйте рисками и двигайтесь быстро – очень быстро. И мы делаем именно это, сотрудничая с частным сектором и используя все рычаги, которые у нас есть, чтобы добиться этого», – сказал руководитель Об этом сообщил персонал Джефф Зиентс в заявлении для СМИ.
Каждая из вышеупомянутых корпораций пообещала подвергнуть свое программное обеспечение внутреннему и внешнему аудиту, в ходе которого независимые эксперты смогут проверить модели, чтобы выяснить, как ими можно злоупотреблять. Белый дом больше всего обеспокоен тем, что ИИ генерирует информацию, которая может помочь людям создавать биохимическое оружие или использовать недостатки кибербезопасности, а также возможность подключения программного обеспечения для автоматического управления физическими системами или самовоспроизведения.
Чтобы справиться с этими рисками, организации согласились защищать свою интеллектуальную собственность и следить за тем, чтобы такие вещи, как вес их собственных нейронных сетей, не утекали, что предотвращает попадание технологии в чужие руки, одновременно предоставляя пользователям возможность легко сообщать об уязвимостях. или ошибки. Они также заявили, что будут публично сообщать о возможностях и ограничениях своих технологий, включая справедливость и предвзятость, а также определять ненадлежащие случаи использования, которые запрещены.
Вдобавок ко всему, все восемь компаний согласились сосредоточиться на исследованиях по изучению социальных и гражданских рисков, которые ИИ может представлять, если они приведут к дискриминационному принятию решений или будут иметь недостатки в конфиденциальности данных. Генеративный ИИ склонен создавать ложную информацию, которой можно манипулировать для распространения дезинформации.
Как сделать эти соглашения более конкретными? Правительство США хочет, чтобы крупные технологические компании разработали методы нанесения водяных знаков, которые могли бы идентифицировать контент, созданный искусственным интеллектом. В прошлом месяце умные файлы cookie на Google DeepMind анонсировала SynthID, инструмент, который тонко изменяет пиксели изображения, сгенерированного его моделью Imagen, чтобы сигнализировать, что это синтетическое изображение.
Наконец, США попросили Корпус взять на себя обязательства по созданию моделей добра, таких как борьба с изменением климата или улучшение здравоохранения. В июле семь ведущих компаний и стартапов в области искусственного интеллекта, включая Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI также взяли на себя те же обязательства. Опять же, список дел является добровольным, а это означает, что у компаний не возникнет никаких проблем, если они пойдут против своего слова.
Тем не менее, в интересах этих организаций выполнить свои обещания: в конечном итоге они должны создавать лучшее программное обеспечение, которому люди будут готовы доверять и за которое будут платить, и они смогут заранее обеспечить некоторую защиту от более мрачных вариантов использования сегодняшних искусственных технологий. интеллект. Например, что бы вы ни говорили о Microsoft, гигант Azure не заинтересован в том, чтобы его технологии использовались для создания дипфейковой порнографии в промышленных масштабах.
Тем временем Белый дом заявляет, что работает над разработкой настоящего регулирования и что эти начинания являются первым шагом в этом направлении.
«Эти обязательства представляют собой важный мост к действиям правительства и являются лишь частью комплексного подхода администрации Байдена-Харриса к реализации перспектив и управлению рисками ИИ. Администрация разрабатывает указ и будет продолжать добиваться принятия двухпартийного законодательства, чтобы Помогите Америке стать лидером в ответственном развитии искусственного интеллекта», — говорится в официальном заявлении Белого дома. ®