Бум генеративного ИИ достиг федерального правительства США, и Microsoft объявила о запуске своей службы Azure OpenAI, которая позволяет государственным клиентам Azure получать доступ к GPT-3 и 4, а также к встраиваниям.
Благодаря сервису государственные учреждения получат доступ к вариантам использования ChatGPT, не жертвуя «строгими стандартами безопасности и соответствия, которые им необходимы для соблюдения государственных требований к конфиденциальным данным», — пояснила Microsoft в предварительном заявлении.
Редмонд утверждает, что разработал архитектуру, которая позволяет государственным клиентам «безопасно получать доступ к большим языковым моделям в коммерческой среде из Azure для государственных организаций». Доступ осуществляется через REST API, Python SDK или Azure AI Studio, и все это без раскрытия правительственных данных в общедоступном Интернете — по крайней мере, так говорит Microsoft.
«Только запросы, отправленные в службу Azure OpenAI, переходят в модель Azure OpenAI в коммерческой среде», — пообещала Microsoft, добавив, что «Azure Government взаимодействует напрямую с коммерческой сетью Microsoft Azure, а не напрямую с общедоступным Интернетом или Корпоративная сеть Майкрософт».
Microsoft сообщает, что шифрует весь трафик Azure с использованием стандарта сетевой безопасности IEEE 802.1AE или MACsec, и что весь трафик остается в пределах его глобальной магистрали, состоящей из более чем 250 000 км волоконно-оптических и подводных кабельных систем.
Для тех, чье начальство действительно позволит им попробовать, служба Azure OpenAI для правительства обычно доступна для утвержденных корпоративных и государственных клиентов.
Подождите, насколько на самом деле приватен правительственный ChatGPT?
Microsoft прилагает все усилия, чтобы завоевать доверие правительства США в качестве поставщика облачных услуг, но и здесь совершаются ошибки.
Ранее в этом году выяснилось, что правительственный сервер Azure выложил в общедоступный Интернет более терабайта конфиденциальных военных документов — проблема, в которой Министерство обороны и Microsoft обвиняли друг друга.
OpenAI, дочерняя компания Microsoft и создатель ChatGPT, также не была идеальной в плане безопасности: плохая библиотека с открытым исходным кодом привела к раскрытию некоторых записей пользовательских чатов в марте. С тех пор ряд известных компаний, в том числе Apple, Amazon и несколько банков, запретили внутреннее использование ChatGPT из-за опасений, что это может привести к раскрытию конфиденциальной внутренней информации.
Британское шпионское агентство GCHQ даже предупредило о таких рисках. Так имеет ли право правительство США доверять Microsoft свои секреты, даже если они явно не будут переданы в ненадежную сеть?
Microsoft заявила, что не будет специально использовать правительственные данные для обучения моделей OpenAI, поэтому, скорее всего, нет никаких шансов, что совершенно секретные данные будут раскрыты в ответе, предназначенном для кого-то другого. Но это не значит, что это безопасно по умолчанию. Microsoft косвенно уступила в объявлении о том, что некоторые данные все равно будут регистрироваться, когда правительственные пользователи подключатся к моделям OpenAI.
«Microsoft позволяет клиентам, которые соответствуют дополнительным критериям приемлемости с ограниченным доступом и подтверждают конкретные варианты использования, подавать заявки на изменение функций управления контентом Azure OpenAI», — пояснила Microsoft.
«Если Microsoft одобряет запрос клиента на изменение ведения журнала данных, Microsoft не сохраняет никаких запросов и завершений, связанных с утвержденной подпиской Azure, для которой ведение журнала данных отключено в коммерческой версии Azure», — добавил он. Это означает, что подсказки и дополнения — текст, возвращаемый моделью ИИ, — сохраняются, если только государственное учреждение не соответствует определенным критериям.
Мы обратились к Microsoft за разъяснениями о том, как она будет сохранять данные запросов и завершения ИИ от правительственных пользователей, но представитель только вернул нас к первоначальному объявлению компании без каких-либо прямых ответов на наши вопросы.
Поскольку частные компании обеспокоены тем, что одних только запросов может быть достаточно для раскрытия секретов, Microsoft приостановила свою работу до того, как федералы начнут разрешать сотрудникам, имеющим доступ к Azure, правительственным учреждениям, таким как Министерство обороны и НАСА, использовать его для получения ответов от ИИ. с записью во лжи. ®