Microsoft запрещает пользователям реконструировать или собирать данные из своего программного обеспечения ИИ для обучения или улучшения других моделей и будет хранить входные данные, переданные в ее продукты, а также любой полученный результат.
Подробности появились, когда компании столкнулись с новыми проблемами, связанными с распространением генеративного ИИ. Люди хотят знать, что корпорации делают с информацией, предоставленной пользователями. И пользователям также интересно, что они могут делать с контентом, созданным ИИ. Microsoft решает эти проблемы в новом пункте под названием «Службы искусственного интеллекта» в своих условиях обслуживания.
Пять новых политик, которые были представлены 30 июля и вступят в силу 30 сентября, гласят:
- Обратный инжиниринг. Вы не можете использовать службы ИИ для обнаружения каких-либо базовых компонентов моделей, алгоритмов и систем. Например, вы не можете пытаться определить и удалить вес моделей.
- Извлечение данных. Если это явно не разрешено, вы не можете использовать веб-скрапинг, веб-сбор или методы извлечения веб-данных для извлечения данных из сервисов ИИ.
- Ограничения на использование данных из Сервисов AI. Вы не можете использовать службы ИИ или данные служб ИИ для создания, обучения или улучшения (прямо или косвенно) любых других служб ИИ.
- Использование вашего Контента. В рамках предоставления услуг ИИ Microsoft будет обрабатывать и хранить ваши входные данные для службы, а также выходные данные службы для целей отслеживания и предотвращения неправомерного или вредоносного использования или выходных данных службы.
- Претензии третьих лиц. Вы несете единоличную ответственность за реагирование на любые претензии третьих лиц относительно использования вами услуг AI в соответствии с действующим законодательством (включая, помимо прочего, нарушения авторских прав или другие претензии, связанные с выводом контента во время использования вами услуг AI).
В некоторых случаях легко заглянуть под капот некоторых продуктов Microsoft AI. Например, когда компания запустила своего чат-бота Bing на основе искусственного интеллекта, пользователи обнаружили подсказку, используемую для формирования его поведения, которая раскрыла его секретное кодовое имя «Сидней». Разработчики попытались разобраться в основе код чтобы лучше понять, как он генерирует текст. Все это теперь технически запрещено новой политикой.
Правила, запрещающие разработчикам использовать любые данные, сгенерированные его моделями ИИ, для улучшения и обучения других систем, также были приняты другими компаниями, такими как Meta, Google, OpenAI и Антропик. Однако неясно, насколько хорошо это может быть реализовано, особенно с учетом того, что все больше и больше текста в Интернете пишется машинами, и все они очищают эти ресурсы для обучения своих собственных моделей.
Представитель Microsoft отказался комментировать, как долго компания планирует хранить вводимые пользователем данные в свое программное обеспечение.
«Мы регулярно обновляем наши условия обслуживания, чтобы лучше отражать наши продукты и услуги. Наше последнее обновление Соглашения об услугах Microsoft включает добавление языка, отражающего искусственный интеллект в наших услугах и его надлежащее использование клиентами», — сказал нам представитель в заявление.
Однако ранее Microsoft заявляла, что не сохраняет разговоры и не использует эти данные для обучения своих моделей ИИ для режима корпоративного чата Bing. Политики Microsoft 365 Copilot немного более туманны, хотя, похоже, он не использует данные о клиентах или подсказки для обучения, но хранит информацию.
“[Copilot] может генерировать ответы, привязанные к бизнес-контенту клиента, например к пользовательским документам, электронной почте, календарю, чатам, встречам, контактам и другим бизнес-данным. Copilot объединяет этот контент с рабочим контекстом пользователя, таким как собрание, в котором пользователь находится сейчас, обмен электронной почтой, который пользователь имел по теме, или разговоры в чате, которые пользователь вел на прошлой неделе. Copilot использует эту комбинацию контента и контекста, чтобы предоставлять точные, релевантные контекстуальные ответы», — говорится в сообщении.
Короче говоря, будьте внимательны к тому, что вы вводите в Bing, если вы не являетесь корпоративным пользователем и не хотите, чтобы Microsoft сохраняла ваши подсказки или разговоры с чат-ботом. ®