Microsoft позаботилась о том, чтобы включить Azure в AI-fest, который был конференцией разработчиков Build 2023 на этой неделе.
Поскольку предприятия планируют экспериментировать с генеративным искусственным интеллектом или развертывать его, они вполне могут обратиться к публичным облакам и аналогичной масштабируемой инфраструктуре вычислений и хранения для запуска таких вещей, как модели с большим языком (LLM).
Microsoft, вооруженная ChatGPT, GPT-4 и другими системами OpenAI, уже несколько месяцев внедряет возможности ИИ в каждый уголок своей империи. Azure ничем не отличается — например, OpenAI Service — и после конференции Build общедоступное облако Редмонда теперь имеет еще больше востребованных предложений.
Первое место в списке занимает расширенное партнерство с Nvidia, которая сама спешит зарекомендовать себя как незаменимый поставщик технологий искусственного интеллекта, от ускорителей графических процессоров до программного обеспечения. Только на этой неделе производитель чипов объявил о множестве партнерских отношений, таких как Dell на Dell Technologies World и производители суперкомпьютеров на ISC23.
Перенос ресурсов Nvidia в Azure
В частности, Microsoft интегрирует набор программного обеспечения, инструментов разработки, фреймворков и предварительно обученных моделей AI Enterprise от Nvidia в Машинное обучение Azure, создавая то, что Тина Мангнани, менеджер по продуктам облачной платформы машинного обучения, назвала «первой готовой к работе на предприятии, безопасной, конечной комплексная облачная платформа, позволяющая разработчикам создавать, развертывать и управлять приложениями ИИ, включая настраиваемые крупноформатные языковые модели».
В тот же день Microsoft сделала общедоступными реестры машинного обучения Azure — платформу для размещения и совместного использования таких строительных блоков машинного обучения, как контейнеры, модели и данные, а также инструмент для интеграции AI Enterprise в Azure. AI Enterprise в Машинном обучении Azure также доступен в ограниченной технической предварительной версии.
«Это означает, что для клиентов, у которых есть существующие обязательства и отношения с Azure, они могут использовать эти отношения — они могут использовать из облачных контрактов, которые у них уже есть, — чтобы получить Nvidia AI Enterprise и использовать его либо в Azure ML, чтобы получить это бесшовный опыт корпоративного уровня или отдельно на инстансах, которые они выберут», — сказал Манувир Дас, вице-президент по корпоративным вычислениям в Nvidia, журналистам за несколько дней до открытия Build.
Изоляция сетей для защиты данных ИИ
Предприятия, выполняющие операции ИИ в облаке, хотят, чтобы их данные не попадали в руки других компаний, а сетевая изоляция является ключевым инструментом. У Microsoft есть такие функции, как рабочее пространство с частной ссылкой и защита от кражи данных, но нет общедоступного IP-адреса для вычислительных ресурсов компаний, обучающих модели искусственного интеллекта. На Build поставщик объявил об управляемой сетевой изоляции в Машинном обучении Azure для выбора режима изоляции, который лучше всего соответствует политикам безопасности предприятия.
Не пропустите наш обзор Build 2023
Неудивительно, что инструменты с открытым исходным кодом все чаще приходят в пространство ИИ. В прошлом году Microsoft заключила партнерское соглашение с Hugging Face, чтобы предоставить конечные точки машинного обучения Azure на основе технологии компании с открытым исходным кодом. В Build пара организаций расширила свои отношения.
Hugging Face уже предлагает проверенный набор инструментов и API, а также огромное количество моделей машинного обучения для загрузки и использования. Теперь коллекция из тысяч этих моделей появится в каталоге Redmond Azure Machine Learning, чтобы клиенты могли получить доступ и развернуть их на управляемых конечных точках в облаке Microsoft.
Больше вариантов модели фундамента
Редмонд также делает базовые модели машинного обучения Azure доступными для общедоступной предварительной версии. Базовые модели — это мощные и высокопроизводительные предварительно обученные модели, которые организации могут настраивать с использованием собственных данных для своих целей и развертывать по мере необходимости.
Базовые модели становятся все более важными, поскольку они могут помочь организациям создавать нетривиальные приложения на основе машинного обучения, адаптированные к их конкретным требованиям, без необходимости тратить сотни миллионов долларов на обучение моделей с нуля или перенос обработки и конфиденциальных данных клиентов на облако.
Nvidia выпустила платформу NeMo, которая может быть полезна в этой области, и в этом месяце сотрудничает с ServiceNow и — на этой неделе — с Dell в Project Helix в этом направлении.
«После того, как мы работали с корпоративными компаниями над генеративным ИИ в течение последних нескольких месяцев, мы узнали, что существует большое количество корпоративных компаний, которые хотели бы использовать возможности генеративного ИИ, но делать это в своих собственных центрах обработки данных. или сделать это за пределами общедоступного облака», — сказал Дас из Nvidia.
Ресурсы, такие как модели с открытым исходным кодом и базовые модели, обещают снизить сложность и затраты, чтобы предоставить большему количеству организаций доступ к генеративному ИИ. ®