Microsoft добавляет в облако Azure больше машинного обучения

    0
    0


    Microsoft позаботилась о том, чтобы включить Azure в AI-fest, который был конференцией разработчиков Build 2023 на этой неделе.

    Поскольку предприятия планируют экспериментировать с генеративным искусственным интеллектом или развертывать его, они вполне могут обратиться к публичным облакам и аналогичной масштабируемой инфраструктуре вычислений и хранения для запуска таких вещей, как модели с большим языком (LLM).

    Microsoft, вооруженная ChatGPT, GPT-4 и другими системами OpenAI, уже несколько месяцев внедряет возможности ИИ в каждый уголок своей империи. Azure ничем не отличается — например, OpenAI Service — и после конференции Build общедоступное облако Редмонда теперь имеет еще больше востребованных предложений.

    Первое место в списке занимает расширенное партнерство с Nvidia, которая сама спешит зарекомендовать себя как незаменимый поставщик технологий искусственного интеллекта, от ускорителей графических процессоров до программного обеспечения. Только на этой неделе производитель чипов объявил о множестве партнерских отношений, таких как Dell на Dell Technologies World и производители суперкомпьютеров на ISC23.

    Перенос ресурсов Nvidia в Azure

    В частности, Microsoft интегрирует набор программного обеспечения, инструментов разработки, фреймворков и предварительно обученных моделей AI Enterprise от Nvidia в Машинное обучение Azure, создавая то, что Тина Мангнани, менеджер по продуктам облачной платформы машинного обучения, назвала «первой готовой к работе на предприятии, безопасной, конечной комплексная облачная платформа, позволяющая разработчикам создавать, развертывать и управлять приложениями ИИ, включая настраиваемые крупноформатные языковые модели».

    В тот же день Microsoft сделала общедоступными реестры машинного обучения Azure — платформу для размещения и совместного использования таких строительных блоков машинного обучения, как контейнеры, модели и данные, а также инструмент для интеграции AI Enterprise в Azure. AI Enterprise в Машинном обучении Azure также доступен в ограниченной технической предварительной версии.

    «Это означает, что для клиентов, у которых есть существующие обязательства и отношения с Azure, они могут использовать эти отношения — они могут использовать из облачных контрактов, которые у них уже есть, — чтобы получить Nvidia AI Enterprise и использовать его либо в Azure ML, чтобы получить это бесшовный опыт корпоративного уровня или отдельно на инстансах, которые они выберут», — сказал Манувир Дас, вице-президент по корпоративным вычислениям в Nvidia, журналистам за несколько дней до открытия Build.

    Изоляция сетей для защиты данных ИИ

    Предприятия, выполняющие операции ИИ в облаке, хотят, чтобы их данные не попадали в руки других компаний, а сетевая изоляция является ключевым инструментом. У Microsoft есть такие функции, как рабочее пространство с частной ссылкой и защита от кражи данных, но нет общедоступного IP-адреса для вычислительных ресурсов компаний, обучающих модели искусственного интеллекта. На Build поставщик объявил об управляемой сетевой изоляции в Машинном обучении Azure для выбора режима изоляции, который лучше всего соответствует политикам безопасности предприятия.

    Не пропустите наш обзор Build 2023

    Неудивительно, что инструменты с открытым исходным кодом все чаще приходят в пространство ИИ. В прошлом году Microsoft заключила партнерское соглашение с Hugging Face, чтобы предоставить конечные точки машинного обучения Azure на основе технологии компании с открытым исходным кодом. В Build пара организаций расширила свои отношения.

    Hugging Face уже предлагает проверенный набор инструментов и API, а также огромное количество моделей машинного обучения для загрузки и использования. Теперь коллекция из тысяч этих моделей появится в каталоге Redmond Azure Machine Learning, чтобы клиенты могли получить доступ и развернуть их на управляемых конечных точках в облаке Microsoft.

    Больше вариантов модели фундамента

    Редмонд также делает базовые модели машинного обучения Azure доступными для общедоступной предварительной версии. Базовые модели — это мощные и высокопроизводительные предварительно обученные модели, которые организации могут настраивать с использованием собственных данных для своих целей и развертывать по мере необходимости.

    Базовые модели становятся все более важными, поскольку они могут помочь организациям создавать нетривиальные приложения на основе машинного обучения, адаптированные к их конкретным требованиям, без необходимости тратить сотни миллионов долларов на обучение моделей с нуля или перенос обработки и конфиденциальных данных клиентов на облако.

    Nvidia выпустила платформу NeMo, которая может быть полезна в этой области, и в этом месяце сотрудничает с ServiceNow и — на этой неделе — с Dell в Project Helix в этом направлении.

    «После того, как мы работали с корпоративными компаниями над генеративным ИИ в течение последних нескольких месяцев, мы узнали, что существует большое количество корпоративных компаний, которые хотели бы использовать возможности генеративного ИИ, но делать это в своих собственных центрах обработки данных. или сделать это за пределами общедоступного облака», — сказал Дас из Nvidia.

    Ресурсы, такие как модели с открытым исходным кодом и базовые модели, обещают снизить сложность и затраты, чтобы предоставить большему количеству организаций доступ к генеративному ИИ. ®

    Предыдущая статьяPolkadot продолжает снижение, могут ли быки защитить поддержку $ 5,15?
    Следующая статьяЦентральные банки накопит в этом году золото на сумму 48 000 000 000 долларов на фоне использования доллара США в качестве оружия: UBS
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.