Подробности на GoogleОбновления искусственного интеллекта в облачной инфраструктуре

    0
    0


    Облако Далее Google на Cloud Next в этом году сфокусирован на искусственном интеллекте, предлагая множество аппаратных проектов, включая обновления TPU, опции графического процессора и множество программных инструментов, чтобы все это работало.

    На первой очной версии мероприятия еще до пандемии, проходившей в огромном центре Москоне в Сан-Франциско, Google Расскажите подробнее о Cloud TPU v5e, новейшем из AI-ускорителей Tensor Processing Unit, а также об экземплярах виртуальных машин на базе графических процессоров Nvidia H100.

    ТПУ Googleспециальный чип для ускорения машинного обучения, а сервис Cloud TPU основан на собственной платформе машинного обучения TensorFlow в дополнение к другим платформам, включая Jax и PyTorch.

    Предыдущий AI-чип TPU v4 был официально выпущен в 2021 году, хотя поисковый гигант тестировал его несколько лет назад.

    С Cloud TPU v5e, Google утверждает, что удвоил производительность обучения на доллар и в 2,5 раза увеличил производительность вывода на доллар для моделей больших языков (LLM) и генеративного искусственного интеллекта по сравнению с Cloud TPU v4.

    Облачный гигант использует механизмы TPUv4 для формирования выводов для своих собственных поисковых систем и платформ показа рекламы.

    Google будет предлагать восемь различных конфигураций виртуальных машин: от одного чипа TPU до более 250 в одном слайсе.

    Конечно, дело не только в оборудовании. Они сосредоточены на большей масштабируемости для обработки больших рабочих нагрузок искусственного интеллекта в Cloud TPU v5e с помощью функции Multislice. В настоящее время это предварительная версия, которая была разработана, чтобы позволить пользователям масштабировать модели за пределы одного модуля TPU, чтобы при необходимости охватить десятки тысяч чипов TPU. Ранее обучающие задания ограничивались одним кусочком чипов ТПУ.

    Также нацелены на требовательные рабочие нагрузки ИИ, такие как LLM. GoogleЭкземпляры виртуальных машин A3 с восемью графическими процессорами Nvidia H100, двумя масштабируемыми процессорами Intel Xeon 4-го поколения и 2 ТБ памяти. Впервые об этих случаях было объявлено на Google IO еще в мае, но теперь они будут доступны в следующем месяце, говорится в сообщении.

    Благодаря улучшению пропускной способности сети за счет разгрузки сетевого адаптера и библиотеки Nvidia Connective Communications Library (NCCL), Google ожидает, что виртуальные машины A3 дадут импульс пользователям, желающим создавать еще более сложные модели искусственного интеллекта.

    Google Далее также были опубликованы подробности о GKE Enterprise, описываемой как премиальная версия управляемой компании компании. Google Служба Kubernetes Engine (GKE) для контейнерных рабочих нагрузок.

    Версия GKE Enterprise, предварительная версия которой будет доступна в начале сентября, обладает новой возможностью мультикластера, которая позволяет клиентам группировать схожие рабочие нагрузки в «группы» и применять пользовательские конфигурации и ограничения политики по всему парку. Google сказал.

    Эта редакция включает в себя управляемые функции безопасности, включая анализ уязвимостей рабочих нагрузок, средства управления и политики, а также сеть управляемых сервисов. Благодаря возможностям, взятым из GoogleКомпания Anthos утверждает, что версия GKE Enterprise может охватывать гибридные и мультиоблачные сценарии, позволяя пользователям запускать рабочие нагрузки контейнеров в других публичных облаках и локально, а также в GKE.

    Кроме того, сам GKE теперь поддерживает как Cloud TPU v5e, так и экземпляры виртуальных машин A3 с графическими процессорами H100 для требовательных рабочих нагрузок искусственного интеллекта. Google сказал.

    Также продолжая тему ИИ, Google вносит дополнения в свой Google Предложение распределенного облака (GDC), а также обновленное оборудование для поддержки локального расширения облачной платформы.

    Три новых предложения в области искусственного интеллекта и данных — это интеграции Vertex AI, AlloyDB Omni и Dataproc Spark. Интеграция Vertex переносит Vertex Prediction и Vertex Pipelines на хостинг GDC, хотя они будут доступны только в предварительной версии со второго квартала 2024 года.

    AlloyDB Omni — это новый управляемый движок базы данных, который, как утверждается, обеспечивает вдвое большую скорость, чем PostgreSQL, для транзакционных рабочих нагрузок и в настоящее время доступен в предварительной версии.

    Dataproc Spark — это управляемый сервис для выполнения аналитических рабочих нагрузок под управлением Apache Spark, который, как утверждается, предлагает пользователям более низкие затраты, чем развертывание Spark самостоятельно. Предварительная версия будет доступна с четвертого квартала.

    Окончательно, Google заявила, что представляет обновленный аппаратный стек для GDC, включающий масштабируемые процессоры Intel Xeon 4-го поколения и более производительные сетевые коммутационные панели с пропускной способностью до 400 Гбит/с. ®

    Предыдущая статьяGoogle Карты получат живые активности вовремя iPhone 15
    Следующая статьяЕвропейский Galaxy Серия S24 будет использовать Exynos 2400, утверждает типстер
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.