IBM ставит чипы Watson на дело ИИ, когда начинается ценовая война

    0
    0


    IBM утверждает, что может сократить расходы на модели ИИ в облаке с помощью специального кремния, чтобы заработать на всплеске интереса к генеративным моделям, таким как ChatGPT.

    Технологические компании отчаянно пытались использовать новый интерес к ИИ, вызванный ChatGPT, даже несмотря на то, что сейчас он может пойти на убыль, поскольку трафик на веб-сайт OpenAI упал примерно на 10 процентов в период с мая по июнь.

    IBM заявила, что рассматривает возможность использования собственных специализированных микросхем искусственного интеллекта, чтобы снизить затраты на эксплуатацию своих сервисов Watsonx в облаке.

    Watsonx, анонсированный в мае, на самом деле представляет собой набор из трех продуктов, предназначенных для корпоративных клиентов, которые тестируют базовые модели и генеративный ИИ для автоматизации или ускорения рабочих нагрузок. Они могут работать в нескольких общедоступных облаках, а также локально.

    Мукеш Кхаре из IBM сообщил агентству Reuters, что в настоящее время компания рассматривает возможность использования чипа, называемого блоком искусственного интеллекта (AIU), в составе своих сервисов Watsonx, работающих в IBM Cloud. Он обвинил в отказе старой системы Watson от Big Blue высокие затраты и заявил, что, используя свой AIU, компания может снизить стоимость обработки ИИ в облаке, поскольку чипы энергоэффективны.

    Представленная в октябре прошлого года AIU представляет собой специализированную интегральную схему (ASIC) с 32 вычислительными ядрами и описана IBM как версия ускорителя искусственного интеллекта, встроенного в чип Telum, на котором работает мейнфрейм z16. Он помещается в слот PCIe на любом компьютере или сервере.

    Amazon стремится сократить расходы

    Между тем, Amazon заявила, что также стремится привлечь больше клиентов к своей облачной платформе AWS, конкурируя по цене, утверждая, что может предложить более низкие затраты на обучение и операционные модели.

    Представитель облачного гиганта по приложениям AWS Дилип Кумар сказал, что модели искусственного интеллекта, лежащие в основе таких сервисов, как ChatGPT, требуют значительных вычислительных мощностей для обучения и работы, и что Amazon Web Services (AWS) исторически хорошо снижала эти затраты.

    По некоторым оценкам, ChatGPT мог использовать наборы данных объемом более 570 ГБ для обучения, а для обработки обработки требовалось более 1000 графических процессоров Nvidia A100.

    Кумар прокомментировал на конференции Momentum в Остине, что обучение моделей ИИ последнего поколения обходится дорого по этой причине, добавив: «Мы берем на себя большую часть этой недифференцированной тяжелой работы, чтобы иметь возможность снизить затраты для наших клиентов. .”

    По мнению Кумара, многие организации уже хранят свои данные в AWS, что делает это хорошей причиной для выбора сервисов искусственного интеллекта Amazon. Это особенно актуально, когда клиенты могут столкнуться с платой за исходящий трафик, чтобы перенести свои данные куда-либо еще.

    Однако, по мнению некоторых экспертов, облачные провайдеры могут быть не готовы удовлетворить новый спрос на услуги ИИ. The Wall Street Journal отмечает, что новое поколение генеративных моделей ИИ может быть в 10–100 раз больше, чем старые версии, и для ускорения обработки им требуется инфраструктура, поддерживаемая ускорителями, такими как графические процессоры.

    Лишь небольшая часть битовых амбаров, которыми управляют провайдеры общедоступных облаков, состоит из высокопроизводительных узлов, оснащенных такими ускорителями, которые можно назначать для задач обработки ИИ, заявил директор Amazon по управлению продуктами для EC2 в AWS Четан Капур. является «довольно большой дисбаланс между спросом и предложением».

    Это не помешало облачным компаниям расширить свои предложения ИИ. Капур сказал, что AWS намерена расширить свои серверные кластеры, оптимизированные для ИИ, в течение следующего года, в то время как Microsoft Azure и Google Говорят также, что облако расширяет свою инфраструктуру ИИ.

    В прошлом году Microsoft также объявила о партнерстве с производителем графических процессоров Nvidia, которое, по сути, включало интеграцию десятков тысяч графических процессоров Nvidia A100 и H100 в Azure для обеспечения работы экземпляров серверов на базе графических процессоров, а также стека программного обеспечения Nvidia для искусственного интеллекта.

    Между тем, VMware также стремится принять участие в этом процессе, объявив на этой неделе о планах по включению генеративного ИИ на свою платформу, что упростит клиентам эффективную работу с большими языковыми моделями в среде VMware, потенциально используя ресурсы, размещенные в нескольких облаках. . ®

    Предыдущая статьяiPhone 15 претендентов на то, чтобы возглавить “агрессивное” использование искусственного интеллекта в Apple
    Следующая статьяGoogle for Startups Accelerator Program открыта для бизнеса
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.