Генеративный ИИ «может сократить работу по миграции в облако на 30–50%»

    0
    2


    По словам Бхаргса Сриватсана из McKinsey, выступающего на конференции в Сингапуре в среду, использование генеративного искусственного интеллекта сокращает усилия по миграции в облако на 30–50 процентов, если все сделано правильно.

    «Это только начало. По мере развития модели большого языка (LLM) сроки миграции рабочих нагрузок в общедоступное облако будут сокращаться – и, будем надеяться, миграция также будет эффективной», – сказал Шриватсан.

    Она посоветовала организациям использовать LLM, чтобы понять, как выглядит инфраструктура системы, расшифровать ее слабые и сильные стороны, переместить рабочие нагрузки, а затем применить инструменты на основе искусственного интеллекта, чтобы понять, действительно ли миграция сработала.

    Он также может опираться на LLM для таких задач, как разработка рекомендаций Совета по обзору архитектуры.

    Партнер McKinsey сообщил, что, хотя многие предприятия только начинают задумываться о внедрении ИИ, 40 процентов из тех, кто уже вложил средства, обновляют свои инвестиции.

    Шриватсан назвал отношения между генеративным ИИ и облаком «симбиотическими».

    «Мы абсолютно не можем отрицать, что облако действительно необходимо для воплощения в жизнь генеративного ИИ. И точно так же генеративный ИИ действительно может ускорить переход в общедоступное облако, а также выход из него», — сказала она.

    Четыре крупнейших варианта использования генеративного искусственного интеллекта, по мнению Шриватсана, — это генерация контента, привлечение клиентов, создание синтетических данных и кодирование. Последняя роль особенно полезна при работе с устаревшим кодом, написанным программистами, давно ушедшими из организации, или когда такой код необходимо перевести на новый язык программирования.

    Она подчеркнула необходимость использования общедоступного облака вместо попыток создания собственных моделей, поскольку предприятия обычно не имеют необходимого доступа к графическим процессорам. Готовые модели также стоят дешевле.

    По словам Шриватсана, те, кто работает в регулируемых отраслях, имеют большие объемы конфиденциальных данных или обеспокоены нарушением прав интеллектуальной собственности, могут установить защитные ограждения.

    Она также подчеркнула, что LLM останутся в гипермасштабных средах в течение следующих пяти-шести лет, пока модели не созреют. Хотя многие люди чувствуют необходимость быть ближе к своей вычислительной мощности, она отметила, что очень немногим сценариям использования действительно требуется сверхнизкая задержка.

    По ее словам, в этом нет необходимости, если только вы не Tesla, работающая беспилотно или, возможно, не работающая в реальном времени на производственном участке.

    Также нет необходимости требовать индивидуальных или массивных моделей.

    «Многие предприятия думают, что им нужен Lamborghini, чтобы доставить пиццу, но вам это точно не нужно, вам, вероятно, не нужна такая сложная и большая модель, вам не нужна 65-миллиардная параметрическая модель для создания сценариев поддержки клиентов». например», — сказал партнер McKinsey.

    Однако она рекомендовала не экономить на шлюзе API между организацией и внешним миром, чтобы отображать некоторые «предупреждения в реальном времени», если разработчики получают доступ к непатентованным моделям или данным, к которым им не следует прикасаться. ®

    Предыдущая статьяВаши любимые компаньоны в Baldur’s Gate 2 были “кучей картона
    Следующая статьяЭтот большой игровой коврик для мыши выдержал мои издевательства в течение 10 лет.
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.