В четверг Amazon Web Services анонсировала новую платформу API под названием Bedrock, на которой размещаются генеративные модели ИИ, созданные ведущими стартапами AI21 Labs, Anthropic и Stability AI в своих облачных сервисах.
Популярность генеративного ИИ резко возросла благодаря разработке моделей, способных создавать текст и изображения. Коммерческие инструменты, разработанные шумными стартапами, такими как OpenAI и Midjourney, завоевали десятки миллионов пользователей, и теперь Big Tech спешит наверстать упущенное.
В то время как Майкрософт и Google конкурируют за внедрение генеративных чат-ботов с искусственным интеллектом в поисковые и продуктивные наборы, стратегия Amazon заключается в том, чтобы оставаться относительно нейтральной — как своего рода Швейцария с машинным обучением — и предоставлять доступ к новейшим моделям на своей облачной платформе. Это беспроигрышный вариант для стартапов, которые согласились работать с гигантом электронной коммерции. Разработчики будут платить за использование API, предлагаемых стартапами для своих моделей, и платить AWS за вычислительные ресурсы, необходимые для их обучения и запуска.
«Клиенты сказали нам, что сегодня на их пути стоят несколько серьезных проблем, — сказал Свами Сивасубраманиан, вице-президент AWS по машинному обучению, в своем блоге.
«Во-первых, им нужен простой способ найти и получить доступ к высокопроизводительным [foundational models] которые дают выдающиеся результаты и лучше всего подходят для своих целей. Во-вторых, клиенты хотят, чтобы интеграция с приложениями была бесшовной, без необходимости управлять огромными кластерами инфраструктуры или нести большие затраты».
В настоящее время Amazon Bedrock предлагает большие языковые модели, способные обрабатывать и генерировать текст, включая модели Jurassic-2 от AI21 Labs, Claude от Anthropic и модели преобразования текста в изображения от Stability AI, включая Stable Diffusion.
AWS также выпустила две собственные базовые модели под брендом Titan, не путать с Googleфирменные вещи Титана.
Разработчики могут создавать свои собственные генеративные продукты и услуги на основе ИИ на основе этих API-интерфейсов и могут точно настраивать модель для конкретной задачи, предоставляя свои собственные помеченные примеры. Amazon заявила, что процесс настройки позволит компаниям лучше защищать и защищать свои данные, не беспокоясь о том, что их личные данные могут быть утекли и использованы для обучения других больших языковых моделей.
Amazon также продвигала свои собственные ИИ-чипы AWS Trainium и Inferentia для обучения и запуска этих моделей в своем облаке. Инстансы нового типа EC2, называемые инстансами Trn1, используют Trainium siilcon, и, как сообщается, разработчики могут сэкономить до 50 % затрат на обучение по сравнению с другими инстансами EC2.
Экземпляры Trn1 оптимизированы для распределения обучения между несколькими серверами и имеют пропускную способность сети до 1600 Гбит/с. Разработчики также могут запускать «ультракластеры» с масштабированием до 30 000 чипов Trainium для обеспечения вычислительной мощности более 6 экзафлопс.
Наконец, Amazon также делает свой инструмент парного программирования AI CodeWhisperer бесплатным для использования. Он был расширен для поддержки десяти новых языков, включая Go, Kotlin, Rust, PHP, SQL и другие, помимо Python, Java, JavaScript, TypeScript и C#.
«Мы считаем, что CodeWhisperer теперь является самым точным, быстрым и безопасным способом создания кода для сервисов AWS, включая Amazon EC2, AWS Lambda и Amazon S3», — считает Сивасубраманян. ®