Google использует глубокое обучение для разработки более быстрых и компактных микросхем ИИ

    0
    25


    Сотрудники Google и ученые Калифорнийского университета в Беркли говорят, что они разработали способ использования искусственного интеллекта для разработки более быстрых и компактных чипов, ускоряющих работу искусственного интеллекта.

    В заметке, опубликованной в четверг, исследователи заявили, что разработали подход к глубокому обучению под названием PRIME, который создает архитектуру чипов ИИ на основе существующих чертежей и показателей производительности. Они утверждают, что их подход может создавать проекты с меньшей задержкой и требующие меньше места, чем Googleнаходящийся в производстве ускоритель EdgeTPU и другие конструкции, созданные с использованием традиционных инструментов.

    Google имеет большой интерес к этой области. В прошлом году компания заявила, что использовала машинное обучение для оптимизации компоновки одной из своих конструкций TPU.

    Эти последние результаты могут изменить правила игры для GoogleИндивидуальные разработки чипов, и они были подробно описаны в документе под названием «Офлайн-оптимизация на основе данных для проектирования аппаратных ускорителей», который был принят на Международной конференции по обучающим представлениям в этом году.

    По словам исследователей, помимо обеспечения более быстрого и эффективного проектирования, подход PRIME имеет важное значение, поскольку традиционное проектирование микросхем на основе моделирования может занимать много времени и быть дорогостоящим в вычислительном отношении. Они сказали, что разработка чипов с использованием программного обеспечения для моделирования также может привести к «неосуществимым» чертежам при попытке оптимизации для определенных вещей, таких как низкое энергопотребление или низкая задержка.

    Команда заявила, что конструкции чипов, разработанные по принципу PRIME, имеют задержку до 50 процентов меньше, чем те, которые созданы с использованием методов, основанных на моделировании, а подход глубокого обучения также сократил это время для создания указанных чертежей до 99 процентов.

    Исследователи сравнили конструкции чипов, созданные PRIME, с EdgeTPU, созданным с помощью моделирования, в девяти приложениях искусственного интеллекта, включая модели классификации изображений MobileNetV2 и MobileNetEdge. Важно отметить, что конструкции PRIME были оптимизированы для каждого приложения.

    Они сказали, что обнаружили, что конструкция чипа PRIME в целом улучшила задержку в 2,7 раза и уменьшила использование площади кристалла в 1,5 раза. Эта последняя часть шокировала ученых, потому что они не обучали PRIME уменьшать размер кристалла, что может сделать чипы дешевле и снизить энергопотребление. Для некоторых моделей улучшения задержки и площади кристалла были еще больше.

    Исследователи также использовали PRIME для разработки чипов, оптимизированных для работы в различных приложениях. Они обнаружили, что проекты PRIME по-прежнему имеют меньшую задержку, чем проекты, основанные на моделировании. Возможно, более удивительно, что это было даже в том случае, когда проекты PRIME работали с приложениями, для которых не было обучающих данных. Более того, производительность улучшилась с большим количеством приложений.

    Наконец, исследователи использовали PRIME для разработки чипа, который мог бы обеспечить наилучшую производительность в девяти вышеупомянутых приложениях. Было только три приложения, в которых дизайн PRIME имел более высокую задержку, чем дизайн, основанный на моделировании, и исследователи обнаружили, что это связано с тем, что PRIME отдает предпочтение проектам с большей встроенной памятью и, как следствие, меньшей вычислительной мощностью.

    Углубившись в то, как на самом деле работает PRIME, исследователи создали так называемую надежную модель прогнозирования, которая учится генерировать оптимизированные конструкции чипов, получая автономные данные чертежей чипов ИИ, в том числе те, которые не работают. Чтобы избежать типичных ловушек, связанных с использованием контролируемого машинного обучения, исследователи разработали PRIME, чтобы не быть введенными в заблуждение так называемыми состязательными примерами.

    Исследователи заявили, что такой подход позволяет оптимизировать модель для целевых приложений. PRIME также может оптимизировать приложения, для которых нет данных для обучения, что достигается путем обучения одной большой модели на проектных данных для приложений, для которых данные доступны.

    Пока это не изменится GoogleИсследователи заявили, что в одночасье чип инженерных путей, у него есть перспективы для нескольких направлений. Это включает в себя создание микросхем для приложений, требующих решения сложных задач оптимизации, а также использование низкопроизводительных чертежей микросхем в качестве обучающих данных, помогающих приступить к проектированию оборудования.

    Они также надеются использовать PRIME для совместной разработки аппаратного и программного обеспечения благодаря его универсальному характеру. ®

    Предыдущая статьяAndroid 13 DP2 обновляет элементы управления мультимедиа и средство выбора вывода с новым дизайном
    Следующая статьяAMD подтверждает, что Ryzen 7 5800X3D не будет поддерживать разгон
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.