Компании, разрабатывающие микросхемы искусственного интеллекта, учитывают операционные расходы °

    0
    40


    Стартапы, занимающиеся созданием микросхем искусственного интеллекта, больше думают об экономии своих процессоров в условиях исторической нехватки полупроводников и роста цен на кремний.

    В стартапы ИИ были вложены миллиарды долларов, и в основном речь шла о производительности. Поскольку модели обучения ИИ требуют больше вычислительных ресурсов, акцент смещается на стоимость вычислений на их чипах.

    По словам Навина Рао, чья компания, производящая микросхемы искусственного интеллекта Nervana Systems, была приобретена Intel за 350 миллионов долларов в 2016 году, “стала очень важной” производительность на доллар в чипах AI. °. Рао ранее руководил группой продуктов AI в Intel и ушел в прошлом году.

    “Много [dollars] ушли в компании, производящие микросхемы, и я думаю, что многое из этого произошло без надлежащего анализа », – сказал Рао, который в этом году основал компанию ИИ, которая все еще находится в скрытом режиме.

    Существуют разные подходы к проектированию микросхем ИИ, и ведутся споры о том, будет ли интегрированный чип или независимый подход более экономичным. Для производителей микросхем это знакомая битва: это повторение того, должны ли компоненты быть интегрированы в мегачипы ИИ или распределены по сети процессорных блоков на плате или в сети.

    Популярные системы искусственного интеллекта сегодня используют возможности сотен графических процессоров Nvidia, установленных на компьютерах. Рао является сторонником этого распределенного подхода, при котором обработка ИИ разделена на сеть из более дешевых микросхем и компонентов, которые включают дешевую память DDR и межкомпонентные соединения PCI-Express.

    «Стоимость создания массивных микросхем намного выше, чем стоимость крошечных микросхем и кабелей, используемых для соединения нескольких микросхем. Соединительные кабели и микросхемы выигрывают от экономии на масштабе … они не предназначены для вычислений ИИ, они используются во многих приложений “, – сказал он.

    Генеральный директор Cerebras Systems Эндрю Фельдман бросил холодную воду на аргументы Рао, заявив, что объединение цепочки микросхем в качестве ИИ-кластера может добавить к счетам за оборудование и электроэнергию.

    «Давайте посмотрим, что сделала Тесла». Использовали ли они каналы PCI? Нет. Они сделали чип побольше? Да “, – сказал Фельдман. °, добавив, что «нелинейное масштабирование в сочетании со всей другой инфраструктурой, необходимой для их связывания, крайне неэффективно с точки зрения энергопотребления».

    Собственный мегачип WSE-2 AI от Cerebras, поставленный в августе, является самым большим процессором из когда-либо созданных. Он имеет 850 000 ядер, что вдвое больше, чем у его предшественника, и увеличивает пропускную способность межсоединения до 220 Пбит / с, что, по утверждению компании, более чем в 45 000 раз выше, чем пропускная способность между графическими процессорами.

    “Наши агрегаты дорогие, но мы покупаем их тоже. [Nvidia] 12 DGX A100. На каждом этапе мы дешевле или меньше, чем сопоставимое количество графических процессоров, и потребляем меньше энергии », – сказал Фельдман.

    Есть и другие скрытые расходы, например покупка 50 процессоров для подключения 200 графических процессоров. «Как собрать эти графические процессоры? Вам нужны гигантские коммутаторы Infiniband или Ethernet, и каждый из них имеет оптическую тягу», – сказал Фельдман.

    Другие утверждали, что разработка микросхем искусственного интеллекта настолько разнообразна, что невозможно использовать универсальный подход. Программное обеспечение может определять аппаратное обеспечение, а некоторые микросхемы могут облегчить обработку на границе перед подачей соответствующих данных в нейронные сети.

    «Аппаратные платформы разрабатываются без особого учета программного обеспечения и того, как оно будет масштабироваться среди платформ», – сказал Рехан Хамид, технический директор Deepvision, в чате на AI Hardware Summit в прошлом месяце. Компания разрабатывает комплект для разработки программного обеспечения, который сопоставляет модели ИИ с различным оборудованием.

    Дизайн микросхемы ИИ может также развиваться в соответствии с законом Куми, который является следствием того, как электрическая эффективность вычислений удваивается примерно каждые 1-1 / 2 года в течение шести десятилетий. По словам Дэна Хатчесона, отраслевого аналитика VLSI Research, здесь также учитываются датчики, смартфоны и другие устройства.

    Битва за процессоры, продолжавшаяся десятилетиями, сместилась в сторону энергоэффективности после того, как производители микросхем перестали повышать частоту микросхем. По словам Хатчесона, приложения ИИ становятся все сложнее, и количество электроэнергии, затрачиваемой на решение сложных проблем, будет ограничено.

    «Проблема заключается в беспилотных автомобилях и электромобилях. Система искусственного интеллекта автомобиля не должна потреблять половину энергии от электрического пробега», – сказал Хатчесон. ®

    Предыдущая статьяОдинокое эхо II –
    Следующая статьяRed Dead Online: Лучшие локации для сов
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.