Обременены кучей устаревшего кода, написанного для платформы Nvidia CUDA? Технический директор Intel Грег Лавендер предлагает создать большую языковую модель (LLM), чтобы преобразовать ее во что-то, что будет работать на других ускорителях искусственного интеллекта — например, в собственный Gaudi2 или графический процессор. Max аппаратное обеспечение.
«Я просто брошу вызов всем разработчикам. Давайте использовать LLM и такие технологии, как Copilot, для обучения модели машинного обучения преобразованию всего вашего кода CUDA в SYCL», — пошутил он во время своего выступления в среду на программе Innovation Keynote, имея в виду ускоритель Intel. центричный инструмент программирования.
Одна из проблем, с которыми сталкиваются Intel, AMD и другие производители ускорителей при продвижении своего аппаратного обеспечения искусственного интеллекта, заключается в том, что большой объем кода, написанного для среды выполнения CUDA от Nvidia, необходимо подвергнуть рефакторингу, прежде чем его можно будет использовать на альтернативных платформах.
В некоторых случаях это может быть всего лишь пара строк кода, вызывающих библиотеки CUDA, которые являются ключевыми для функций приложения, но это «делает его относительно привязанным к одной микроархитектуре», — сказал Джо Керли, вице-президент по программным продуктам и экосистеме Intel. сказал Регистр.
Intel уже добилась определенного прогресса в этом направлении. Кремниевый титан вложил значительные средства в свою кроссплатформенную модель параллельного программирования под названием oneAPI и предложение для вывода искусственного интеллекта под названием OpenVINO. В своем выступлении Лавендер похвастался, что с 2021 года количество установок oneAPI выросло на 85 процентов, что, по его мнению, демонстрирует растущий энтузиазм по отношению к платформе.
Несмотря на то, что они разработаны Intel, стоит отметить, что и oneAPI, и OpenVINO имеют открытый исходный код и не ограничиваются оборудованием производителя чипов.
Chipzilla также выпустила десятки справочных комплектов с открытым исходным кодом для решения различных распространенных рабочих нагрузок искусственного интеллекта и машинного обучения, начиная от чат-ботов и другого генеративного искусственного интеллекта и заканчивая более традиционными рабочими нагрузками машинного обучения, такими как обнаружение объектов, генерация голоса и прогнозирование финансовых рисков.
SYCL — это недавняя часть усилий Intel по освобождению CUDA от мертвой хватки в экосистеме программного обеспечения для искусственного интеллекта. Как наш дочерний сайт Следующая платформа Как сообщалось в начале прошлого года, SYCL – или, точнее, SYCLomatic – представляет собой бесплатный межархитектурный уровень абстракции, который поддерживает параллельный язык программирования Intel C++.
Короче говоря, SYCL берет на себя большую часть тяжелой работы (предположительно до 95 процентов) по переносу кода CUDA в формат, который может работать на ускорителях сторонних производителей. Но, как и следовало ожидать, обычно требуется некоторая тонкая настройка и настройка, чтобы приложения работали на полной скорости.
«Если вы хотите получить максимальную отдачу от графического процессора Intel (по сравнению с графическим процессором AMD или графическим процессором Nvidia), вам придется что-то сделать, будь то механизм расширения SYCL или просто структурирование вашего кода», — объяснил Керли.
Именно эта тонкая настройка, по мнению Лаванды, может быть дополнительно автоматизирована с помощью модели LLM.
«Конечно, будут проводиться исследования, посвященные именно этому», — предсказал Керли. «То, что мы считаем сегодня миром с низким кодом и без кода, через пять лет будет совершенно иным. Так что это не только хорошая идея, это идея, которая обязательно воплотится в жизнь».
Задача, по мнению Керли, будет заключаться в определении подходящих исходных данных для обучения вашей модели.
Однако стоит также отметить, что SYCL ни в коем случае не является единственным способом написания кода, независимого от ускорителя. Керли указал на такие платформы, как Triton от OpenAI или GoogleДжекс – это всего лишь два примера.
«Если вам по какой-то причине не нравится то, что мы движемся с SYCL, воспользуйтесь одним из этих других способов, которые также являются стандартными. Мы все, как отрасль, создадим цепочки компиляции для нашего оборудования и предоставим вам ту же выгоду». «Сказал Керли.
Помимо среды выполнения программного обеспечения, такого как SYCL, Intel предоставляет множество ресурсов в виде программного обеспечения, поддержки и ускорителей, работающих в своем облаке разработчиков, чтобы помочь стартапам в области искусственного интеллекта оптимизировать свой код для Gaudi2, GPU. Maxили Advanced Matrix Extensions в последних версиях Xeon.
Также рекламировалась программа Intel Liftoff, цель которой — привлечь молодые стартапы в области программного обеспечения для искусственного интеллекта, предоставляя им техническую экспертизу, которая поможет им создавать приложения, работающие на ее продуктах.
Intel далеко не единственная компания, которая пытается справиться с этими проблемами. На этой неделе Linux Foundation в сотрудничестве с Arm, Fujitsu, Google Облако, Imagination Technologies, Intel, Qualcomm Technologies и Samsung, основал Фонд Unified Acceleration (UXL). Рабочая группа стремится развивать адрес oneAPI для широкого спектра ускорителей от различных поставщиков.
По словам Лавендера, «отрасль получает выгоду от открытых стандартизированных языков программирования для аппаратного ускорения программирования, в которых каждый может внести свой вклад и сотрудничать без привязки к поставщику». ®