Вы можете запускать LLM локально на Raspberry Pi, используя Ollama.

    0
    0


    С ростом популярности моделей большого языка и приложений на основе искусственного интеллекта практически каждая крупная техническая компания начала создавать оборудование, способное обеспечить максимальную производительность в рабочих нагрузках искусственного интеллекта. Черт возьми, даже потребительские ноутбуки начали оснащаться совершенно новым типом процессоров под названием NPU, обеспечивающим превосходную производительность при выполнении каждой задачи, связанной с искусственным интеллектом.


    Но что, если бы вы могли запускать генеративные модели ИИ локально на крошечном SBC? Оказывается, вы можете настроить API Ollama для запуска практически всех популярных LLM, включая Orca Mini, Llama 2 и Phi-2, прямо с вашей платы Raspberry Pi!

    Связанный
    Обзор Raspberry Pi 5: Святой Грааль DIY-проектов стал еще лучше (и реже)

    Raspberry Pi 5 — один из самых мощных SBC потребительского уровня. К сожалению, его ограниченный ассортимент означает, что вам будет сложно его найти.

    Что вам понадобится

    Плата Raspberry Pi станет сердцем этого проекта. Вам также понадобится карта microSD для хранения ОС и LLM. Поскольку эти модели могут занимать много места, я предлагаю приобрести карту microSD емкостью не менее 32 ГБ. Возможно, вы захотите приобрести вариант Raspberry Pi 4/5 объемом 8 ГБ, поскольку Оллама рекомендует минимум 8 ГБ ОЗУ, если вы хотите запускать 7B LLM без значительных задержек.


    Наконец, вам понадобится установленная на Raspberry Pi ОС. Хотя технически вы можете запускать LLM на ОС Raspberry Pi или Ubuntu, лучше всего использовать чистую установку Raspberry Pi OS Lite. Это связано с тем, что генеративные модели искусственного интеллекта очень требовательны к этим SBC, и вам лучше отказаться от графического интерфейса в пользу легкой настройки CLI.

    Установка Raspberry Pi OS Lite

    Сначала мы установим операционную систему Raspberry Pi на базе CLI с помощью инструмента Raspberry Pi Imager. Хотя вы можете использовать другие инструменты для прошивки, такие как Balena Etcher или Rufus, вы можете использовать настройки ОС официального приложения для создания образов, чтобы легко подключиться по SSH к Raspberry Pi со своего ПК.

    1. Загрузите и установите Raspberry Pi Imager по официальной ссылке.
    2. Запустите инструмент с правами администратора.
    3. Нажмите на Выберите устройство и выберите свой Модель малины Пи.
      Действия по выбору модели Raspberry Pi внутри Raspberry Pi Imager
    4. Выбирать Выберите ОС и отправляйтесь в ОС Raspberry Pi (другое).
      Действия по выбору ОС внутри Raspberry Pi Imager
    5. Выбирать ОС Raspberry Pi Lite (64-разрядная версия).
      Процедура выбора Raspberry Pi OS Lite внутри Raspberry Pi Imager

    1. Нажмите на Выберите хранилищевыберите карта microSD куда вы хотите прошить файлы ОС, и нажмите Следующий.
      Действия по выбору карты microSD внутри Raspberry Pi Imager
    2. Нажимать Изменить настройки во всплывающем окне.
      Сканер Raspberry Pi с выделенной кнопкой «Изменить настройки»
    3. Внутри Вкладка «Общие»введите Имя пользователя и Пароль.
      Процедура ввода имени пользователя и пароля в Raspberry Pi Imager
    4. Перейдите к Услуги вкладку и проверьте переключатели рядом с Включить SSH и Использовать аутентификацию по паролю варианты, прежде чем нажать на Сохранять.
      Процедура включения SSH с помощью Raspberry Pi Imager
    5. Выбирать Да когда Raspberry Pi Imager запросит подтверждение.
      Последний шаг перед прошивкой ОС с помощью Raspberry Pi Imager


    После установки Raspberry Pi OS Lite вы можете использовать ее как есть или использовать SSH, следуя этому руководству.

    Настройка Ollama на Raspberry Pi

    К счастью, установка Ollama — самая простая часть этой статьи, поскольку все, что вам нужно сделать, это ввести следующую команду и нажать Входить:

    curl -fsSL https://ollama.com/install.sh | sh

    Команда, используемая для установки Ollama

    Затем пришло время настроить LLM для локального запуска на Raspberry Pi.

    1. Запустите Олламу с помощью этой команды:
      sudo systemctl start ollama
      Команда, используемая для запуска Олламы
    2. Установите выбранную вами модель с помощью тянуть команда. В этом руководстве мы будем использовать 3B LLM Orca Mini.
      Команда для загрузки Orca Mini в Олламе
      ollama pull llm_name

      Обязательно замените llm_name с совместимым с Ollama LLM, который вы хотите загрузить.

    3. Выполните следующую команду, чтобы запустить только что загруженный LLM.
      ollama run llm_name
      Команда, используемая для запуска LLM внутри Олламы
    4. Если вы хотите выйти из LLM, выполните следующую команду:
      /bye
      Команда выхода из LLM в Олламе
    5. (Необязательно) Если вам не хватает места, вы можете использовать команду rm для удаления модели.
      ollama rm llm_name
      Команда для удаления LLM в Олламе

    Какие LLM хорошо работают на Raspberry Pi?

    Raspberry Pi 5 перед ПК


    Хотя Ollama поддерживает несколько моделей, вам следует придерживаться более простых, таких как Gemma (2B), Dolphin Phi, Phi 2 и Orca Mini, поскольку запуск LLM может сильно утомлять ваш Raspberry Pi. Если у вас есть плата Pi с 8 ГБ ОЗУ, вы можете попытаться запустить LLM 7B, хотя производительность будет не очень впечатляющей.

    Я попробовал использовать Orca Mini и Phi 2 на своем Raspberry Pi 5, и они работали довольно хорошо. Однако ограничения SBC стали очевидными в тот момент, когда я запустил модели 7B, такие как Mistral и Llama. Если не считать длительной задержки после ввода подсказки, LLM довольно медленно генерировали текст: средняя скорость составляла 1–2 токена в секунду.

    Хотя превращение вашей платы Raspberry Pi в текстовый генератор AI — небольшой забавный проект, крошечное устройство едва может выдержать свой вес при запуске более сложных LLM. Таким образом, вам следует рассмотреть возможность приобретения мощных компьютеров с искусственным интеллектом, если вы хотите более быстрого ответа от ваших любимых LLM.

    Связанный
    Как запустить Llama 2 локально на Mac или ПК

    Если вы слышали о Llama 2 и хотите запустить ее на своем ПК, вы можете легко сделать это с помощью нескольких бесплатных программ.

    Предыдущая статьяОптимизируйте свой Chromecast с помощью Google Телевизор для бесперебойной потоковой передачи
    Следующая статьяGalaxy Серия S21 получает апрельское обновление безопасности, поскольку пользователи ждут One UI 6.1
    Петр Григорин
    Интересуется софтом, разработкой и использование новых приложений, технология искусственного интеллекта. Этот писатель - человек с техническими знаниями, который увлечен разработкой программного обеспечения и использованием новых приложений. Его особенно интересуют технологии искусственного интеллекта и то, как они могут быть использованы для улучшения различных отраслей промышленности и повседневной жизни. Обладая прочной основой в области информатики и острым взглядом на инновации, этот писатель обязательно привнесет ценные идеи и соображения в любую дискуссию на эти темы. Пишет ли он о последних открытиях в области ИИ или исследует потенциал новых программных инструментов, его работа обязательно будет увлекательной и заставляющей задуматься.