Как запустить Llama 2 локально на Mac или ПК

    0
    37


    Быстрые ссылки

    • Как запустить Llama 2 на Mac или Linux с помощью Ollama
    • Как запустить Llama 2 в Windows с помощью веб-интерфейса

    Если вам нравится идея ChatGPT, Google Bard, Bing Chat или любой другой ИИ-помощник, тогда у вас могут возникнуть некоторые проблемы, связанные с конфиденциальностью, затратами и т. д. Вот тут-то и появляется Llama 2. Llama 2 — это модель большого языка с открытым исходным кодом, разработанная Meta, и существуют варианты с числом параметров от 7 до 70 миллиардов.


    Учитывая, что это LLM с открытым исходным кодом, вы можете модифицировать его и запускать любым способом на любом устройстве. Если вы хотите попробовать его на компьютере с Linux, Mac или Windows, вы можете легко!


    Требования

    Для локального запуска Llama 2 вам понадобится следующее:

    Как запустить Llama 2 на Mac или Linux с помощью Ollama

    Если у вас Mac, вы можете использовать Ollama для запуска Llama 2. Это, безусловно, самый простой способ сделать это из всех платформ, поскольку для этого требуется минимум усилий. Все, что вам нужно, это Mac и время для загрузки LLM, поскольку это большой файл.

    Шаг 1. Загрузите Олламу

    Экран загрузки Олламы

    Первое, что вам нужно сделать, это скачать Олламу. Он работает на Mac и Linux и позволяет легко загружать и запускать несколько моделей, включая Llama 2. Вы даже можете запустить его в контейнере Docker, если хотите, с ускорением графического процессора, если вы хотите, чтобы его было легко настроить.

    После загрузки Олламы извлеките его в папку по вашему выбору и запустить его.

    Шаг 2. Загрузите модель Llama 2.

    Загрузка модели Llama 2 стоимостью 13 миллиардов долларов.

    После установки Олламы выполните следующую команду чтобы вытащить модель Llama 2 с 13 миллиардами параметров.

    ollama pull llama2:13b

    Это может занять некоторое время, поэтому дайте ему время поработать. Размер файла составляет 7,4 ГБ, и при некоторых соединениях он может работать медленно.

    Шаг 3. Запустите Llama 2 и взаимодействуйте с ней.

    Запускаем модель Llama 2 и спрашиваем ее у XDA-Developers

    Следующий, выполните следующую команду для запуска и взаимодействия с моделью.

    ollama run llama2

    После этого модель запустится, и вы сможете с ней взаимодействовать. Все готово!

    Как запустить Llama 2 в Windows с помощью веб-интерфейса

    Если вы используете компьютер с Windows, вам не о чем беспокоиться, поскольку его так же легко настроить, хотя и требует большего количества шагов! Вы сможете клонировать репозиторий GitHub и запускать его локально, и это все, что вам нужно сделать.

    Шаг 1. Загрузите и запустите веб-интерфейс Llama 2.

    вызов-2-webgui-1

    Если вы знакомы со Stable Diffusion и запускаете его локально через веб-интерфейс, то это, по сути, и есть. Репозиторий GitHub веб-интерфейса oobabooga для генерации текста вдохновлен этим и работает практически таким же образом.

    1. Скачать репозиторий, указанный выше
    2. Бегать start_windows.bat, start_linux.shили start_macos.sh в зависимости от того, какую платформу вы используете
    3. Выберите свой графический процессор и позвольте ему установить все, что ему нужно

    Шаг 2. Доступ к веб-интерфейсу Llama 2.

    Из вышеизложенного вы можете видеть, что вам будет предоставлен локальный IP-адрес для подключения к веб-интерфейсу. Подключитесь к нему в браузере, и вы увидите веб-интерфейс. Щелкните вокруг и ознакомьтесь с пользовательским интерфейсом. Сначала вы загрузите окно чата, но оно не будет работать, пока вы не загрузите модель.

    Шаг 3. Загрузите модель Llama 2.

    Теперь вам нужно загрузить модель. Это займет некоторое время, поскольку его необходимо будет загрузить, но вы можете сделать это из веб-интерфейса.

    1. Нажмите кнопку Модель вкладка вверху
    2. Справа введите TheBloke/Llama-2-13B-chat-GPTQ и нажмите Скачать
    3. Если идет загрузка, вы должны увидеть индикатор выполнения в командной строке по мере загрузки соответствующих файлов.
    4. По завершении обновите список моделей слева и щелкните загруженную модель.
    5. Нажмите Нагрузкаубедившись, что загрузчик модели говорит GPTQ-для-LLaMa

    Загрузка может занять некоторое время, поскольку этим моделям требуется много видеопамяти.

    Шаг 4: Взаимодействуйте с Ламой 2!

    вызов-2-webgui-6

    Все идет хорошо, теперь на вашем компьютере должна быть запущена Llama 2! Вы можете взаимодействовать с ним через браузер в среде без Интернета, если у вас есть оборудование, необходимое для его выполнения. На моем RTX 4080 с 16 ГБ видеопамяти он может генерировать почти 20 токенов в секунду, что значительно быстрее, чем вы найдете в большинстве бесплатных планов для любых LLM, таких как ChatGPT или других.

    Предыдущая статьяMicrosoft реагирует на временное ограничение доступа сотрудников к ChatGPT
    Следующая статьяЛучший Макбук Pro стоит в 2023 году
    Петр Григорин
    Интересуется софтом, разработкой и использование новых приложений, технология искусственного интеллекта. Этот писатель - человек с техническими знаниями, который увлечен разработкой программного обеспечения и использованием новых приложений. Его особенно интересуют технологии искусственного интеллекта и то, как они могут быть использованы для улучшения различных отраслей промышленности и повседневной жизни. Обладая прочной основой в области информатики и острым взглядом на инновации, этот писатель обязательно привнесет ценные идеи и соображения в любую дискуссию на эти темы. Пишет ли он о последних открытиях в области ИИ или исследует потенциал новых программных инструментов, его работа обязательно будет увлекательной и заставляющей задуматься.