Огромная база промптов для нейросетей

Как запустить llama.cpp с несколькими GPU на ROCm?

llama.cpp Программирование 4
TwoBoolean

Автор промпта

@TwoBoolean

Этот промпт поможет вам наладить работу вашей AI установки с использованием нескольких графических процессоров на базе ROCm. Вы получите четкие инструкции по настройке и входным данным для успешного запуска вашего проекта.

Как использовать этот промпт

"1. Скопируйте данный промпт. 2. Заполните переменные [КОЛИЧЕСТВО_GPU], [МОДЕЛЬ_CPU], [ОС], [VERSION_ROCM]. 3. Запустите запроса в Llama.cpp, чтобы получить решение проблемы."

Пример ответа нейросети

""Вы используете 3 графических процессора MI50 и встречаетесь с проблемами. Сначала убедитесь, что вы правильно настроили ваш ROCm. Проверьте, что ваш драйвер и библиотека совместимы с версией ROCm 7.12. Попробуйте запустить следующую команду: `$ HIP_VISIBLE_DEVICES=0,1,2 ./build-b8635075f/bin/llama-cli -m ~/models/gemma-4-31B-it-Q4_K_S.gguf -ngl 999 -p 'Hello'`. Убедитесь, что все используемые вами модели актуальны и поддерживают мульти-GPU конфигурации. Если вы заметили ошибки или неожиданные результаты, возможно, стоит попробовать другие версии ROCm или модели, такие как Tinyllama.""

Вы недавно смотрели

Сохранено в браузере
🍪

Мы используем Cookies и LocalStorage

Это необходимо, чтобы сохранять вашу Историю просмотров, подставлять ваши данные в Конструкторе и добавлять промпты в Избранное. Мы не передаем эти данные третьим лицам.