OpenClaw Install

Как подключить Ollama к OpenClaw?

Ollama позволяет запускать AI-модели локально на вашем компьютере. Это означает полную приватность данных и нулевые расходы на API — никакие данные не покидают вашу машину.

Сначала установите Ollama. На macOS и Linux установка занимает одну команду. На Windows — скачайте установщик с ollama.com. После установки Ollama запускается как фоновый сервис и предоставляет локальный API на порту 11434.

Далее скачайте модель. Ollama поддерживает сотни моделей в разных размерах. Лучшие варианты для OpenClaw:

— Llama 3.3 70B — отличное качество, требует 40+ ГБ RAM или GPU с 40+ ГБ VRAM. — Qwen 3.5 32B — хороший баланс качества и ресурсов, нужно 20+ ГБ RAM. — Phi-4 14B — компактная модель от Microsoft, работает на 16 ГБ RAM. — Gemma 3 9B — маленькая модель от Google, работает на 8 ГБ RAM.

Подключите Ollama к OpenClaw через конфигурацию. Укажите ollama как провайдер — API-ключ не нужен, так как модель работает локально.

Важно: скорость ответов зависит от вашего железа. На GPU NVIDIA с 8+ ГБ VRAM ответы генерируются за секунды. На CPU — за десятки секунд. На Apple Silicon (M1-M4) производительность отличная благодаря unified memory.

Можно запустить Ollama на отдельном сервере и подключить к OpenClaw по сети — укажите IP-адрес вместо localhost. Это полезно, если GPU-сервер и OpenClaw работают на разных машинах.

bash
# Установка Ollama:
curl -fsSL https://ollama.com/install.sh | sh
bash
# Скачивание модели:
ollama pull llama3.3:70b
# или компактная:
ollama pull gemma3:9b
bash
# Подключение к OpenClaw:
openclaw config set provider ollama
openclaw config set model llama3.3:70b
openclaw config set ollamaHost http://localhost:11434

Не хотите разбираться сами?

Мы настроим OpenClaw за вас — от установки до скиллов

Заказать настройку