OpenClaw Install

Как подключить LM Studio к OpenClaw?

LM Studio — десктопное приложение с графическим интерфейсом для запуска локальных AI-моделей. В отличие от Ollama, LM Studio предоставляет удобный GUI для загрузки, настройки и тестирования моделей.

Скачайте LM Studio с lmstudio.ai — доступны версии для Windows, macOS и Linux. Установка стандартная. Приложение автоматически определит ваше железо и предложит подходящие модели.

В LM Studio откройте раздел Discover и скачайте нужную модель. Рекомендуемые для OpenClaw: Llama 3.3, Qwen 3.5, Phi-4, Gemma 3. Выберите квантизацию (Q4_K_M — хороший баланс качества и размера).

Запустите локальный сервер в LM Studio: перейдите в раздел Developer, загрузите модель и нажмите Start Server. По умолчанию сервер слушает на http://localhost:1234 и предоставляет OpenAI-совместимый API.

Теперь подключите OpenClaw. Используйте провайдер openai-compatible и укажите адрес LM Studio как базовый URL. API-ключ можно указать любой — LM Studio его не проверяет.

Преимущество LM Studio перед Ollama — визуальный интерфейс. Вы можете настраивать параметры генерации (temperature, top_p, max tokens) через GUI, тестировать промпты в чате LM Studio перед подключением к OpenClaw.

Недостаток — LM Studio требует запущенного десктопного приложения. Для серверного использования Ollama удобнее.

bash
openclaw config set provider openai-compatible
openclaw config set apiKey lm-studio
openclaw config set baseUrl http://localhost:1234/v1
openclaw config set model loaded-model

Не хотите разбираться сами?

Мы настроим OpenClaw за вас — от установки до скиллов

Заказать настройку