Как подключить LM Studio к OpenClaw?
LM Studio — десктопное приложение с графическим интерфейсом для запуска локальных AI-моделей. В отличие от Ollama, LM Studio предоставляет удобный GUI для загрузки, настройки и тестирования моделей.
Скачайте LM Studio с lmstudio.ai — доступны версии для Windows, macOS и Linux. Установка стандартная. Приложение автоматически определит ваше железо и предложит подходящие модели.
В LM Studio откройте раздел Discover и скачайте нужную модель. Рекомендуемые для OpenClaw: Llama 3.3, Qwen 3.5, Phi-4, Gemma 3. Выберите квантизацию (Q4_K_M — хороший баланс качества и размера).
Запустите локальный сервер в LM Studio: перейдите в раздел Developer, загрузите модель и нажмите Start Server. По умолчанию сервер слушает на http://localhost:1234 и предоставляет OpenAI-совместимый API.
Теперь подключите OpenClaw. Используйте провайдер openai-compatible и укажите адрес LM Studio как базовый URL. API-ключ можно указать любой — LM Studio его не проверяет.
Преимущество LM Studio перед Ollama — визуальный интерфейс. Вы можете настраивать параметры генерации (temperature, top_p, max tokens) через GUI, тестировать промпты в чате LM Studio перед подключением к OpenClaw.
Недостаток — LM Studio требует запущенного десктопного приложения. Для серверного использования Ollama удобнее.
openclaw config set provider openai-compatible openclaw config set apiKey lm-studio openclaw config set baseUrl http://localhost:1234/v1 openclaw config set model loaded-model