OpenClaw На главную

Локальные модели для OpenClaw — Ollama и LM Studio

OpenClaw можно использовать с локальными языковыми моделями, работающими на вашем компьютере или сервере. Это даёт бесплатный доступ к AI без зависимости от интернета.

На нашей платформе локальные модели не нужны — мы предоставляем 300+ облачных моделей из коробки. Эта страница для тех, кто устанавливает OpenClaw CLI самостоятельно.

Зачем локальные модели

Ollama

Ollama — самый простой способ запустить локальную модель. Установка в одну команду, поддержка десятков моделей.

Установка Ollama

# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh

# Windows — скачайте установщик с ollama.ai

Запуск модели

# Скачать и запустить DeepSeek
ollama pull deepseek-r1:8b
ollama serve

Подключение к OpenClaw

Ollama предоставляет OpenAI-совместимый API на порту 11434. Настройте провайдер в openclaw.json:

{
  "providers": {
    "ollama": {
      "type": "openai",
      "baseUrl": "http://localhost:11434/v1",
      "apiKey": "ollama",
      "models": ["deepseek-r1:8b"]
    }
  }
}

LM Studio

LM Studio — графическое приложение для запуска локальных моделей с удобным интерфейсом.

Установка

  1. Скачайте LM Studio с lmstudio.ai
  2. Установите и запустите
  3. Найдите и скачайте нужную модель через интерфейс
  4. Включите Local Server (кнопка в боковой панели)

Подключение к OpenClaw

LM Studio предоставляет OpenAI-совместимый API на порту 1234:

{
  "providers": {
    "lmstudio": {
      "type": "openai",
      "baseUrl": "http://localhost:1234/v1",
      "apiKey": "lm-studio"
    }
  }
}

Рекомендуемые модели

Модель Размер RAM Качество Для чего
DeepSeek R1 8B 4.7 ГБ 8 ГБ Хорошее Универсальная, рассуждения
Qwen 3 8B 4.9 ГБ 8 ГБ Хорошее Код, тексты, многоязычная
Llama 3.3 8B 4.7 ГБ 8 ГБ Хорошее Универсальная
DeepSeek V3 14B 8.5 ГБ 16 ГБ Высокое Код, анализ
Qwen 3 32B 19 ГБ 32 ГБ Очень высокое Сложные задачи
Llama 3.3 70B 40 ГБ 64 ГБ Отличное Максимальное качество

Совет. Для начала попробуйте DeepSeek R1 8B через Ollama — это лучшее соотношение качества и требований к железу.

DeepSeek через Ollama

DeepSeek — одна из самых популярных моделей для локального запуска. Пошаговая инструкция:

1

Установите Ollama

curl -fsSL https://ollama.ai/install.sh | sh
2

Скачайте DeepSeek

ollama pull deepseek-r1:8b

Загрузка займёт несколько минут (~5 ГБ).

3

Запустите Ollama

ollama serve
4

Настройте OpenClaw

Добавьте Ollama как провайдер в openclaw.json (пример выше).

5

Запустите OpenClaw

openclaw gateway

Агент будет использовать локальную модель DeepSeek.

Сравнение: локальные vs облачные модели

Параметр Локальные Облачные (наша платформа)
Стоимость Бесплатно (после покупки железа) Подписка
Конфиденциальность Данные не покидают устройство Данные в контейнере на сервере
Качество моделей Зависит от железа (обычно 8-70B) 300+ моделей, включая GPT-5, Claude Opus
Настройка Установка Ollama + настройка Работает из коробки
Требования 8+ ГБ RAM, желательно GPU Только браузер или Telegram
Работа 24/7 Нужен сервер или включённый ПК Работает на наших серверах

Что дальше