Локальные модели для OpenClaw — Ollama и LM Studio
OpenClaw можно использовать с локальными языковыми моделями, работающими на вашем компьютере или сервере. Это даёт бесплатный доступ к AI без зависимости от интернета.
На нашей платформе локальные модели не нужны — мы предоставляем 300+ облачных моделей из коробки. Эта страница для тех, кто устанавливает OpenClaw CLI самостоятельно.
Зачем локальные модели
- Бесплатно — нет платы за API-запросы
- Конфиденциальность — данные не покидают ваш компьютер
- Автономность — работает без интернета
- Скорость — нет задержки на сетевые запросы (при мощном железе)
Ollama
Ollama — самый простой способ запустить локальную модель. Установка в одну команду, поддержка десятков моделей.
Установка Ollama
# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh
# Windows — скачайте установщик с ollama.ai
Запуск модели
# Скачать и запустить DeepSeek
ollama pull deepseek-r1:8b
ollama serve
Подключение к OpenClaw
Ollama предоставляет OpenAI-совместимый API на порту 11434. Настройте провайдер в openclaw.json:
{
"providers": {
"ollama": {
"type": "openai",
"baseUrl": "http://localhost:11434/v1",
"apiKey": "ollama",
"models": ["deepseek-r1:8b"]
}
}
}
LM Studio
LM Studio — графическое приложение для запуска локальных моделей с удобным интерфейсом.
Установка
- Скачайте LM Studio с lmstudio.ai
- Установите и запустите
- Найдите и скачайте нужную модель через интерфейс
- Включите Local Server (кнопка в боковой панели)
Подключение к OpenClaw
LM Studio предоставляет OpenAI-совместимый API на порту 1234:
{
"providers": {
"lmstudio": {
"type": "openai",
"baseUrl": "http://localhost:1234/v1",
"apiKey": "lm-studio"
}
}
}
Рекомендуемые модели
| Модель | Размер | RAM | Качество | Для чего |
|---|---|---|---|---|
| DeepSeek R1 8B | 4.7 ГБ | 8 ГБ | Хорошее | Универсальная, рассуждения |
| Qwen 3 8B | 4.9 ГБ | 8 ГБ | Хорошее | Код, тексты, многоязычная |
| Llama 3.3 8B | 4.7 ГБ | 8 ГБ | Хорошее | Универсальная |
| DeepSeek V3 14B | 8.5 ГБ | 16 ГБ | Высокое | Код, анализ |
| Qwen 3 32B | 19 ГБ | 32 ГБ | Очень высокое | Сложные задачи |
| Llama 3.3 70B | 40 ГБ | 64 ГБ | Отличное | Максимальное качество |
Совет. Для начала попробуйте DeepSeek R1 8B через Ollama — это лучшее соотношение качества и требований к железу.
DeepSeek через Ollama
DeepSeek — одна из самых популярных моделей для локального запуска. Пошаговая инструкция:
Установите Ollama
curl -fsSL https://ollama.ai/install.sh | sh
Скачайте DeepSeek
ollama pull deepseek-r1:8b
Загрузка займёт несколько минут (~5 ГБ).
Запустите Ollama
ollama serve
Настройте OpenClaw
Добавьте Ollama как провайдер в openclaw.json (пример выше).
Запустите OpenClaw
openclaw gateway
Агент будет использовать локальную модель DeepSeek.
Сравнение: локальные vs облачные модели
| Параметр | Локальные | Облачные (наша платформа) |
|---|---|---|
| Стоимость | Бесплатно (после покупки железа) | Подписка |
| Конфиденциальность | Данные не покидают устройство | Данные в контейнере на сервере |
| Качество моделей | Зависит от железа (обычно 8-70B) | 300+ моделей, включая GPT-5, Claude Opus |
| Настройка | Установка Ollama + настройка | Работает из коробки |
| Требования | 8+ ГБ RAM, желательно GPU | Только браузер или Telegram |
| Работа 24/7 | Нужен сервер или включённый ПК | Работает на наших серверах |
Что дальше
- Модели и провайдеры — полный список облачных моделей
- Установка CLI — установка OpenClaw на свой компьютер
- OpenClaw на сервере — запуск на VPS для работы 24/7