Запуск OpenClaw без облака: какие модели реально работают
Описание
Полезные ссылки
Страница с итоговым рейтингом моделей и командами запуска — https://amorev.ru/misc/openclaw/run-local-llm.html
ролик про OpenClaw — https://youtu.be/IdLqGgLStWU
ролик про локальные модели — https://youtu.be/-vYjoiW2Zd4
Boosty — https://boosty.to/amorev
Регистрируйся по моей реферальной ссылке облаке immers.cloud и получи + 20% к первому пополнению - https://immers.cloud/signup/r/20260401-5031129-367/
Реклама. ООО «ДТЛ». ИНН 9717073792. erid:2W5zFGf5GaD
В этом видео проверяю, насколько OpenClaw реально работает на локальных моделях и можно ли использовать его без постоянных затрат на облачный inference.
Разберём на практике:
- как подключить OpenClaw к локальным LLM;
- какие модели реально тянут агентский режим, а какие ломаются уже на базовых задачах;
- где локальные модели действительно выгодны, а где проще не мучиться и делегировать задачу в облако.
По ходу ролика я тестирую OpenClaw в реальных сценариях:
- первичная настройка агента;
- работа через Telegram;
- чтение и пересказ файлов;
- анализ CSV;
- генерация HTML-отчёта;
- поиск и исправление бага в коде;
- попытка настроить транскрибацию через внешний сервис.
Это особенно важно, потому что локальные модели в OpenClaw лучше всего раскрываются не как полная замена сильным облачным моделям, а как часть гибридной архитектуры. Поэтому в ролике не просто "запускаем и радуемся", а честно смотрим, где local inference реально полезен, а где уже начинаются ограничения, галлюцинации и потеря качества.
По итогам будет понятно:
- с какой модели вообще стоит начинать;
- сколько видеопамяти нужно для нормальной работы;
- когда локальный запуск реально выгоден;
- какие задачи OpenClaw на local LLM уже тянет, а какие пока лучше отдавать в облако.
Этот ролик поможет понять, с какой конфигурации вообще есть смысл начинать и чего ждать от локальных моделей в реальной работе.
#OpenClaw #LocalLLM #Qwen #LMStudio #Ollama #SelfHostedAI #AIагенты #Нейросети #ИскусственныйИнтеллект #LocalAI #GPTOSS #AIautomation #TelegramBot #OpenSourceAI #LLM
Таймкоды:
0:00 Введение
0:34 В чем суть?
3:19 Как будет проходить проверка моделей
5:48 Тестовые задачи для моделей
9:29 Железо для тестов
13:30 "Удобная" скорость работы модели
14:26 Планы на модели и видеокарты
16:35 Пара слов про Gemma 4
17:24 Запуск на 4GB VRAM
19:13 Коротко про кванты моделей
21:20 Qwen3.5:2b к Openclaw
27:06 Qwen3.5:4b
38:12 Заставил Openclaw делать без подтверждения
45:55 Qwen3.5:9b
50:21 gpt-oss:20b
1:07:42 Qwen3.5:35b-a3b
1:27:25 Qwen3.5:122b. Запуск на H100
1:46:21 Подведение итогов
Рекомендуемые видео




















