OpenClaw 비용 최적화을 중심으로 openClaw의 가장 큰 장점 중 하나는 여러 AI 모델을 자유롭게 골라 쓸 수 있다는 것입니다. ChatGPT만 쓰거나 Claude만 쓰는 게 아니라, 작업에 따라 가장 효율적인 모델을 배분할 수 있습니다.
이번 편에서는 각 모델의 특성, 비용 아끼는 법, 그리고 스킬로 에이전트를 확장하는 방법까지 한 번에 다루겠습니다.
모델 선택 — 누가 뭘 잘하나?
주요 모델 비교
| 모델 | 강점 | 약점 | 비용 | 추천 용도 |
|---|---|---|---|---|
| Claude Opus | 깊은 사고, 긴 맥락 이해, 복잡한 판단 | 비쌈 | $$$ | 메인 에이전트, 중요 결정 |
| Claude Sonnet | 빠르고 균형 잡힌 성능 | Opus보다 판단력 약간 낮음 | $$ | 일상 대화, 일반 작업 |
| GPT Codex (5.3/5.4) | 코딩 특화, Codex OAuth로 무료급 | 대화형보다 코딩에 최적화 | $ (OAuth) | 서브에이전트, 코딩 작업 |
| GPT-5.4 Mini | 빠르고 가벼움 | 복잡한 추론 약함 | $ | 간단한 자동화, 반복 작업 |
| DeepSeek Chat | 가성비 최강, 한국어 괜찮음 | 안정성 가끔 불안 | ¢ | 폴백, 보조 작업 |
| DeepSeek Reasoner | 추론 능력 좋음 | 느림 | ¢ | 분석, 추론 필요 작업 |
| Ollama 로컬 | 완전 무료, 프라이버시 | 속도/품질 한계 | 무료 | 미팅 기록, 단순 처리 |
| GitHub Copilot | Pro 구독 시 무료급 | 코딩 외 범용성 낮음 | $ (구독) | 코딩 보조 |
| GLM-5 (Z-AI) | 중국어/아시아 컨텍스트 | 영어 중심 작업에 약함 | ¢ | 코딩 서브에이전트 |
비용 체감 비교
대략적인 체감 비용을 커피로 비유하면:
Claude Opus = 스타벅스 아메리카노 ☕☕☕
Claude Sonnet = 편의점 커피 ☕☕
GPT Codex = 회사 무료 커피 ☕ (OAuth 쓰면)
DeepSeek = 자판기 커피 🥤
Ollama 로컬 = 수돗물 🚰 (무료!)
[스크린샷: 모델별 특성 비교 차트]
비용 최적화 전략
전략 1: Codex OAuth — 거의 무료로 GPT 쓰기
ChatGPT Plus 구독($20/월)이 있다면, Codex OAuth를 통해 GPT-5.3 Codex와 GPT-5.4를 OpenClaw에서 사용할 수 있습니다. 별도 API 비용이 거의 들지 않습니다.
설정 방법:
openclaw onboard
# → AI 제공 업체 선택에서 "OpenAI Codex (ChatGPT OAuth)" 선택
# → ChatGPT 로그인 → 인증 완료
이미 설치된 상태라면:
openclaw configure --section model
# → OpenAI Codex OAuth 추가
전략 2: GitHub Copilot Pro — 또 하나의 무료급 옵션
GitHub Copilot Pro($10/월)를 구독하면 GPT-5.4와 GPT-5 Mini를 OpenClaw에서 사용할 수 있습니다. 코딩 작업에 특히 유용합니다.
{
"models": {
"providers": {
"github-copilot": {
"baseUrl": "https://api.individual.githubcopilot.com",
"models": [
{"id": "gpt-5.4", "name": "GitHub Copilot GPT-5.4"},
{"id": "gpt-5-mini", "name": "GitHub Copilot GPT-5 Mini"}
]
}
}
}
}
전략 3: 작업별 모델 배분
이게 진짜 핵심입니다. 모든 작업에 비싼 모델을 쓸 필요가 없습니다.
메인 에이전트 (나와 직접 대화)
→ Claude Opus 또는 Sonnet
서브에이전트 (백그라운드 작업)
→ GPT Codex (코딩, 대량 처리)
→ DeepSeek (간단한 분석)
미팅 기록 에이전트
→ Ollama 로컬 모델 (무료)
긴급 폴백
→ DeepSeek Chat (메인 모델 장애 시)
이렇게 배분하면 월 비용을 70~80% 줄일 수 있습니다.
[스크린샷: 작업별 모델 배분 다이어그램]
전략 4: Fallback 설정
메인 모델이 장애가 나면 자동으로 백업 모델로 전환하는 설정입니다.
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-6",
"fallbacks": ["deepseek/deepseek-chat"]
}
}
}
}
Claude API가 일시 장애여도 DeepSeek으로 자동 전환되어 에이전트가 멈추지 않습니다.
전략 5: 로컬 모델 활용
Mac을 쓰고 계신다면 (특히 M시리즈), Ollama로 로컬 모델을 돌릴 수 있습니다. 완전 무료에 프라이버시까지 보장됩니다.
# Ollama 설치
brew install ollama
# 모델 다운로드
ollama pull qwen3:32b # 범용 (큰 모델)
ollama pull qwen3:8b # 가벼운 모델
ollama pull nomic-embed-text # 임베딩 (메모리 검색용)
OpenClaw 설정:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"api": "ollama",
"models": [
{
"id": "qwen3-32b-local",
"name": "Qwen 3 32B Local",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
}
}
Mac Mini M4 기준 32B 모델이 쾌적하게 돌아갑니다. M1/M2도 8B~14B 모델은 충분합니다.
[스크린샷: Ollama에서 모델 실행 중인 터미널 화면]
모델 설정 in openclaw.json
에이전트별 모델 지정
{
"agents": {
"list": [
{
"id": "main",
"model": "anthropic/claude-opus-4-6"
},
{
"id": "codex",
"model": "openai-codex/gpt-5.4-mini"
},
{
"id": "king",
"model": "openai-codex/gpt-5.3-codex"
},
{
"id": "meet",
"model": "ollama/qwen35b-meeting"
}
]
}
}
모델 별칭(alias) 설정
긴 모델 이름을 매번 치기 귀찮으니 별칭을 설정합니다:
{
"agents": {
"defaults": {
"models": {
"anthropic/claude-sonnet-4-6": {"alias": "claude"},
"anthropic/claude-opus-4-6": {"alias": "claude-opus"},
"openai-codex/gpt-5.3-codex": {"alias": "codex-5.3"},
"deepseek/deepseek-chat": {"alias": "deepseek"}
}
}
}
}
이제 텔레그램에서 /model deepseek처럼 짧게 모델을 전환할 수 있습니다.
스킬 — 에이전트에게 새 능력 추가하기
스킬은 에이전트가 특정 작업을 할 수 있게 해주는 플러그인입니다. 날씨 확인, GitHub 관리, 이메일 전송 등을 스킬로 추가할 수 있습니다.
ClawHub에서 스킬 찾기
ClawHub는 OpenClaw 스킬 마켓플레이스입니다.
# 스킬 검색
clawhub search weather
# 스킬 설치
clawhub install weather
# 설치된 스킬 목록
clawhub list
또는 에이전트에게 직접 요청:
"weather 스킬 설치해줘"
[스크린샷: ClawHub 웹사이트 스킬 검색 화면]
추천 스킬 TOP 10
| 스킬 | 용도 | 추천도 |
|---|---|---|
| weather | 날씨/예보 확인 | ⭐⭐⭐⭐⭐ |
| github | GitHub 이슈/PR/CI 관리 | ⭐⭐⭐⭐⭐ |
| summarize | URL/영상/팟캐스트 요약 | ⭐⭐⭐⭐⭐ |
| gog | Gmail/캘린더/드라이브 | ⭐⭐⭐⭐ |
| himalaya | 이메일(IMAP/SMTP) | ⭐⭐⭐⭐ |
| peekaboo | macOS UI 자동화 | ⭐⭐⭐⭐ |
| obsidian | Obsidian 노트 관리 | ⭐⭐⭐ |
| openhue | Philips Hue 조명 제어 | ⭐⭐⭐ |
| xurl | X(Twitter) 포스팅 | ⭐⭐⭐ |
| coding-agent | 코딩 작업 위임 | ⭐⭐⭐⭐⭐ |
TOOLS.md — 내 환경에 맞게 세팅
스킬이 내 환경 정보를 알아야 할 때 TOOLS.md에 적어둡니다.
# TOOLS.md - Local Notes
### SSH
- home-server → 192.168.1.100, user: admin
### Cameras
- living-room → 거실, 180° 광각
### TTS
- Preferred voice: "Nova"
스킬은 공유 가능한 레시피이고, TOOLS.md는 내 주방의 재료 목록입니다. 분리해두면 스킬을 업데이트해도 내 설정이 사라지지 않습니다.
스킬 직접 만들기 — 기초
자주 하는 작업이 있으면 스킬로 만들 수 있습니다.
# 스킬 폴더 구조
~/.openclaw/workspace/skills/my-skill/
├── SKILL.md ← 스킬 설명 + 사용법
└── scripts/
└── my-script.sh ← 실행 스크립트
SKILL.md 예시:
# My Custom Skill
## Description
매일 아침 서버 상태를 확인하는 스킬
## Usage
"서버 상태 확인해줘"라고 말하면 실행
## Commands
\`\`\`bash
./scripts/check-server.sh
\`\`\`
에이전트가 이 SKILL.md를 읽고, 관련 요청이 오면 스크립트를 실행합니다.
비용 관리 실전 팁
월 비용 시뮬레이션
아래는 실제 운영 사례 기반 월 비용 예상입니다:
올인 Claude Opus (비추):
메인 대화: Claude Opus × 하루 50회 = $$$
서브에이전트: Claude Opus = $$$
총: 월 $100~200+
최적화 배분 (추천):
메인 대화: Claude Opus × 하루 50회 = $$
서브에이전트: Codex OAuth = $ (사실상 무료)
미팅 기록: Ollama 로컬 = $0
정기 작업: DeepSeek = ¢
총: 월 $20~40
차이가 5배 이상 납니다!
비용 확인하기
# 세션별 사용량 확인
openclaw status
텔레그램에서:
"/status" — 현재 세션 모델/토큰 사용량 확인
마무리 — 똑똑하게 쓰는 게 진짜 실력
모델 선택과 비용 관리는 기술적 문제가 아니라 전략적 문제입니다.
핵심 원칙:
- 메인 에이전트에만 좋은 모델 — 내가 직접 대화하는 건 품질 우선
- 서브에이전트는 가성비 — 백그라운드 작업은 Codex/DeepSeek
- 로컬 모델 적극 활용 — 단순 작업은 Ollama로
- Fallback 필수 — 장애 대비는 기본
- 스킬로 확장 — 기능 추가는 스킬로
다음 편(마지막!)에서는 멀티 에이전트 운영과 트러블슈팅을 다루겠습니다. 에이전트 군단을 운영하는 법과, 고장났을 때 살아남는 법까지!
관련 글:
참고 자료:
- OpenClaw 공식 문서
- ClawHub — 스킬 검색/설치
- Ollama — 로컬 모델