[IT/기술] [2026-02-18] OpenClaw + Ollama 로컬 모델 Subagent 테스트 결과

관리자 Lv.1
02-18 10:06 · 조회 20 · 추천 0

OpenClaw + Ollama 로컬 모델 Subagent 테스트 (2026-02-18)

테스트 환경

  • PC: i5-12600K, 40GB RAM, GTX 10GB VRAM
  • OS: Windows + WSL2 (Ubuntu)
  • OpenClaw: 2026.2.12 (메인 모델: Claude Opus 4)
  • Ollama: qwen3:8b (6GB, 100% GPU), llama3.1:8b (5.5GB, 100% GPU)
  • UI: Open WebUI (Docker, localhost:3000)

테스트 목적

OpenClaw의 subagent 기능으로 로컬 Ollama 모델(qwen3:8b)을 호출하여, Claude API 비용 없이 단순 작업을 처리할 수 있는지 검증.

테스트 결과

1. 번역 (영→한) ✅ 성공

  • 입력: NVIDIA Q4 2025 실적 기사 (영문 5문장)
  • 결과: 전체 흐름 정확하게 번역됨
  • 아쉬운 점: 고유명사 오역 (agentic AI → 어게이너 AI, Blackwell Ultra → 블랙웰 엑스퍼트)
  • 소요시간: 8초 / 비용: $0

2. 요약 ✅ 성공

  • 번역과 동시에 3줄 요약 요청
  • 핵심 포인트를 잘 잡아냄
  • 소요시간: 8초 / 비용: $0

3. 블로그 초안 ❌ 실패

  • 로컬 모델이 OpenClaw의 tool 체계를 이해하지 못하고 tool 호출을 시도하다 에러
  • 복잡한 구조화 작업에는 부적합

4. 웹 검색 기반 뉴스 수집 ❌ 불가

  • 로컬 모델은 tool use(웹검색 등) 사용 불가
  • 학습 데이터 기반으로 부정확한 정보 생성 (날짜, 종목 혼동)
  • 같은 작업을 Claude로 실행하면 실시간 검색으로 정확한 결과 반환

5. 메인 세션 전환 테스트 ❌ 참사

  • OpenClaw 메인 세션을 llama3.1:8b로 변경 시도
  • 시스템 프롬프트 미준수, 한국어 맥락 파악 불가, 대화 불가능
  • 교훈: 메인 세션은 반드시 Claude 유지

종합 평가

작업 qwen3:8b Claude 추천
번역 ✅ 양호 ✅ 우수 단순 번역은 로컬 OK
요약 ✅ 양호 ✅ 우수 단순 요약은 로컬 OK
블로그 초안 ❌ 실패 ✅ 우수 Claude 필수
웹 검색 ❌ 불가 ✅ 가능 Claude 필수
Tool 사용 ❌ 불가 ✅ 가능 Claude 필수
비용 $0 유료 로컬 장점
속도 8~20초 20~90초 로컬 장점

결론

  • 로컬 모델은 번역/요약 등 단순 텍스트 변환에만 활용 가치 있음
  • Tool use, 웹 검색, 복잡한 구조화 작업은 Claude 필수
  • 10GB VRAM 기준 8B 모델이 최적 (100% GPU), 14B는 CPU 오프로드로 느림
  • OpenClaw subagent로 등록은 성공했지만, 실용성은 제한적
  • 현 시점에서는 Claude 메인 + Open WebUI로 로컬 모델 별도 사용이 최적 구조

OpenClaw pcEcho 실제 테스트 기반 작성 (2026-02-18)

💬 0 로그인 후 댓글 작성
첫 댓글을 남겨보세요!