핵심 요약
오픈소스 셀프호스팅 LLM 운영 도구 OpenClaw가 GitHub 별 21만 개를 돌파했다. 2026년 1월 말 9,000개 수준이었던 것이 4월 19일 21만 개를 넘어 사실상 GitHub 역사상 가장 빠른 성장 곡선을 그렸다.
- 현재 별 수: 210K+ (4월 19일 기준)
- 1월 말: 9K
- 증가 속도: 약 90일에 200K — 일평균 2,200+ 별
- 라이선스: MIT
- 구성: Rust 코어 + TS UI + Python 어댑터
OpenClaw가 무엇인가
OpenClaw는 한 줄로 요약하면 "Self-hosted Claude·ChatGPT 풀 스택 대체품"이다. 다음 기능을 단일 바이너리로 제공한다.
- 로컬 LLM 추론 (Ollama·llama.cpp·vLLM 호환)
- RAG 파이프라인 (벡터 DB·하이브리드 검색)
- 도구 사용·코드 실행 샌드박스
- 다중 사용자·팀 권한·감사 로그
- Web UI + REST API + MCP 호환
왜 이렇게 빨리 터졌나
1) "외부 API 금지" 환경의 폭발적 수요
2026년 들어 미국·EU의 다수 규제 산업(금융·의료·국방·일부 공공)에서 외부 LLM API 호출이 사실상 금지됐다. OpenClaw는 모든 처리가 로컬에서 끝나며, 별도 데이터 외부 송신이 0건이다.
2) 1월 말 viral 데모
1월 28일, 한 개발자가 인터넷 연결을 끊은 노트북에서 OpenClaw로 풀스택 앱을 만드는 4분짜리 데모를 X에 올렸다. 이 영상이 720만 뷰를 기록하면서 "셀프호스팅도 가능하다"는 인식이 단숨에 퍼졌다.
3) 빅테크 인력 출신 메인테이너
OpenClaw 핵심 메인테이너 4명 중 3명이 OpenAI·Anthropic·DeepMind 출신이다. "프런티어 랩이 만든 셀프호스팅 OSS"라는 브랜드 효과가 컸다.
4) MCP 호환
OpenClaw는 Anthropic Model Context Protocol(MCP)을 1.0부터 호환했다. 사용자는 기존 MCP 도구·서버를 그대로 갖다 쓸 수 있어 도입 장벽이 매우 낮다.
아키텍처
| 레이어 | 구현 | 역할 |
|---|---|---|
| Core | Rust | 요청 라우팅·세션·권한 |
| Inference | vLLM·llama.cpp·Ollama | 모델 실행 |
| Memory | Tantivy + BGE-M3 | 로컬 풀텍스트 + 임베딩 |
| Tools | Firecracker microVM | 코드 실행 샌드박스 |
| UI | Next.js | 웹 콘솔 |
| API | OpenAI·MCP 호환 | 외부 통합 |
설치 — 5분이면 끝
# 1) 단일 바이너리 설치
curl -sSL https://openclaw.dev/install.sh | sh
# 2) 모델 준비
ollama pull llama4:70b
# 3) 서버 실행
openclaw serve --port 7000
# 4) 접속
open http://localhost:7000
M3 Max MacBook 기준 첫 실행 준비까지 평균 5분. 이후는 단일 바이너리로 상시 구동.
벤치마크 (공식)
| 벤치마크 | OpenClaw + Llama 4 70B | ChatGPT | Claude Sonnet 4.6 |
|---|---|---|---|
| 응답 품질 (MT-Bench) | 8.2 | 9.1 | 9.0 |
| 지연시간 (M3 Max) | 4.1s | 1.8s | 1.6s |
| 월 운영비 (1인) | $0 | $20 | $20 |
| 데이터 외부 송신 | 0 | 전체 | 전체 |
실무 도입 — 누구에게 적합한가
- 외부 API 금지 환경 — 사실상 유일한 풀스택 OSS 대안
- 월 100명 이상 사용자 — 클라우드 LLM 사용료 vs 자체 GPU 비용 분기점
- RAG 사내 지식베이스 — Knowledge Catalog 자체 운영 팀
- 학습용 — LLM 운영 전체 스택을 직접 만져보고 싶은 학습자
한계와 비판
- 모델 품질 — 70B 클래스가 한계, 프런티어 모델 대비 1단계 격차
- GPU 자원 — 24GB VRAM 이상이 사실상 필수
- 운영 부담 — 단일 바이너리지만 GPU·모델·인덱스·백업의 운영은 여전히 복잡
- 커뮤니티 분열 — 기능 vs 안정성 우선 진영 간 충돌
로드맵 (공개된 범위)
- 5월: 멀티 에이전트 mode + 작업 큐
- 6월: VS Code·Cursor 공식 확장
- Q3: 엣지·온프레미스 어플라이언스 빌드
- Q4: 엔터프라이즈 SSO·감사 기능 정식 GA
경쟁 OSS 비교
| 도구 | 강점 | 약점 |
|---|---|---|
| OpenClaw | 풀스택·MCP·viral | 핫 프로젝트 특유 변동성 |
| Open WebUI | UI 성숙 | 도구·샌드박스 약함 |
| Dify | 워크플로 빌더 | 로컬 전용은 후순위 |
| RAGFlow | RAG 특화 | 일반 LLM 채팅 부족 |
자주 묻는 질문
프로덕션 도입해도 되나?
가능. 단 동일 메이저 버전을 1개월 이상 유지하고, 자체 백업·롤백 절차를 두는 것이 안전하다.
Claude Code·Cursor의 대체가 되나?
코딩 보조 측면에서는 모델 품질 차이로 인해 1단계 아래. 단 데이터 외부 반출 금지 환경에서는 사실상 유일한 현실적 옵션.
왜 GitHub 별이 이렇게 빨리 늘었나?
"외부 API 금지 + 빅테크 출신 + viral 데모 + MCP 호환"의 4박자가 동시에 맞아떨어진 결과. 같은 조건이 다시 형성되기 어렵다는 평이 많다.

댓글 0