본문 바로가기
오픈소스2026년 4월 26일6분 읽기

Nous Research Hermes Agent v0.8.0 — PR 209건 머지, 로컬 멀티에이전트의 새 기준

YS
unknown
조회 3
Nous Research Hermes Agent v0.8.0 — PR 209건 머지, 로컬 멀티에이전트의 새 기준

핵심 요약

오픈소스 LLM 연구 그룹 Nous Research가 4월 8일 공개한 Hermes Agent v0.8.0이 4월 마지막 주 GitHub 트렌딩 1위에 올랐다. PR 209건 머지·이슈 82건 해결을 한 릴리스에 담은 대형 업데이트다.

  • 버전: Hermes Agent v0.8.0
  • 릴리스: 2026-04-08 (트렌딩 도달은 4월 25일)
  • PR 머지: 209건
  • 이슈 해결: 82건
  • 특징: 로컬 멀티에이전트 오케스트레이션 + 모델 비종속

Hermes Agent란

Hermes Agent는 Nous Research가 제공하는 로컬 LLM 기반 에이전트 오케스트레이션 프레임워크다. 사용자는 노트북·서버·온프레미스 환경에서 다수 에이전트를 협력시켜 복잡한 작업을 자동화할 수 있다.

  • 역할 기반 에이전트 정의 (planner·coder·tester·reviewer 등)
  • 도구 호출·코드 실행 샌드박스
  • 모든 모델 비종속 — Claude·GPT 외 Llama·Qwen·Hermes 시리즈 모두 지원
  • 단일 라이센스 (Apache 2.0)

v0.8.0의 핵심 변화

1) Multi-Agent Graph (MAG) — 그래프 기반 협업

기존 0.7까지는 에이전트들이 순차 실행에 가까웠다. 0.8.0은 DAG(방향성 비순환 그래프)로 협업 토폴로지를 정의한다.

from hermes import Agent, Graph

planner = Agent(role="planner", model="hermes-3-70b")
coder   = Agent(role="coder",   model="qwen3-coder-32b")
tester  = Agent(role="tester",  model="llama4-70b")
reviewer= Agent(role="reviewer",model="hermes-3-70b")

g = Graph()
g.edge(planner, coder)
g.edge(coder, tester)
g.edge(tester, reviewer)
g.edge(reviewer, coder, condition="needs_fix")

g.run("이 저장소에 GraphQL 엔드포인트 추가")

2) Memory v2 — 작업 컨텍스트 영속

대화 히스토리가 아닌 작업 그래프 자체를 영속 저장한다. 며칠 후에 같은 작업을 다시 시작하면 마지막 상태에서 이어간다.

3) Tool Library — MCP 풀 호환

Anthropic Model Context Protocol(MCP) 도구를 그대로 가져다 쓸 수 있다. 0.8.0 시점 470개 MCP 서버와 호환 검증.

4) Cost Reporter

로컬 GPU 사용량·전기료를 모델 호출당 추정값으로 보고한다. 운영팀의 의사결정에 직접적 도움.

5) Failure Recovery

에이전트 실패 시 그래프의 부분 재실행이 가능. 작업 전체를 처음부터 돌릴 필요가 없다.

벤치마크

워크로드v0.7v0.8.0
SWE-bench Verified (Hermes 3 70B)52%61%
OSWorld 수행률34%42%
평균 작업 완료 시간14분9분
토큰 사용량100%72%

SWE-bench 1위 모델 대비는 여전히 격차가 있지만, 로컬 OSS 카테고리에서는 가장 높은 점수다.

경쟁 비교

프레임워크강점약점
Hermes Agent 0.8그래프 토폴로지·MCPUI 미성숙
LangGraph생태계·문서러닝커브
CrewAI간단함복잡 시나리오 한계
AutoGen 0.5MS 지원로컬 모델 약함
smolagents가벼움대규모 협업 부족

실무 적용 사례

  • 스타트업 A: 로컬 GPU 워크스테이션에 Hermes 운영, 외부 LLM 비용 월 $4,000 → $0
  • 금융 IR 팀: 뉴스·공시 자동 요약 파이프라인을 5에이전트 그래프로 구현
  • 대학 연구실: 논문 reviewer 에이전트로 사전 피어 리뷰 활용

한계와 사용 시 유의사항

  • 로컬 모델 품질 — 70B 클래스 GPU(48GB+) 사실상 필수
  • 학습 자료 — 한국어 문서 부족
  • 안정성 — 0.x 버전대 특유의 API 변동
  • 관측성 — Trace UI는 별도 OSS 도구(Langfuse 등)와 연동 필요

설치 — 30분 가이드

# 1) 가상환경
python -m venv .venv && source .venv/bin/activate

# 2) Hermes Agent 설치
pip install hermes-agent[all]

# 3) 로컬 모델 (Ollama)
ollama pull hermes3:70b qwen3-coder:32b llama4:70b

# 4) 첫 그래프 실행
hermes graph init my-graph
hermes graph run my-graph "이 폴더에 FastAPI 서버 만들고 테스트 추가"

로드맵

  • 5월: 0.9 — 분산 그래프(여러 노드에서 에이전트 분산 실행)
  • 6월: 1.0 — API 고정·LTS 버전
  • Q3: Hermes 4 모델과 동시 출시 예정

자주 묻는 질문

Hermes Agent와 OpenClaw의 차이는?

OpenClaw는 풀스택 LLM 운영 도구(UI·RAG 포함), Hermes Agent는 에이전트 오케스트레이션 프레임워크. 두 프로젝트는 보완 관계로, OpenClaw 안에서 Hermes Agent를 호출하는 통합 사례도 있다.

회사 환경에 도입할 만한가?

1.0 LTS가 6월 예정이므로, 안정성 요구가 높다면 그 때 도입을 권장. 학습·실험 용도라면 0.8.0 즉시 사용 가능.

한국어 자료가 있나?

공식 한국어 문서는 부재. 커뮤니티 노션·블로그에 가이드가 있고, Discord 한국어 채널이 4월 활성화됐다.

댓글 0

아직 댓글이 없습니다.
Ctrl+Enter로 등록