핵심 요약
2026-04-16 출시된 Claude Opus 4.7은 1M 토큰 컨텍스트를 long-context 추가요금 없이 제공한다. 가격은 4.6과 동일($5/M input, $25/M output)이지만 새 토크나이저로 같은 입력의 토큰 수가 1.0~1.35배 증가하는 경우가 있어 실효 비용은 다르다.
- SWE-bench Verified: 87.6% (4.6: 80.8%)
- Terminal-Bench 2.0: 69.4%
- 최초로 고해상도 이미지(2,576px 장축, ~3.75MP) 입력 지원
- 1M 컨텍스트 = 약 75만 단어 = 중형 코드베이스 1개 통째로
1. 1M 컨텍스트 실전 패턴
패턴 A: 코드베이스 전체 분석
import Anthropic from '@anthropic-ai/sdk'
const client = new Anthropic()
// repomix 같은 도구로 전 코드 → 1개 텍스트
const codebase = await fs.readFile('./repomix-output.md', 'utf-8')
const res = await client.messages.create({
model: 'claude-opus-4-7',
max_tokens: 8192,
system: [
{ type: 'text', text: '시니어 풀스택 개발자. 코드 품질·보안·성능 관점.' },
{ type: 'text', text: codebase, cache_control: { type: 'ephemeral' } },
],
messages: [{ role: 'user', content: '인증 흐름의 보안 취약점을 모두 찾아줘.' }],
})코드베이스를 system message에 캐시(cache_control)로 박으면 첫 호출만 풀 비용이고 이후 호출은 입력 토큰의 10%만 과금. 같은 코드에 5번 질문하면 비용 60%↓.
패턴 B: 멀티 파일 PR 리뷰
// PR diff + 주변 컨텍스트 파일 동봉
const context = [
...changedFiles.map(f => ({ path: f, content: readFile(f) })),
...relatedFiles.map(f => ({ path: f, content: readFile(f) })), // import 경로 따라간 것
]
// 100KB diff + 500KB 주변 컨텍스트 = 약 200K 토큰 (여유)
2. 토큰 회계 — 새 토크나이저 함정
| 입력 종류 | 4.6 토큰 | 4.7 토큰 | 증가율 |
|---|---|---|---|
| 한국어 문서 | 10,000 | 12,500 | +25% |
| TypeScript 코드 | 10,000 | 10,200 | +2% |
| 혼합 콘텐츠 | 10,000 | 11,500 | +15% |
한국어 비중 높은 워크로드는 비용 +20~30% 증가. 마이그레이션 전 실측 필수.
3. 캐싱 5분 TTL 전략
Anthropic 캐시는 5분 TTL. 이를 의식한 호출 패턴이 비용을 좌우한다.
// 안티패턴 — 5분 넘게 띄엄띄엄 호출
for (const q of questions) {
await ask(codebase, q) // 매번 캐시 미스
await sleep(10 * 60 * 1000) // 10분 대기
}
// 권장 — 5분 안에 몰아서
const batch = await Promise.all(
questions.map(q => ask(codebase, q)) // 모두 캐시 히트
)4. 1M 활용이 의미 없는 경우
- RAG로 충분한 경우: 정확한 답을 얻기 위해 몇 페이지만 필요하면 retrieval이 더 싸다
- Lost in the middle: 800K 토큰 중간 부분은 끝/시작보다 회상률이 떨어짐. 중요한 건 양 끝에
- 지연시간: 1M 입력은 첫 토큰까지 30~60초. 대화형 UX에는 부적합
5. 코딩 에이전트의 새 경제학
긴 호출(long-running agent)이 가능해졌다. 50번 도구 호출하는 에이전트를 1개 세션에 담을 수 있음:
const agent = new ClaudeAgent({
model: 'claude-opus-4-7',
tools: [filesystem, bash, browser, ...],
// 컨텍스트가 1M까지 누적되도록 허용
maxContextTokens: 800_000,
})
// 50개 step 진행해도 컨텍스트 안 넘침6. 이미지 입력 — 3.3배 해상도
2,576px 장축 = 4.6 대비 3.3배. 스크린샷 디버깅에 게임 체인저:
- UI 버그 스크린샷에서 픽셀 단위 정렬 차이 식별
- 아키텍처 다이어그램 텍스트까지 정확히 읽음
- 코드 스크린샷도 OCR 없이 직접 처리
7. 4.6 → 4.7 마이그레이션 체크리스트
- 토크나이저 변경 영향 — 한국어 워크로드는 실측
- 모델 ID만 교체 후 회귀 테스트 (대부분 호환)
- 1M 컨텍스트로 RAG 일부 제거 가능한지 검토
- 고해상도 이미지 입력 새로 활용 가능
- 캐시 정책 재검토 (긴 컨텍스트일수록 캐시 ROI 큼)
8. 실측 비용 시나리오
| 시나리오 | 토큰 | 비용/호출 |
|---|---|---|
| 코드리뷰 (50K input + 2K output) | 52K | $0.30 |
| 전체 레포 분석 (500K + 5K) | 505K | $2.63 |
| 위 + 캐시 히트 (5K + 5K) | 10K | $0.15 |
| 긴 에이전트 세션 (300K + 50K) | 350K | $2.75 |
자주 묻는 질문
Sonnet 4.6과 비교했을 때 항상 Opus 4.7이 나은가?
아니다. 단순 분류·요약 등은 Sonnet 4.6이 더 빠르고 1/5 가격. 추론 깊이가 중요한 경우만 Opus.
1M 컨텍스트를 다 쓰는 게 의미가 있나?
대부분 50~200K로 충분. 1M은 도구일 뿐, 강제로 채우면 비용↑·정확도↓.
OpenAI o-series와 비교?
코딩(SWE-bench)은 Opus 4.7이 우위. 수학·과학 추론은 OpenAI 추론 모델이 비등하거나 우세. 도구 사용·에이전트는 Claude가 안정적.

댓글 0