Long Context란?
한 번의 API 호출에 책 전체·대형 코드베이스를 넣을 수 있는 능력이다.
현재 수준 (2026)
- Gemini 3.1 Pro — 2M
- Claude Opus 4.7 — 200K (1M 확장)
- GPT-5.4 — 1M
함정
긴 컨텍스트에서 중간 정보를 놓치는 "Lost in the Middle" 현상 존재. 정확도 측정은 Needle-in-Haystack 테스트로.
수십만~수백만 토큰을 한 번에 처리하는 LLM 능력. 2024년 이후 경쟁 포인트.
한 번의 API 호출에 책 전체·대형 코드베이스를 넣을 수 있는 능력이다.
긴 컨텍스트에서 중간 정보를 놓치는 "Lost in the Middle" 현상 존재. 정확도 측정은 Needle-in-Haystack 테스트로.