본문 바로가기
AI2026년 5월 2일3분 읽기

LG AI연구원, EXAONE 5.0 공개 — 한국어 멀티모달 SOTA·OSS 이미지 모델 동시 공개

YS
김영삼
조회 1568
LG AI연구원, EXAONE 5.0 공개 — 한국어 멀티모달 SOTA·OSS 이미지 모델 동시 공개

핵심 요약

LG AI연구원이 5월 2일 EXAONE 5.0을 공개했다. 한국어 멀티모달 벤치마크에서 GPT-5·Gemini 3·Claude 4.7을 모두 앞질렀고, 이미지 생성 전용 EXAONE-V는 Apache 2.0 라이선스로 오픈소스 배포된다.

  • 모델 라인업: EXAONE 5.0 (300B Dense + 32B MoE), EXAONE-V (12B 이미지 생성)
  • 한국어 KMMLU: 88.4 (직전 SOTA Gemini 3 84.1)
  • 한국어 KoBEST: 91.2
  • 이미지 EXAONE-V: Apache 2.0, 가중치 + 학습 코드 공개

왜 한국어에 강한가

한국어 토큰을 별도 어휘로 학습한 것이 핵심. 영어·중국어와 별도의 의미 공간(latent space)을 갖도록 설계됐고, 한국어 데이터 비율이 학습 토큰의 38%를 차지한다(GPT-5는 0.7% 추정).

  • 학습 데이터: 14T 토큰 중 한국어 5.3T
  • 법률·의료·금융 도메인: 한국 특화 코퍼스 적용
  • 방언·옛한글: 별도 토크나이저

EXAONE-V 오픈소스 의미

이미지 생성 영역에서 한국 기업 최초의 SOTA급 오픈소스 모델. Stable Diffusion 3.5·FLUX.1 schnell과 직접 경쟁한다. LG가 지적한 차별점:

  • 한글 텍스트 렌더링 — Sora·Imagen 4도 못 푼 영역
  • 한국 인물·풍경 학습 — 기존 모델의 "서양인 편향" 해결
  • 모바일 추론 — 12B 4-bit 양자화 시 갤럭시 S26에서 5초/장

활용처

업종도입 사례
방송SBS·MBC 실시간 자막 + 더빙
법률로앤컴퍼니 — 판례 검색 비용 1/4
제조현대차·LG에너지솔루션 사내 도입
공공국세청·법제처 시범 운영

다운로드

# Hugging Face에서 EXAONE-V 가중치 받기
huggingface-cli download LGAI-EXAONE/EXAONE-V-12B \
  --local-dir ./exaone-v

과제

업계는 추론 인프라 비용을 묻고 있다. LG는 "글로벌 멀티 클라우드 + AWS Bedrock 정식 등재"로 응답했다. Bedrock 등재는 5월 14일 AWS Summit Seoul에서 공식 발표 예정이다.

댓글 0

아직 댓글이 없습니다.
Ctrl+Enter로 등록