본문 바로가기
Y
S
영삼넷
youngsam.net
프로그램
기술노트
뉴스
자료실
커뮤니티
소개
TECH NOTES
기술노트
현장에서 검증된 개발 지식을 기록합니다.
전체
AI
Frontend
Backend
Database
Infra
Etc
전체
1
건
최신순
조회순
추천순
#GGUF ✕
1
AI
4분 읽기
Llama.cpp 로컬 LLM 최적화 — 양자화와 GGUF 포맷
llama.cpp를 활용한 로컬 LLM 실행 시 양자화 수준별 성능 차이와 GGUF 포맷의 구조를 분석하고 최적 설정을 찾는 방법입니다.
#Llama
#양자화
#GGUF
2025.07.20