본문 바로가기
🤖

AI 237개 용어

LLM·에이전트·RAG·임베딩·프롬프트 등 AI 시대 필수 용어

SFT👁 2
Supervised Fine-Tuning
지시-응답 페어로 LLM을 파인튜닝하는 단계. RLHF의 1단계.
SGD👁 2
Stochastic Gradient Descent
무작위 샘플로 그래디언트를 추정하는 경사 하강법. 대용량 학습의 기본.
Sliding Window Attention👁 2
Transformer의 attention을 지역 윈도우로 제한해 긴 컨텍스트 처리 비용을 줄이는 기법.
smolagents👁 2
Hugging Face의 초경량 코드 에이전트. 수백 줄로 agent 구현.
Softmax👁 2
로짓을 확률 분포로 변환하는 함수. 분류·attention의 핵심.
Sora👁 2
OpenAI의 text-to-video 모델. 최대 분 단위 고품질 영상 생성.
Stability AI👁 2
Stable Diffusion 공개사. 오픈 이미지·오디오·비디오 생성 모델.
Stable Diffusion👁 2
Stability AI가 오픈소스화한 text-to-image 모델. 로컬 실행 가능, 생태계 방대.
Streaming Response (LLM)👁 2
LLM 응답을 토큰별로 실시간 전송. SSE로 구현. ChatGPT의 그 효과.
Streamlit👁 2
Python 스크립트를 대시보드·웹 앱으로 변환. 데이터 사이언스 데모 표준.
Structured Output👁 2
LLM이 JSON 스키마에 100% 부합하는 응답을 생성하게 하는 기능.
Sub-agents👁 2
메인 에이전트가 작업을 위임하는 서브 에이전트. 컨텍스트 격리·전문화.
Summarization👁 2
긴 문서를 짧게 요약하는 NLP 작업. 추출(extractive)과 생성(abstractive) 방식.
SVM👁 2
Support Vector Machine
최대 마진 초평면으로 데이터를 분리하는 지도학습 알고리즘. 고차원 데이터에 강함.
System Prompt👁 2
모델의 역할·톤·제약을 설정하는 최상위 지시. 대화 전체에 영향.
Tensor Parallelism👁 2
단일 텐서 연산을 여러 GPU로 분할. Megatron이 대표.
TensorRT👁 2
NVIDIA의 GPU 추론 가속 라이브러리. 모델 최적화·양자화로 수 배 빠른 서빙.
Text Classification👁 2
텍스트를 미리 정의된 범주로 분류하는 NLP의 기본 작업. 스팸 필터·토픽 분류 등.
Tokenizer👁 2
텍스트를 LLM이 이해하는 토큰 단위로 분할하는 컴포넌트. BPE·WordPiece·SentencePiece가 대표.
Token Limit👁 2
LLM API 호출의 입력·출력 토큰 한계. 모델마다 다름. 비용·지연에 직결.
Tokens per Second👁 2
TPS
LLM 추론 속도 지표. 초당 생성하는 토큰 수. 사용자 체감 중요 요소.
TPU👁 2
Tensor Processing Unit
Google이 개발한 AI 전용 ASIC. Gemini·Google Cloud의 핵심 인프라.
Tree of Thoughts👁 2
CoT를 트리로 확장. 여러 경로를 탐색·평가·가지치기. 복잡 추론에 강함.
TTFT👁 2
Time To First Token
LLM이 첫 토큰을 반환하기까지 지연. 체감 반응성의 핵심.
TTS👁 2
Text-to-Speech
텍스트를 음성으로 변환하는 기술. ElevenLabs·Coqui·Google Cloud TTS.
Underfitting👁 2
모델이 데이터 패턴을 제대로 학습하지 못한 상태. 학습 정확도 자체가 낮음.
VAE👁 2
Variational Autoencoder
잠재 공간에서 샘플링해 데이터를 생성하는 확률적 오토인코더. Diffusion의 예비 단계.
Vercel AI SDK👁 2
Vercel의 벤더 중립 LLM SDK. Next.js·React에 LLM 통합을 간편화.
Vision Transformer👁 2
ViT
이미지를 패치로 쪼개 Transformer로 처리. CNN 대신 SOTA 달성.
vLLM👁 2
UC Berkeley의 고성능 LLM 추론 엔진. PagedAttention으로 메모리·처리량 극대화.
Voice Cloning👁 2
수 초~수 분의 녹음 샘플로 특정인의 목소리를 합성하는 기술.
Whisper👁 2
OpenAI의 오픈소스 음성 인식 모델. 99개 언어 지원, 정확도 높음.
Word2Vec👁 2
Google이 2013년 공개한 단어 임베딩 기법. CBOW·Skip-gram 모델.
XAI👁 2
Explainable AI
모델의 예측 근거를 설명 가능하게 만드는 접근. 의료·금융 등 규제 분야 필수.
XGBoost👁 2
Gradient Boosting의 최적화 구현. 테이블 데이터 Kaggle 우승의 공식.
YOLO👁 2
You Only Look Once
실시간 객체 검출 모델. 이미지 전체를 한 번에 처리해 속도 대비 성능 우수.
ZeRO👁 2
Zero Redundancy Optimizer
DeepSpeed의 메모리 최적화. 옵티마이저 상태·그래디언트·파라미터를 GPU에 분산.