본문 바로가기
🤖

AI 237개 용어

LLM·에이전트·RAG·임베딩·프롬프트 등 AI 시대 필수 용어

ARC👁 2
AI2 Reasoning Challenge
초등 과학 객관식 벤치마크. 추론 능력 평가.
Autoencoder👁 2
입력을 저차원으로 압축 후 복원하는 신경망. 차원 축소·이상 탐지·표현 학습에 활용.
AutoGen👁 2
Microsoft의 멀티 에이전트 프레임워크. Conversable Agent 패턴.
AutoGPT👁 2
2023년 화제가 된 자율 에이전트. GPT-4에 목표만 주면 스스로 작업 분해·실행.
Autoregressive Model👁 2
이전 출력을 기반으로 다음을 예측하는 모델. GPT·Llama 등 대부분 LLM.
Backpropagation👁 2
신경망 학습의 핵심 알고리즘. 출력 오류를 거꾸로 전파해 가중치 기울기를 계산.
Batch API (LLM)👁 2
OpenAI·Anthropic의 비동기 배치 처리. 50% 저렴, 24시간 내 완료.
Batch Normalization👁 2
층마다 입력을 정규화해 학습을 안정화하는 기법. 이미지 모델의 표준.
Batch Size👁 2
한 스텝에서 처리하는 샘플 수. GPU 메모리·학습 안정성·최적화에 영향.
BPE👁 2
Byte Pair Encoding
자주 등장하는 문자 쌍을 병합해 서브워드 어휘를 구축하는 토큰화 기법. GPT·Llama가 사용.
Cerebras👁 2
WSE(Wafer Scale Engine) 거대 칩으로 LLM 학습·추론. 세계 최대 AI 칩.
Chatbot👁 2
자연어로 대화하는 소프트웨어. LLM 등장 이후 품질·활용이 급상승.
Chatbot Arena👁 2
LMSys의 LLM 블라인드 비교 리더보드. Elo 점수로 순위.
Chunking👁 2
RAG 파이프라인의 첫 단계. 긴 문서를 임베딩·검색에 적합한 단위로 분할.
Claude Agent SDK👁 2
Anthropic의 에이전트 빌드 SDK. 도구·메모리·서브에이전트 패턴.
CLIP👁 2
Contrastive Language-Image Pre-training
OpenAI의 이미지-텍스트 공동 임베딩 모델. Stable Diffusion의 텍스트 이해 기반.
CNN👁 2
Convolutional Neural Network
이미지 처리에 최적화된 신경망. Convolution·Pooling 층으로 공간 특징 추출.
Cohere👁 2
엔터프라이즈 LLM·임베딩·리랭커 전문 AI 회사. 2019년 캐나다에서 창업.
Completion API👁 2
LLM의 텍스트 생성 API. 현대엔 Chat Completions가 표준.
Confusion Matrix👁 2
분류 결과를 TP·TN·FP·FN 4분면으로 정리한 표. 성능 분석의 기본.
Constitutional AI👁 2
Anthropic이 제안한 정렬 방법. 사람 대신 AI가 헌법적 원칙으로 자기 출력을 평가·개선.
Context Caching👁 2
긴 프롬프트의 반복 부분을 캐시해 비용·지연을 절감. Claude·Gemini가 선도.
Context Engineering👁 2
프롬프트보다 넓은 개념. 검색·도구·메모리까지 포괄한 LLM 컨텍스트 설계.
Continual Learning👁 2
모델을 계속 새 데이터로 학습시키되 이전 지식을 잊지 않게 하는 연구 분야.
CrewAI👁 2
역할 기반 멀티 에이전트 프레임워크. Agent·Task·Crew 추상화.
Cross-Entropy Loss👁 2
분류 문제의 대표 손실 함수. 예측 확률과 실제 분포의 차이.
CUDA👁 2
NVIDIA의 GPU 프로그래밍 플랫폼·언어. 딥러닝 프레임워크의 기반.
Cursor👁 2
AI 코딩에 특화된 VS Code 포크 에디터. Tab 자동완성과 Cmd+K 인라인 편집으로 바이브 코딩 시대를 선도.
DALL·E👁 2
OpenAI의 text-to-image 모델. DALL·E 3가 ChatGPT에 내장되어 대중화.
Data Augmentation👁 2
원본 데이터를 변형·합성해 학습 데이터를 늘리는 기법. 이미지·텍스트·오디오 전반.
DataLoader👁 2
PyTorch·TensorFlow의 배치 데이터 공급자. 병렬 로딩·셔플·증강.
Decision Tree👁 2
질문의 이진 분할로 예측하는 트리 기반 모델. 해석 가능성이 강점.
DeepSeek R1👁 2
중국 DeepSeek이 2025년 공개한 오픈소스 추론 모델. o1급 성능을 훨씬 낮은 비용으로 구현해 업계 충격.
DPO👁 2
Direct Preference Optimization
RLHF의 단순·안정적 대안. 보상 모델 없이 선호도 데이터로 직접 최적화.
Dropout👁 2
학습 중 무작위로 일부 뉴런을 비활성화해 과적합을 막는 정규화 기법.
Epoch👁 2
전체 학습 데이터를 한 번 통과하는 단위. 일반적으로 여러 에폭 학습.
Eval Harness👁 2
LLM을 표준 벤치마크로 자동 평가하는 프레임워크. lm-eval-harness가 대표.
Extended Thinking👁 2
Claude가 답변 전에 긴 내부 사고를 거치는 모드. o1 스타일의 reasoning 기능을 Anthropic 방식으로 구현.
F1 Score👁 2
Precision과 Recall의 조화 평균. 불균형 클래스 분류의 표준 지표.
FLUX👁 2
Black Forest Labs(Stable Diffusion 창시자 일부)의 차세대 오픈 이미지 모델. 2024년 공개.
Foundation Model👁 2
대규모 데이터로 사전학습돼 다양한 downstream에 적응 가능한 범용 AI 모델.
FSDP👁 2
Fully Sharded Data Parallel
PyTorch의 대형 모델 분산 학습. ZeRO-3와 유사한 파티셔닝.
Function Calling👁 2
LLM이 JSON 스키마에 따라 함수 호출을 생성하는 기능. OpenAI가 2023년 공식화.
GAN👁 2
Generative Adversarial Network
생성자와 판별자가 경쟁하며 학습하는 생성 모델. 이미지 생성의 초기 혁명.
Gemma👁 2
Google DeepMind의 경량 오픈소스 LLM. Gemini 아키텍처 기반, 로컬·엣지 실행 최적화.
Google DeepMind👁 2
Google의 AI 연구 조직. AlphaGo·Gemini·Gemma·AlphaFold로 유명.
GPU👁 2
Graphics Processing Unit
그래픽·딥러닝 연산을 병렬 처리하는 프로세서. NVIDIA CUDA가 AI 표준.
Gradient Checkpointing👁 2
중간 activation을 버리고 역전파 때 다시 계산. 메모리 절약하고 속도는 약간 희생.
Gradient Descent👁 2
손실을 최소화하는 방향으로 가중치를 조정하는 최적화 알고리즘.
Gradio👁 2
Python 코드로 ML 데모 웹 UI를 빠르게 만드는 라이브러리. Hugging Face 인수.