본문 바로가기
AI2024년 6월 2일1분 읽기

RAG (Retrieval-Augmented Generation) 구현 가이드

YS
김영삼
조회 1951

RAG란

LLM의 지식을 외부 문서로 확장하는 기법입니다. 질문과 관련된 문서를 검색하여 LLM에 컨텍스트로 전달합니다.

아키텍처

  1. 문서 로드 및 청킹
  2. 임베딩 생성 (OpenAI/Cohere)
  3. 벡터 DB 저장 (Pinecone/Chroma)
  4. 질문 → 유사 문서 검색 → LLM에 전달
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings

db = Chroma.from_documents(docs, OpenAIEmbeddings())
results = db.similarity_search("질문", k=3)

댓글 0

아직 댓글이 없습니다.
Ctrl+Enter로 등록