본문 바로가기
AI#AI#Safety#Production조회 1

Guardrails란?AI 가드레일

정의

LLM 입출력에 추가하는 안전·품질 검증 레이어. 민감정보 마스킹·환각 감지·토픽 제한 등.

다른 표현가드레일LLM 가드레일

Guardrails란?

LLM을 그대로 프로덕션에 쓰기엔 위험하다. 입력·출력을 별도 검증 레이어로 감싸 안전·품질을 보장한다.

주요 체크

  • PII 탐지·마스킹
  • 주제 벗어남 감지 (off-topic)
  • 유해 콘텐츠 필터
  • 환각 탐지 (출력이 컨텍스트 근거에 맞나)
  • JSON 스키마 강제

도구

Guardrails AI, NVIDIA NeMo Guardrails, Protect AI, Azure AI Content Safety, AWS Bedrock Guardrails.

설계

입력과 출력 양쪽에 걸어야 효과적. 실패 시 폴백 응답이나 재시도 프롬프트 구현.

📘 관련 기술노트

전체 보기 →

🔗 함께 보면 좋은 용어

AI 전체 →