Alignment란?"AI가 더 똑똑해져도 인간에게 유익한 방향으로 행동하는가"를 연구·구현하는 분야다.기법RLHF — 인간 피드백Constitutional AI (Anthropic)Debate, Recursive Reward ModelingRed teaming