Transformer 성능 + RNN 효율. 100% 오픈소스 linear attention.
Receptance Weighted Key Value. attention 없이 Transformer 수준 성능. 긴 컨텍스트·저메모리 추론.