Mamba
Selective SSM으로 긴 시퀀스를 선형 시간에. Transformer의 O(N²) attention 대비 효율적. Mamba·Mamba-2·Jamba 하이브리드로 발전.
Transformer 대안 아키텍처. State Space Model 기반, O(N) 복잡도.
Selective SSM으로 긴 시퀀스를 선형 시간에. Transformer의 O(N²) attention 대비 효율적. Mamba·Mamba-2·Jamba 하이브리드로 발전.