Transformer+Mamba Nemotron-H 模型训练 AI Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强 ⭐0 👥0 过去几年,Transformer虽稳坐AI架构「铁王座」,但其二次方复杂度带来的算力消耗和长序列处理瓶颈,限制了大模型在推理阶段处理长文本。Mamba凭借「线性复杂度」异军突起,非常适合长序列任务,有望成为Transformer架构的替代品,但在处理全局关系上偏弱。Mamba+Transformer混合架构可以将二者的优势互补,实现「效率」和「性能」的双丰收。最近英伟达发布了Nemotron-H