EAI猩球

Sharing knowledge, Acquiring technology.

首页 归档 链接 关于

标签 Mambas 下的文章

Mamba:具有选择性状态空间的线性时间序列模型

  • 作者: wyli
  • 时间: 2024-09-01
  • 分类: 基础模型
  • 2328 次阅读
  • 评论

为了提高Transformer处理长序列的效率,研究人员们提出了线性注意力、门控卷积、循环模型、以及SSMs。其中,SSMs模型虽然能够高效的处理长序列数据,但是性能却没有基于注意力的优越。Mamba作者们发现这种模型性能不足的主要原因是无法执行基于内容的推理

- 阅读剩余部分 -

最新文章

  • 从运动追踪任务洞悉基础学习系统的构建
  • 局部坐标系下相对位置的计算方法辨析
  • Stiefel Manifolds及其对MOORE网络的约束
  • 从Neural ODE到连续Normalizing Flows
  • 从信息论和矩阵计算的角度理解神经网络
  • 扩散模型的可控生成与引导
  • 扩散模型解决RL问题(一)
  • 生成式AI与RL相遇
  • BFMs:行为基础模型的SF与FB表示
  • 世界模型是什么?

标签云 (Top20)

  • 扩散模型
  • 大规模RL
  • GANs
  • Flows
  • 激活函数
  • Transformers
  • 生成式AI与RL
  • 表示学习
  • VAEs
  • 神经网络特性
  • Attentions
  • ALOHAs
  • RL关键点
  • NN可塑性
  • 微调
  • 扩散策略
  • Bipedals
  • NeRFs
  • LoRAs
  • 对比学习

分类

  • 理论$(39)$
  • 基础模型$(76)$
  • 演化学习$(3)$
  • Continual学习$(2)$
  • 强化学习$(28)$
  • Offline RL$(3)$
  • 模仿学习$(10)$
  • AI系统$(4)$
  • Robot学习$(27)$
© 2026 EAI-Star. Powered by Typecho. 备案号: 沪ICP备2023018970号