EAI猩球

Sharing knowledge, Acquiring technology.

首页 归档 链接 关于

标签 MoEs 下的文章

MoE(一):网络架构演进与特性

  • 作者: wyli
  • 时间: 2025-07-12
  • 分类: 基础模型
  • 620 次阅读
  • 评论

MoE拥有很强的表达能力,在深度学习领域取得显著成果。同时,根据论文《Mixtures of Experts Unlock Parameter Scaling for Deep RL》,可知,MoE可解锁深度RL的参数扩展。那么,混合专家模型MoE究竟是什么呢?

- 阅读剩余部分 -

最新文章

  • 局部坐标系下相对位置的计算方法辨析
  • Stiefel Manifolds及其对MOORE网络的约束
  • 从Neural ODE到连续Normalizing Flows
  • 从信息论和矩阵计算的角度理解神经网络
  • 扩散模型的可控生成与引导
  • 扩散模型解决RL问题(一)
  • 生成式AI与RL相遇
  • BFMs:行为基础模型的SF与FB表示
  • 世界模型是什么?
  • EvoRL(二):EPO算法

标签云 (Top20)

  • 扩散模型
  • 大规模RL
  • GANs
  • Flows
  • 激活函数
  • Transformers
  • 生成式AI与RL
  • 表示学习
  • VAEs
  • 神经网络特性
  • Attentions
  • ALOHAs
  • RL关键点
  • NN可塑性
  • 微调
  • 扩散策略
  • Bipedals
  • NeRFs
  • LoRAs
  • 对比学习

分类

  • 理论$(39)$
  • 基础模型$(76)$
  • 演化学习$(3)$
  • Continual学习$(2)$
  • 强化学习$(28)$
  • Offline RL$(3)$
  • 模仿学习$(10)$
  • AI系统$(3)$
  • Robot学习$(27)$
© 2026 EAI-Star. Powered by Typecho. 备案号: 沪ICP备2023018970号