EAI猩球

Sharing knowledge, Acquiring technology.

首页 归档 链接 关于

标签 MoEs 下的文章

MoE(一):网络架构演进与特性

  • 作者: wyli
  • 时间: 2025-07-12
  • 分类: 基础模型
  • 11 次阅读
  • 评论

MoE拥有很强的表达能力,在深度学习领域取得显著成果。同时,根据论文《Mixtures of Experts Unlock Parameter Scaling for Deep RL》,可知,MoE可解锁深度RL的参数扩展。那么,混合专家模型MoE究竟是什么呢?

- 阅读剩余部分 -

最新文章

  • MoE(一):网络架构演进与特性
  • RL中表示(一):样本效率和模型性能的提升方法
  • 变分推断(一):KL-Divergence作为距离度量
  • 指数族与自然指数族分布
  • Fisher信息度量
  • 率失真
  • 信息瓶颈方法
  • 矩阵范数与Spectral标准化
  • Lipschitz Continuity
  • RL的正则化

标签云 (Top20)

  • 扩散模型
  • 大规模RL
  • GANs
  • 激活函数
  • Transformers
  • Flows
  • 表示学习
  • 扩散策略
  • VAEs
  • 神经网络特性
  • Attentions
  • ALOHAs
  • RL关键点
  • NN可塑性
  • 微调
  • Bipedals
  • NeRFs
  • LoRAs
  • 对比学习
  • RL样本高效

分类

  • 理论(36)
    • 数学(11)
    • 信息论(3)
    • 认知科学(1)
    • AI理论(18)
  • 基础模型(71)
    • 生成模型(19)
    • 视觉模型(8)
    • White-Box网络(2)
    • 大语言模型(6)
    • 多模态模型(10)
    • VLA模型(7)
  • 演化学习(3)
  • 持续学习(2)
    • 持续RL(1)
  • 强化学习(21)
    • 基于策略(1)
    • 基于值(1)
    • Actor-Critic(5)
  • Offline RL(3)
  • 模仿学习(10)
  • AI系统(3)
  • Robot学习(28)
© 2025 EAI-Star. Powered by Typecho. 备案号: 沪ICP备2023018970号-2