EAI猩球

Sharing knowledge, Acquiring technology.

首页 归档 链接 关于

分类 Continual RL 下的文章

RL算法不适用于持续型任务的技术点及应对方法

  • 作者: wyli
  • 时间: 2025-02-09
  • 分类: Continual RL,Continual学习
  • 400 次阅读
  • 评论

时下,RL主要处理episode任务或单一episode的持续任务,论文《Discounted Reinforcement Learning Is Not an Optimization Problem》分析了该范式的技术有哪些不适用于显著不同episode的持续任务的呢?

- 阅读剩余部分 -

最新文章

  • 扩散模型的可控生成与引导
  • 扩散模型解决RL问题(一)
  • 生成式AI与RL相遇
  • BFMs:行为基础模型的SF与FB表示
  • 世界模型是什么?
  • EvoRL(二):EPO算法
  • EvoRL(一):为什么要演化算法与RL结合?
  • Constrained RL(一):策略优化理论
  • RL中表示(二):表示的评估与提取方法
  • MoE(一):网络架构演进与特性

标签云 (Top20)

  • 扩散模型
  • 大规模RL
  • GANs
  • 激活函数
  • Transformers
  • Flows
  • GenAI-RL
  • 表示学习
  • VAEs
  • 神经网络特性
  • Attentions
  • ALOHAs
  • RL关键点
  • NN可塑性
  • 微调
  • 扩散策略
  • Bipedals
  • NeRFs
  • LoRAs
  • 对比学习

分类

  • 理论(36)
    • 数学(11)
    • 信息论(3)
    • 认知科学(1)
    • AI理论(18)
  • 基础模型(75)
    • 生成模型(21)
    • 视觉模型(8)
    • White-Box网络(2)
    • 大语言模型(6)
    • 多模态模型(10)
    • VLA模型(7)
  • 演化学习(3)
  • Continual学习(2)
    • Continual RL(1)
  • 强化学习(28)
    • 基于策略(1)
    • 基于值(1)
    • Actor-Critic(5)
  • Offline RL(3)
  • 模仿学习(10)
  • AI系统(3)
  • Robot学习(28)
© 2025 EAI-Star. Powered by Typecho. 备案号: 沪ICP备2023018970号-2