RL算法不适用于持续型任务的技术点及应对方法
时下,RL主要处理episode任务或单一episode的持续任务,论文《Discounted Reinforcement Learning Is Not an Optimization Problem》分析了该范式的技术有哪些不适用于显著不同episode的持续任务的呢?
时下,RL主要处理episode任务或单一episode的持续任务,论文《Discounted Reinforcement Learning Is Not an Optimization Problem》分析了该范式的技术有哪些不适用于显著不同episode的持续任务的呢?
深度学习网络基于随机梯度下降方法训练后,把网络权重冻结,再进行模型部署推理。然而,世界处于动态变化的,每天都有新的数据产生,从而导致数据分布发生变化。那么,若每次重新训练模型会产生很大的成本,而模型在新的数据上训练往往性能不如重新训练,这是因为学习过程中神经网络的可塑性降低。然而,深度学习在持续学习场景下有效性仍不清楚。Loss of plasticity in deep continual learning论文作者表明标准深度学习方法在持续学习环境中逐渐失去可塑性,直到其性能比浅层网络还要低。他们主要在ImageNet数据集和RL问题中研究了可塑性的损失,且提出了持续反向传播算法以提高算法的可塑性。