”灾难性遗忘“ 的搜索结果

     【ICML2018】中提到,神经网络的所有的极小值都是连通在一起的;同时给出了如何从一个极小值找到一条通路连到另一个极小值的算法。——>从原始任务的某个极小值出发,在优化新任务的时候。,就可以保证原始任务不受...

     造成灾难性遗忘的一个主要原因是, 传统模型假设数据分布是固定或平稳的, 训练样本是独立同分布的, 所 以模型可以一遍又一遍地看到所有任务相同的数据, 但当数据变为连续的数据流时, 训练数据的分布就是非平稳的...

     文中提出一种层次架构,包括提取不同任务基本表征的原语学习模块和特定于任务的策略学习模块,其中原语学习利用N(0,1)分布假设来寻找不同任务间的联系,并通过重建损失来标识不同任务。在模拟环境中进行插销和开门...

     解决灾难性遗忘问题的方法有很多,但目前还没有一种方法能完全解决这个问题。总之,尽管目前已有许多方法在一定程度上缓解灾难性遗忘问题,但仍需不断探索和发展新方法以更好地解决这一问题。问题复杂性:不同的问题...

10  
9  
8  
7  
6  
5  
4  
3  
2  
1