李宏毅:Life Long Learning
创始人
2024-05-23 06:52:35

Life Long Learing 也是continual Learning,也是incremental learning

目录

Life-Long Learning  vs  Transfer Learning

Evaluation

Research Directions

Selective Synaptic Plasticity——Regulization Based

Additional Neural Resourcr Allocation

Memory Reply


Life-Long Learning  vs  Transfer Learning

Transfer Learning:在任务一上学到的内容Transfer到任务二,关注点在Task2

Life-Long Learning:学完Task2以后Task1还能否work

Evaluation

Research Directions

Selective Synaptic Plasticity——Regulization Based

Forget的原因:白色——loss越大,蓝色——loss越小,先让模型训练task1,随机训练的参数θ0,然后使用梯度下降的方法调整θ0的参数,得到θb。将θb的参数迁移到Task2,继续训练得到θ*。将θ*应用于task1发现loss变大,说明出现了forget现象。如果将θb往右移是否在task1上效果更好呢?(往右移也是蓝色区域)

basic idea:对先前任务重要的一些参数不要改变,只需要调整不重要的参数。

\theta^b 是先前任务学习到的参数,对每一个参数 \theta_{i}^b 设置一个守卫 b_{i} ,代表该参数对过去的任务是否重要。\theta_{i} 指的是将要被此任务学习得到的参数,下式为改写后的loss function,第二个式子表示该参数的重要程度:

L{}'(\theta )=L(\theta)+\lambda \sum_{i}b_{i}(\theta_{i}-\theta_{i}^b)^2

if\quad b_{i}=0,\quad there \quad is\quad no \quad constraint \quad on\quad\theta_{i}    ——catastrophic forgetting

if\quad b_{i}=\infty,\quad \theta_{i} \quad would\quad always \quad be \quad equal\quad to\quad \theta_{i}^b ——instransigence

如何设置 b_{i}?

\theta_{1} 方向上loss变化很小,b1很小;\theta_{2} 方向上loss变化比较大,b2较大。

 Gradient Episodic Memory (GEM)

 通过存少量资料updata direction。

Additional Neural Resourcr Allocation

Progressive Neural Networks

只训练当前模型的参数,只是将前面模型的参数作为输入,缺点:占用过多额外空间。

PackNet:开一个大的网络但每次task只占用其中一部分,参数保留一小部分

CPG:结合上述两种方法,既进行参数的dropout,也开辟网络空间

Memory Reply

Generating data

生成先前任务的学习资料来用于现在任务的训练。

 增加新class方法:

 

相关内容

热门资讯

北京的名胜古迹 北京最著名的景... 北京从元代开始,逐渐走上帝国首都的道路,先是成为大辽朝五大首都之一的南京城,随着金灭辽,金代从海陵王...
苗族的传统节日 贵州苗族节日有... 【岜沙苗族芦笙节】岜沙,苗语叫“分送”,距从江县城7.5公里,是世界上最崇拜树木并以树为神的枪手部落...
世界上最漂亮的人 世界上最漂亮... 此前在某网上,选出了全球265万颜值姣好的女性。从这些数量庞大的女性群体中,人们投票选出了心目中最美...
世界上最漂亮的人 世界上最漂亮... 此前在某网上,选出了全球265万颜值姣好的女性。从这些数量庞大的女性群体中,人们投票选出了心目中最美...
阿西吧是什么意思 阿西吧相当于... 即使你没有受到过任何外语培训,你也懂四国语言。汉语:你好英语:Shit韩语:阿西吧(아,씨발! )日...