【论文阅读】注意力机制与二维 TSP 问题
创始人
2024-06-01 14:07:48

前置知识

注意力机制

见 这篇

二维 TSP 问题

给定二维平面上 nnn 个点的坐标 S={xi}i=1nS=\{x_i\}_{i=1}^nS={xi​}i=1n​,其中 xi∈[0,1]2x_i\in [0,1]^2xi​∈[0,1]2,要找到一个 1∼n1\sim n1∼n 的排列 π\piπ ,使得目标函数
L(π∣s)=∥xπ1−xπn∥2+∑i=1n−1∥xπi−xπi+1∥2L(\pi|s)=\Vert x_{\pi_1}-x_{\pi_n} \Vert_2+\sum_{i=1}^{n-1}\Vert x_{\pi_{i}}-x_{\pi_{i+1}}\Vert_2L(π∣s)=∥xπ1​​−xπn​​∥2​+i=1∑n−1​∥xπi​​−xπi+1​​∥2​
尽可能小。

Pointer Networks

论文链接

随意选择 π1\pi_1π1​ ,然后依次预测 π2,π3,...,πn\pi_2,\pi_3,...,\pi_nπ2​,π3​,...,πn​ 。

预测方式利用了注意力机制(加性模型):
uji=vTtanh⁡(W1ej+W2di)u_j^i=v^T\tanh(W_1e_j+W_2d_i)uji​=vTtanh(W1​ej​+W2​di​)
其中 v,W1,W2v,W_1,W_2v,W1​,W2​ 是可学习的参数,eje_jej​ 是(节点 jjj 的)encoder 隐状态,did_idi​ 是(已选 i−1i-1i−1 个点的图的) decoder 隐状态。然后,直接将 softmax 后的 uiu^iui 作为输出:
P(πi∣π1:i−1,P)=softmax(ui)P(\pi_i|\pi_{1:i-1},\mathcal{P})=\text{softmax}(u^i)P(πi​∣π1:i−1​,P)=softmax(ui)

encoder 和 decoder 的实现使用了单层 LSTM,训练使用 SGD。

网络结构

效果如下:
训练结果

传统的 RNN 的输出是固定词汇表上的分布,因此不能应对 nnn 比训练集大的情况。而 Pointer Networks 的输出是输入序列上的分布,因此可以应对任意大小的 nnn 。

Attention, Learn to Solve Routing Problems!

论文链接

引入强化学习,学习策略函数 pθ(π∣s)=∏t=1npθ(πt∣s,π1:t−1)p_{\theta}(\pi|s)=\prod_{t=1}^np_{\theta}(\pi_t|s,\pi_{1:t-1})pθ​(π∣s)=∏t=1n​pθ​(πt​∣s,π1:t−1​)。

encoder 和 decoder 套用 Transformer 结构。

相关内容

热门资讯

苗族的传统节日 贵州苗族节日有... 【岜沙苗族芦笙节】岜沙,苗语叫“分送”,距从江县城7.5公里,是世界上最崇拜树木并以树为神的枪手部落...
北京的名胜古迹 北京最著名的景... 北京从元代开始,逐渐走上帝国首都的道路,先是成为大辽朝五大首都之一的南京城,随着金灭辽,金代从海陵王...
世界上最漂亮的人 世界上最漂亮... 此前在某网上,选出了全球265万颜值姣好的女性。从这些数量庞大的女性群体中,人们投票选出了心目中最美...
长白山自助游攻略 吉林长白山游... 昨天介绍了西坡的景点详细请看链接:一个人的旅行,据说能看到长白山天池全凭运气,您的运气如何?今日介绍...