当前位置: 首页 > news >正文

怎么自己做优惠券网站/短视频seo系统

怎么自己做优惠券网站,短视频seo系统,静态网站开发课程模板,商业空间设计书籍2021-IJCA-Masked Label Prediction Unified Message Passing Model for Semi-Supervised Classification GNN通过神经网络形成特征传播来进行预测,而LPA使用跨图邻接矩阵的标签传播来获得结果。然而,仍然没有有效的方法将这两种算法直接结合起来。 模型…

2021-IJCA-Masked Label Prediction Unified Message Passing Model for Semi-Supervised Classification

GNN通过神经网络形成特征传播来进行预测,而LPA使用跨图邻接矩阵的标签传播来获得结果。然而,仍然没有有效的方法将这两种算法直接结合起来。

模型

作者使用Graph Transformer,联合使用标签嵌入将上述特征和标签传播结合在一起,构建UniMP模型。此外,引入了一种屏蔽标签预测策略来训练我们的模型,以防止标签泄漏问题。

方法
已知定节点特征H(l)={h1(l),h2(l),…,hn(l)}H^{(l)}=\left\{h_1^{(l)}, h_2^{(l)}, \ldots, h_n^{(l)}\right\}H(l)={h1(l),h2(l),,hn(l)},计算从 j 到 i 的每条边的多头注意力:
qc,i(l)=Wc,q(l)hi(l)+bc,q(l)kc,j(l)=Wc,k(l)hj(l)+bc,k(l)ec,ij=Wc,eeij+bc,eαc,ij(l)=⟨qc,i(l),kc,j(l)+ec,ij⟩∑u∈N(i)⟨qc,i(l),kc,u(l)+ec,iu⟩\begin{gathered} q_{c, i}^{(l)}=W_{c, q}^{(l)} h_i^{(l)}+b_{c, q}^{(l)} \\ k_{c, j}^{(l)}=W_{c, k}^{(l)} h_j^{(l)}+b_{c, k}^{(l)} \\ e_{c, i j}=W_{c, e} e_{i j}+b_{c, e} \\ \alpha_{c, i j}^{(l)}=\frac{\left\langle q_{c, i}^{(l)}, k_{c, j}^{(l)}+e_{c, i j}\right\rangle}{\sum_{u \in N(i)}\left\langle q_{c, i}^{(l)}, k_{c, u}^{(l)}+e_{c, i u}\right\rangle} \end{gathered}qc,i(l)=Wc,q(l)hi(l)+bc,q(l)kc,j(l)=Wc,k(l)hj(l)+bc,k(l)ec,ij=Wc,eeij+bc,eαc,ij(l)=uN(i)qc,i(l),kc,u(l)+ec,iuqc,i(l),kc,j(l)+ec,ij
其中,⟨q,k⟩=exp⁡(qTkd)\langle q, k\rangle=\exp \left(\frac{q^T k}{\sqrt{d}}\right)q,k=exp(dqTk)是幂级点积函数,ddd 是每个头部的隐藏大小。对于第 ccc个头部注意,首先将源特征hi(l)h^{(l)}_ihi(l)和远距特征hj(l)h^{(l)}_jhj(l)转换为查询向量qc,i(l)∈Rdq_{c, i}^{(l)} \in \mathrm{R}^{\mathrm{d}}qc,i(l)Rd和键向量kc,j(l)∈Rdk_{c, j}^{(l)} \in \mathrm{R}^{\mathrm{d}}kc,j(l)Rd分别使用不同的可训练参数Wc,q(l),Wc,k(l),bc,q(l),bc,k(l)W_{c, q}^{(l)}, W_{c, k}^{(l)}, b_{c, q}^{(l)}, b_{c, k}^{(l)}Wc,q(l),Wc,k(l),bc,q(l),bc,k(l)
提供的边缘特征 ec,ije_{c,ij}ec,ij 将被编码并添加到关键向量中,作为每个层的附加信息。在得到图的多头注意后,从远处的 jjj 到源 iii 进行消息聚合:
vc,j(l)=Wc,v(l)hj(l)+bc,v(l)h^i(l+1)=∥c=1C[∑j∈N(i)αc,ij(l)(vc,j(l)+ec,ij)]\begin{gathered} v_{c, j}^{(l)}=W_{c, v}^{(l)} h_j^{(l)}+b_{c, v}^{(l)} \\ \hat{h}_i^{(l+1)}=\|_{c=1}^C\left[\sum_{j \in N(i)} \alpha_{c, i j}^{(l)}\left(v_{c, j}^{(l)}+e_{c, i j}\right)\right] \end{gathered}vc,j(l)=Wc,v(l)hj(l)+bc,v(l)h^i(l+1)=c=1CjN(i)αc,ij(l)(vc,j(l)+ec,ij)
其中||是 c 个头注意力的连接操作多头注意矩阵取代了原始的归一化邻接矩阵作为消息传递的转移矩阵。

然后是残差连接,防止模型过度平滑
ri(l)=Wr(l)hi(l)+br(l)βi(l)=sigmoid⁡(Wg(l)[h^i(l+1);ri(l);h^i(l+1)−ri(l)])hi(l+1)=RELU⁡(LayerNorm⁡((1−βi(l))h^i(l+1)+βi(l)ri(l)))\begin{gathered} r_i^{(l)}=W_r^{(l)} h_i^{(l)}+b_r^{(l)} \\ \beta_i^{(l)}=\operatorname{sigmoid}\left(W_g^{(l)}\left[\hat{h}_i^{(l+1)} ; r_i^{(l)} ; \hat{h}_i^{(l+1)}-r_i^{(l)}\right]\right) \\ h_i^{(l+1)}=\operatorname{RELU}\left(\operatorname{LayerNorm}\left(\left(1-\beta_i^{(l)}\right) \hat{h}_i^{(l+1)}+\beta_i^{(l)} r_i^{(l)}\right)\right) \end{gathered}ri(l)=Wr(l)hi(l)+br(l)βi(l)=sigmoid(Wg(l)[h^i(l+1);ri(l);h^i(l+1)ri(l)])hi(l+1)=RELU(LayerNorm((1βi(l))h^i(l+1)+βi(l)ri(l)))

多头平均,删除线性变换
h^i(l+1)=1C∑c=1c[∑j∈N(i)αc,ij(l)(vc,j(l)+ec,ij(l)]hi(l+1)=(1−βi(l))h^i(l+1)+βi(l)ri(l)\begin{gathered} \hat{h}_i^{(l+1)}=\frac{1}{C} \sum_{c=1}^c\left[\sum_{j \in N(i)} \alpha_{c, i j}^{(l)}\left(v_{c, j}^{(l)}+e_{c, i j}^{(l)}\right]\right. \\ h_i^{(l+1)}=\left(1-\beta_i^{(l)}\right) \hat{h}_i^{(l+1)}+\beta_i^{(l)} r_i^{(l)} \end{gathered}h^i(l+1)=C1c=1cjN(i)αc,ij(l)(vc,j(l)+ec,ij(l)]hi(l+1)=(1βi(l))h^i(l+1)+βi(l)ri(l)

标签嵌入和传播

H(l)=((1−β)A∗+βI)l(X+Y^Wd)W(1)W(2)…W(l)=((1−β)A∗+βI)lXW+((1−β)A∗+βI)lY^WdWH^{(l)}=\left((1-\beta) A^*+\beta I\right)^l\left(X+\widehat{Y} W_d\right) W^{(1)} W^{(2) \ldots W^{(l)}}=\left((1-\beta) A^*+\beta I\right)^l X W+\left((1-\beta) A^*+\beta I\right)^l \widehat{Y} W_d WH(l)=((1β)A+βI)l(X+YWd)W(1)W(2)W(l)=((1β)A+βI)lXW+((1β)A+βI)lYWdW
其中模型近似分解为特征传播((1−β)A∗+βI)lXW\left((1-\beta) A^*+\beta I\right)^l X W((1β)A+βI)lXW和标签传播((1−β)A∗+βI)lY^WdW\left((1-\beta) A^*+\right.\beta I)^l \widehat{Y} W_d W((1β)A+βI)lYWdW

屏蔽标签预测
在给定 X 和 A 的情况下监督训练其模型参数θ\thetaθ
arg⁡max⁡θlog⁡pθ(Y^∣X,A)=∑i=1V^log⁡pθ(yi^∣X,A)\underset{\theta}{\arg \max } \log p_\theta(\widehat{Y} \mid X, A)=\sum_{i=1}^{\widehat{V}} \log p_\theta\left(\widehat{y_i} \mid X, A\right)θargmaxlogpθ(YX,A)=i=1Vlogpθ(yiX,A)

图神经代码

import torch
import torch.nn.functional as F
from torch_geometric.nn import TransformerConv
class Transformer(torch.nn.Module):#初始化def __init__(self, hidden_channels):super(Transformer, self).__init__()torch.manual_seed(12345)self.conv1 = TransformerConv(10, hidden_channels,dropout=0.5) #GCNConv更换为TransformerConvself.conv2 = TransformerConv(hidden_channels, 2,dropout=0.5)#GCNConv更换为TransformerConv#前向传播def forward(self, x, edge_index):x = self.conv1(x, edge_index)x = x.relu()x = F.dropout(x, p=0.5, training=self.training)x = self.conv2(x, edge_index)#注意这里输出的是节点的特征,维度为[节点数,类别数]return xx = torch.randn(4, 10)
edge_index = torch.tensor([[0,0,0,1,1,2],[1,2,3,2,3,3]])model = Transformer(36)
res = model(x, edge_index)
print(res)
http://www.lbrq.cn/news/798409.html

相关文章:

  • asp.net 做网站实例/阿里云建网站
  • 邛崃建设网站首页/搜索引擎优化的概念
  • 建设自己的网站怎么做/自媒体平台
  • 哪些公司网站做的好/搜索优化引擎
  • 做h5那个网站模板好/实时热搜榜
  • 瑞安网站建设公司/ue5培训机构哪家强
  • 大连高新园区住建局官网/seo综合查询国产
  • 网站动图是怎么做的/整站多关键词优化
  • 怎么做营销网站推广/5118站长网站
  • weui做购物网站的案例/长春网站优化体验
  • 网站空间地址/网站外链发布平台
  • 大连住建局官网网站/长春网站建设公司哪个好
  • 隐藏网站后台/网络营销策划书1000字
  • logo设计网站免费无水印/seo实战培训视频
  • 内容营销的方法/上海优化seo公司
  • 厦门高端网站建设公/网站大全软件下载
  • 做旅行社业务的网站都有哪些/网络推广图片
  • 哈尔滨做网站费用报价/微信公众号seo
  • 做网站项目后台的/seo百度贴吧
  • 网站建设到备案/电脑培训班价目表
  • 2017年最新网站设计风格/百度站长收录
  • 5ucms怎样做网站自适应/在哪里打广告效果最好
  • 钦州网站建设/电商网站建设哪家好
  • 网站备案登陆/全部列表支持安卓浏览器软件下载
  • 网站个人备案和企业备案/企业网站建设公司
  • 自助建站帮助网/信息流广告模板
  • 网站转化怎么做/福州网站seo
  • 网站英文地图怎么做/厦门seo外包平台
  • 镇江网站建设 的公司/济南网站自然优化
  • 网站的空间的提供商/互联网营销的方法有哪些
  • 【超分辨率专题】PiSA-SR:单步Diff超分新突破,即快又好,还能在线调参
  • linux eval命令的使用方法介绍
  • StarRocks vs ClickHouse:2025 年 OLAP 引擎终极对比指南
  • 仿真电路:(十七下)DC-DC升压压电路原理简单仿真
  • 【Linux网络】netstat 的 -anptu 各个参数各自表示什么意思?
  • Windows和Linux的tree工具