当前位置: 首页 > news >正文

wordpress主题表单功能seo查询网址

wordpress主题表单功能,seo查询网址,wordpress 微论坛主题,深圳网站建站的公司图神经网络实战#xff08;17#xff09;——深度图生成模型 0. 前言1. 变分图自编码器2. 自回归模型3. 生成对抗网络小结系列链接 0. 前言 我们已经学习了经典的图生成算法#xff0c;虽然它们能够完成图生成任务#xff0c;但也存在一些问题#xff0c;促使基于图神经网… 图神经网络实战17——深度图生成模型 0. 前言1. 变分图自编码器2. 自回归模型3. 生成对抗网络小结系列链接 0. 前言 我们已经学习了经典的图生成算法虽然它们能够完成图生成任务但也存在一些问题促使基于图神经网络 (Graph Neural Networks, GNN) 的图生成技术的出现。深度图生成模型基于 GNN 架构比传统技术更具表达能力。然而缺点在于它们往往过于复杂无法像经典方法那样进行分析和理解。主要的深度生成模型架构包括变分自编码器 (Variational Autoencoder, VAE)、生成对抗网络 (Generative Adversarial Network, GAN)、自回归模型 (Autoregressive Model)、归一化流模型 (Normalizing Flow Model) 或扩散模型 (Diffusion Model) 等但相较而言前三种模型更加成熟。在本节中将介绍三类图生成模型基于变分自编码器 (Variational Autoencoder, VAE) 的模型、基于自回归模型 (Autoregressive Model) 和基于生成对抗网络 (Generative Adversarial Network, GAN) 的模型。 1. 变分图自编码器 我们已经知道变分自编码器 (Variational Autoencoder, VAE)可用于近似邻接矩阵而变分图自编码器 (Variational Graph Autoencoder, VGAE) 模型由两个部分组成编码器和解码器。编码器使用共享第一层的两个图卷积网络 (Graph Convolutional Network, GCN) 来学习每个潜正态分布的均值和方差。然后解码器对学习到的分布进行采样执行潜变量之间的内积。最后得到了近似邻接矩阵 A ^ σ ( Z T Z ) \hat A σ(Z^TZ) A^σ(ZTZ)。 在使用图神经网络预测链接一节中使用 A ^ \hat A A^ 来预测链接。然而这并不是它的唯一应用它可以直接给出一个网络的邻接矩阵模仿训练过程中所看到的图。除了预测链接之外我们还可以使用这个输出来生成新的图。以下是由 VGAE 模型创建的邻接矩阵的示例 import torch import torch_geometric.transforms as T from torch_geometric.datasets import Planetoiddevice torch.device(cuda if torch.cuda.is_available() else cpu)transform T.Compose([T.NormalizeFeatures(),T.ToDevice(device),T.RandomLinkSplit(num_val0.05, num_test0.1, is_undirectedTrue, split_labelsTrue, add_negative_train_samplesFalse), ])dataset Planetoid(., nameCora, transformtransform)train_data, val_data, test_data dataset[0]from torch_geometric.nn import GCNConv, VGAEclass Encoder(torch.nn.Module):def __init__(self, dim_in, dim_out):super().__init__()self.conv1 GCNConv(dim_in, 2 * dim_out)self.conv_mu GCNConv(2 * dim_out, dim_out)self.conv_logstd GCNConv(2 * dim_out, dim_out)def forward(self, x, edge_index):x self.conv1(x, edge_index).relu()return self.conv_mu(x, edge_index), self.conv_logstd(x, edge_index)model VGAE(Encoder(dataset.num_features, 16)).to(device) optimizer torch.optim.Adam(model.parameters(), lr0.01)def train():model.train()optimizer.zero_grad()z model.encode(train_data.x, train_data.edge_index)loss model.recon_loss(z, train_data.pos_edge_label_index) (1 / train_data.num_nodes) * model.kl_loss()loss.backward()optimizer.step()return float(loss)torch.no_grad() def test(data):model.eval()z model.encode(data.x, data.edge_index)return model.test(z, data.pos_edge_label_index, data.neg_edge_label_index)for epoch in range(301):loss train()val_auc, val_ap test(val_data)if epoch % 50 0:print(fEpoch: {epoch:3} | Val AUC: {val_auc:.4f} | Val AP: {val_ap:.4f})val_auc, val_ap test(val_data) print(f\nTest AUC: {val_auc:.4f} | Test AP: {val_ap:.4f})z model.encode(test_data.x, test_data.edge_index) adj torch.where((z z.T) 0.9, 1, 0) print(adj)Epoch: 0 | Val AUC: 0.7145 | Val AP: 0.7259 Epoch: 50 | Val AUC: 0.7030 | Val AP: 0.7175 Epoch: 100 | Val AUC: 0.7359 | Val AP: 0.7561 Epoch: 150 | Val AUC: 0.8535 | Val AP: 0.8618 Epoch: 200 | Val AUC: 0.8942 | Val AP: 0.8978 Epoch: 250 | Val AUC: 0.9005 | Val AP: 0.9050 Epoch: 300 | Val AUC: 0.9101 | Val AP: 0.9138Test AUC: 0.9101 | Test AP: 0.9138 tensor([[1, 0, 1, ..., 0, 1, 1],[0, 1, 1, ..., 0, 1, 1],[1, 1, 1, ..., 0, 1, 1],...,[0, 0, 0, ..., 0, 0, 0],[1, 1, 1, ..., 0, 1, 1],[1, 1, 1, ..., 0, 1, 1]], devicecuda:0)这种技术已扩展到 VGAE 模型之外能够输出节点和边的特征。GraphVAE 是最流行的基于 VAE 的图生成模型之一该模型于 2018 年由 Simonovsky 和 Komodakis 提出旨在生成逼真的分子这需要具备区分节点(原子)和边(化学键)的能力。 GraphVAE 考虑图 G ( A , E , F ) G (A, E, F) G(A,E,F) 其中 A A A 是邻接矩阵 E E E 是边属性矩阵 F F F 是节点属性矩阵。GraphVAE 学习了具有预定节点数的图 G ~ ( A ~ , E ~ , F ~ ) \widetilde G(\widetilde A,\widetilde E,\widetilde F) G (A ,E ,F ) 的概率其中 A ~ \widetilde A A 包含节点 ( A ~ a , a ) (\widetilde A_{a, a}) (A a,a​) 和边 ( A ~ a , b ) (\widetilde A_{a,b}) (A a,b​) 的概率 E ~ \widetilde E E 表示边的类别概率 F ~ \widetilde F F 包含节点的类别概率。与 VGAE 相比GraphVAE 的编码器是一个具有边条件图卷积 (conditional graph convolutions, ECC) 的前馈网络其解码器是一个具有三个输出的多层感知机 (multilayer perceptron, MLP)整体架构如下所示 还有许多其它基于 VAE 的图生成架构但它们的作用并不局限于模仿图还可以添加约束条件引导生成的图类型 添加约束的一种常用方法是在解码阶段进行检查如约束图变分自编码器 (Constrained Graph Variational Autoencoder, CGVAE)。在此架构中编码器是一个门控图卷积网络 (Gated Graph Convolutional Network, GGCN)解码器是一个自回归模型。自回归解码器可以验证整个过程中每个步骤的每个约束条件另一种添加约束条件的技术是使用基于 Lagrangian 的正则化器这种正则化器计算速度更快但生成的约束条件并不那么严格 2. 自回归模型 自回归模型 (Autoregressive Model) 也可以单独使用自回归模型与其他模型的区别在于模型过去的输出会作为当前输入的一部分。在此框架下图生成成为一个连续的决策过程既要考虑数据又要考虑过去的决策。例如在每一步中自回归模型可以创建一个新节点或新链接然后生成的图被输入到模型中用于下一步生成直到达到停止条件。这一过程如下图所示 在实践中可以使用循环神经网络 (Recurrent Neural Network, RNN) 来实现这种自回归模型。在 RNN 架构中先前的输出被用作计算当前隐藏状态的输入。此外RNN 还能处理任意长度的输入这对于迭代生成图至关重要。但这种架构的计算比前馈网络慢因为必须处理整个序列才能获得最终输出。最流行的两种 RNN 为门控递归单元 (Gated Recurrent Unit, GRU) 和长短期记忆 (Long Short-Term Memory, LSTM) 网络。 2018 年 You 等人提出了 GraphRNN是自回归模型在深度图生成方面的直接实现。该架构使用两个 RNN 一个图级 RNN用于生成节点序列(包括初始状态)一个边级 RNN用于预测每个新添加节点的连接情况 边级 RNN 将图级 RNN 的隐藏状态作为输入然后使用自己的输出。下图展示了模型推理时的生成机制 两个 RNN 实际上是在完成一个邻接矩阵图级 RNN 创建的每个新节点都会增加一行和一列而边级 RNN 会用 0 或 1 进行填充。总体而言GraphRNN 执行以下步骤 添加新节点图级 RNN 对图进行初始化并将其输出反馈给边级 RNN添加新连接边级 RNN 会预测新节点是否与之前的每个节点相连停止图生成重复前两个步骤直到边级 RNN 输出 EOS 标记标志着生成过程结束 GraphRNN 可以学习不同类型的图(网格、社交网络、蛋白质等)其性能完全优于传统技术。与 GraphVAE 相比GraphRNN 是模仿给定图的首选架构。 3. 生成对抗网络 与变分自编码器 (Variational Autoencoder, VAE) 一样生成对抗网络 (Generative Adversarial Network, GAN) 也是机器学习 (Machine Learning, ML) 中著名的生成模型。在 GAN 框架中两个神经网络在零和博弈中以不同目标展开竞争。第一个神经网络是生成器 (generator)负责创建新数据第二个神经网络是判别器 (discriminator)负责将每个样本分为真实样本(来自训练集)或虚假样本(由生成器创建)。 为了提升模型性能研究人员提出了多种改进原始架构的方案。Wasserstein GAN (WGAN) 通过最小化两个概率分布之间的 Wasserstein 距离(或称推土机距离)来提高训练的稳定性。这一改进可以通过引入梯度惩罚而非原始梯度剪切进一步进行完善。 将这一框架应用于深度图生成中与其它技术一样GAN 可以生成图以优化某些约束条件这在寻找具有特定性质的新化合物等应用中非常有效。由于其离散性这一问题异常庞大且复杂。 小结 图生成是生成新图的技术并且希望所生成的图具有真实世界中图的性质。由于传统图生成方法缺乏表达能力因此提出了更加灵活的基于 GNN 的技术。本节中我们介绍了三类深度图生成模型 基于变分自编码器 (Variational Autoencoder, VAE) 的模型、基于自回归模型 (Autoregressive Model) 和基于生成对抗网络 (Generative Adversarial Network, GAN) 的模型。 系列链接 图神经网络实战1——图神经网络(Graph Neural Networks, GNN)基础 图神经网络实战2——图论基础 图神经网络实战3——基于DeepWalk创建节点表示 图神经网络实战4——基于Node2Vec改进嵌入质量 图神经网络实战5——常用图数据集 图神经网络实战6——使用PyTorch构建图神经网络 图神经网络实战7——图卷积网络(Graph Convolutional Network, GCN)详解与实现 图神经网络实战8——图注意力网络(Graph Attention Networks, GAT) 图神经网络实战9——GraphSAGE详解与实现 图神经网络实战10——归纳学习 图神经网络实战11——Weisfeiler-Leman测试 图神经网络实战12——图同构网络(Graph Isomorphism Network, GIN) 图神经网络实战13——经典链接预测算法 图神经网络实战14——基于节点嵌入预测链接 图神经网络实战15——SEAL链接预测算法 图神经网络实战16——经典图生成算法
http://www.pierceye.com/news/99283/

相关文章:

  • 做网站导航的厦门网站建设制作多少钱
  • 怎样免费注册网站域名鹤城建设集团网站
  • 3合1网站建设价格网站建设论坛快速建站
  • 怎样做钓鱼网站上海网站关键词排名优化报价
  • 昆明专业网站设计公司电商类网站设计模板
  • 网站流量用完了重庆网站推广
  • 网站管理助手数据库网站在建设中无法访问
  • 网站标题格式建设网站南昌
  • wordpress作企业网站好吗沈阳短视频制作公司
  • 表格网站怎么做的作文网站大全
  • 比特币网站建设专业网站建设企业网站制作
  • 故宫博物院官网网站咋做的山东省济宁市最新消息
  • 天河营销型网站建设html网页设计代码作业正能量
  • 国外网站设计欣赏智能获客系统
  • 济南网站建设599网站建设完工后在什么科目核算
  • 学校网站的作用app营销推广方式
  • 怎么做网站互换链接重庆工程建设信息网官网查询
  • 刚开始做网站要传数据库吗赛迪建设网站
  • 网站网络推广教程手机html网站开发视频
  • 网站弹出广告代码口碑好的龙岗网站建设
  • 东莞网站建设-搜盟网电商的运营推广
  • 美发网站 源代码网站建设的博客
  • 做电影视频网站赚钱嘛安溪人做的网站
  • 网站建设基础代码赣州专门网公司
  • 购物网站答辩ppt怎么做网站开发环境
  • 做网站的费用计入销售费用吗做装修效果图的网站
  • 企业网站制作深圳免费域名映射
  • 安徽建设厅网站施网站的静态页面谁做
  • 网站内页seo桂林山水甲天下是哪个景点
  • 外贸网站免费建站小榄网站建设公司