html网页制作模板代码简单,江苏seo策略,网站建设业务的途径的体会,可以免费做演播的听书网站来源#xff1a;ScienceAI作者#xff1a;Mostafa Haghir Chehreghani编辑#xff1a;萝卜皮图卷积网络#xff08;Graph Convolutional Networks#xff0c;GCN#xff09;已成为使用图和网络进行学习的流行工具。我们应该反思一下成功故事背后的原因。论文链接#xf… 来源ScienceAI作者Mostafa Haghir Chehreghani编辑萝卜皮图卷积网络Graph Convolutional NetworksGCN已成为使用图和网络进行学习的流行工具。我们应该反思一下成功故事背后的原因。论文链接https://www.nature.com/articles/s42256-022-00466-8图提供了一种强大的方法来对许多现实世界应用程序中的数据进行建模例如万维网、社交网络和通信网络。与此类系统相关的预测和分类任务可以通过图神经网络来解决。在其中一个关键应用中图神经网络学习一个函数该函数将图的每个节点映射到低维向量空间中的向量。这种映射应该是保持相似性的即图中具有相似特征和相似结构角色的两个节点应该映射到向量空间中的接近点。为每个节点生成的向量称为它的嵌入或表示。这些嵌入可以输入到不同的机器学习算法中以执行各种任务。在 2017 年的一篇开创性论文中Kipf 和 Welling 介绍了一种最有效的图神经网络类型称为图卷积网络GCN。他们表明图信号的卷积由图的节点索引的特征可以解释为给定节点附近节点的聚合特征。这为实现图形数据的卷积机制提供了一种有效且直接的方法。论文链接https://openreview.net/forum?idSJU4ayYgl由于该技术在链路预测和节点分类等任务上的高性能对其应用和进一步改进进行了许多研究。例如在 GraphSAGE 中Hamilton 团队建议使用通用聚合函数而不是加权平均函数并讨论了该通用函数的一些可能的特殊化。论文链接https://openreview.net/forum?idSJU4ayYglVelickovic 团队引入了图注意力网络 (GAT)其中不相等的可训练重要性权重被分配给节点的邻居。论文链接https://openreview.net/forum?idrJXMpikCZXu 团队提出了图同构网络GIN其中聚合是使用多层感知器 (MLP) 和缩放器完成的该缩放器将节点的前一层嵌入与其邻居的前一层嵌入区分开来。论文链接https://openreview.net/forum?idryGs6iA5Km在高层次上大多数图神经网络共享以下通用方案图 1首先为每个节点建立一个邻域。然后每个节点聚合来自其自身及其邻域的嵌入信息。嵌入被迭代更新并且在每次迭代层中使用一个函数为节点 v 计算一个新嵌入该函数将线性变换可训练矩阵和聚合总和、平均值、最大值、最小值等应用于 v 的第 k 层嵌入和第 k 层嵌入 v 附近的节点。有时激活函数也用于诱导非线性。不同的图神经网络算法主要在细节上有所不同例如计算邻域的方式和完成聚合的方式。图 1图神经网络方案。图神经网络的成功有几个原因有些是众所周知的有些则不是。首先强大的机器学习性能是图神经网络广泛适用的主要原因。Kipf 和 Welling 表明他们的模型在分类准确性方面优于几种现有方法。该技术还显示出对无监督学习和链接预测等问题的高精度。图神经网络很快成功地用于通常不被视为图问题的任务例如文本摘要和推荐系统。推荐任务中的数据、项目-用户关系以及摘要任务中的句子-句子关系之间的联系可以通过图神经网络正确捕获和建模。其次效率和可扩展性很重要。图神经网络不使用矩阵表示来表示图就像在此数据上使用神经网络的一种天真的方法一样。相反图神经网络只需要简单且通常有效的计算例如节点局部邻域的聚合。这不仅提高了它们的效率而且使它们高度可并行化。此外可以应用一些标准且经过充分研究的技巧例如节点采样和边缘去除来提高图神经网络的效率。此外较少讨论的图神经网络的优点是它们的简单性和可解释性。许多高级机器学习技术的一个缺点是无法为它们生成的输出提供简单的解释或解释。这种“黑匣子”特性使这些技术不适合高风险应用例如金融服务、医疗服务和司法系统。对于这些努力最近出现了可解释人工智能XAI领域其目标是开发性能可与最高效的现有模型相媲美的模型其中的输出可以被人类理解和信任并且功能是透明和可理解的。图神经网络的可解释性可以与决策树的可解释性进行比较两者都通过构建有根树来模拟学习过程图 1b并且由于在内部节点中进行的计算图神经网络中的聚合和决策树中的分裂它们并不十分透明。尽管如此人们普遍认为决策树比传统的神经网络更容易解释。因此同样地图神经网络比传统的神经网络更容易解释。此外图神经网络的简化通常会提高效率和透明度。例如Wu 的团队讨论了一个事实即可以通过消除非线性和折叠连续层之间的权重矩阵来简化它从而提高图神经网络的效率。图神经网络在计算上是高效的相对可解释的并且在性能没有太大损失的情况下可以简化以产生更透明的模型。然而尽管最近有许多改进但仍有几个问题需要用图神经网络方法解决。首先我们对图神经网络背后的理论的理解是有限的。例如对于它们在将不同的嵌入分配给不同的节点时的理论表达能力知之甚少。作为进一步改进这些技术的方向扩展我们对图神经网络的理论理解并利用这些知识开发更有效的模型可能会很有用。未来工作的另一个有趣方向是为推荐、文本摘要、假新闻检测和多智能体游戏抽象等任务设计优化的特定于应用程序的图神经网络。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”