【图神经网络论文整理】(六)—— Universal Graph Transformer Self-Attention Networks
创始人
2024-02-11 14:27:14
0

在这里插入图片描述


  • Dai Quoc Nguyen, Tu Dinh Nguyen, Dinh Phung
  • The ACM Web Conference 2022 (WWW '22)
  • Computer Vision and Pattern Recognition
  • 论文地址

本文介绍的论文是《Universal Graph Transformer Self-Attention Networks》。

该篇文章的主要贡献是将Transformer应用在GNN中用于学习图的表示,作者在此基础上提出了两种UGformer变体,实验结果表明第一个UGformer变体在归纳学习上取得了较好的准确率,而第二个变体在文本分类任务上获得较好的精度。


🍁 一、背景 🍁

图是一种由节点和边组成的数据类型,这种数据在生活中无处不在,例如药物发现、分子学、社交关系等领域,从图中学习和推理一直是最热门的研究课题之一。

对于传统的图学习方法大多不能够满足现在图数据的复杂性,利用丰富的上下文信息以及使用大规模图进行扩展,目前深度学习在不断发展,图表示学习作为一种新的范式出现,它旨在学习一个参数化的映射函数,能够将节点、子图或者整个图嵌入到一个低维连续向量空间中。

近几年,Transformer在自然语言处理领域中得到了认可,并且广泛使用。受次启发,作者考虑到使用Transformer来嵌入到GNN中,提取图的信息。

🍁 二、模型方法 🍁

作者提出了一种基于Transformer的GNN模型UGformer来学习图表示,特别地,设计了两种模型变体:

  • 在每个输入节点的采样邻居集合上利用Transformer
  • 在所有输入节点上利用Transformer

1.单个输入节点:变体1

在这里插入图片描述
对于第一个变体来将,它会对每个节点使用Transformer进行聚合信息,从上图来看,他会将中心节点3的邻居特征传入Transformer层,然后经过该层后,将3节点位置处加权后的特征信息传出作为3的新的特征表示,可以使用多个Transformer层进行堆叠,获得更高层次的图节点的特征表示。

1.1 计算隐层输出

计算残差输出
在这里插入图片描述

1.2 计算注意力分数

获得其它位置对于当前位置的注意力分数
在这里插入图片描述

1.3 归一化注意力分数

将注意力分数进行归一化,用于特征加权
在这里插入图片描述

2.所有输入节点:变体2

在这里插入图片描述
对于第二个变体是将所有节点信息传入Transformer层,用于获取每个节点的特征表示,每个节点的特征表示就是每个位置经过Transformer层后的输出,但是这样知识单纯考虑了所有节点的特征输入,没有考虑到图的拓扑结构,所以在经过Transformer层之后,又加入了一个GNN层来提取图的空间特征,该GNN层的输入就是Transformer的输出,将二者结合能够学习更好的图的嵌入表示。
在这里插入图片描述

🍁 三、实验结果 🍁

1.UGformer Variant 1用于归纳场景下的图形分类

在这里插入图片描述
该表给出了UGformer和其他强基线模型在基准数据集上的实验结果。总的来说,UGformer在社交网络数据集上获得了具有竞争力的准确率。特别地,UGformer在IMDB - B和IMDB - M上分别取得了目前最好的精度,优于其他现有模型。在生物信息学数据集上,UGformer分别在DD、PROTEINS和PTC上获得了最高的准确率。此外,由于该数据集仅包含188张图,UGformer与MUTAG上的基线没有显著差异。

2.UGformer Variant 2进行归纳式文本分类

在这里插入图片描述
该表给出了本文UGformer与基准模型的分类精度结果。总体而言,UGformer模型优于基准模型,在三个基准数据集R52、Ohsumed和MR上取得了最先进的精度,在R8上获得了极具竞争力的精度。

3.UGformer Variant 1用于"无监督直推"环境下的图分类

在这里插入图片描述
该表展示了在无监督直推式环境下的实验结果,其中无监督UGformer和uGCN在基准数据集上获得了新的最新精度。显著的收益表明了无监督直推式学习方法的显著影响。

🍁 四、总结 🍁

作者提出了一个基于Transformer的GNN模型UGformer来学习图表示。

设计了两种UGformer变体:

  • 在每个输入节点的采样邻居集合上利用Transformer
  • 在所有输入节点上利用Transformer

实验结果表明,图转换器UGformer在图分类和文本分类的著名基准数据集上产生了先进的精度。此外,还希望未来的GNN工作可以考虑无监督的直推式设置来解决类标签的有限可用性。

相关内容

热门资讯

散文今时明月旧时约 散文今时明月旧时约  错爱过多少冷酷的月亮,我才能看清自己。这一行行饱含深情的文字,只愿成为一生难忘...
春天的散文 春天的散文300字9篇  春天到来了,湖边的柳树露出一束束新叶,在湖边随风飘扬,婀娜多姿。小编整理的...
青草青青散文 青草青青散文(精选15篇)  在平平淡淡的日常中,许多人都写过散文吧?散文分为叙事散文、抒情散文、哲...
愿岁月温柔以待优秀散文 愿岁月温柔以待优秀散文(通用20篇)  无论是身处学校还是步入社会,大家都不可避免的会接触到散文吧?...
守住一颗宁静的心经典散文 守住一颗宁静的心经典散文  生活是一望无际的大海,人便是大海上的一叶扁舟,大海没有风平浪静的时候,所...
雪的短文散文 雪的短文散文  冬日的早晨,随着闹铃的响起,钻出暖暖的被窝,拉开窗帘。心中不觉掠过一阵惊喜:屋顶上、...
迪卡尔 中秋夜散文 迪卡尔 中秋夜散文  1  往年的中秋与今年的中秋并没有太大的差别,只是,对我来说,迪卡尔的出现,让...
散文近来可好 散文近来可好  曾经默默无言的静潜在同学群里,记得毕业那天,你在我的毕业留言本上绘着几株倩倩的青竹,...
酸石榴,甜石榴散文 酸石榴,甜石榴散文  老家院里种了两株石榴,约二十余年树龄,都有黝黑的粗干虬枝,一北一南,分据院子两...
爱情散文:有一种距离与爱无关 精选爱情散文:有一种距离与爱无关  两个人从陌生到相识,到有好感,到热恋,之间的距离愈来愈小;再到后...
妈妈别打我散文 妈妈别打我散文  初中毕业的时候,那时是07年,我做着08年去北京看奥运的打算。  不料,我去读了高...
自夸等于自贬散文 自夸等于自贬散文  一个人不能妄自菲薄,更不能妄自尊大,妄自菲薄的人看不到自身的优点,可怜可叹;妄自...
梁实秋《男人》散文 梁实秋《男人》散文  在生活、工作和学习中,大家都不可避免的会接触到散文吧?散文不讲究音韵,不讲究排...
菜花黄优美散文 菜花黄优美散文  在江南,过了春分,春色就越发的鲜艳了。最鲜艳的莫过于,田野里肆意铺陈的菜花。像是油...
鲁迅散文《二十四孝图》原文 《二十四孝图》读后感推荐度:二十四孝图读后感推荐度:寒窑赋原文解读推荐度:清明散文推荐度:我眼中的鲁...
朱自清春散文 朱自清春散文  朱自清,原名自华,号秋实,后改名自清,字佩弦。中国现代散文家、诗人、学者、民主战士。...
今夜请将我遗忘散文诗 今夜请将我遗忘散文诗  今夜请将我遗忘。一座青冢,衰草斜阳。我坐在坟头,低声吟唱,扑朔的蝙蝠为我送葬...
温柔如水的抒情散文 温柔如水的抒情散文  温柔如水,柔情似水,女人是水做的,天生就应该温柔善解人意;温柔体贴,默默关爱身...
闲话大维散文 闲话大维散文  看到这个题目,您可千万不要误会。俺可不是没事儿的时候,站在街头巷尾、胡同里弄、东家长...
我未入流抒情散文 我未入流抒情散文  爱人要出门,问我要不要买什么东西,她好顺便捎买回来。  我在看书,答曰没有,不要...