全文总字数:3715字
文献综述
文 献 综 述1. 前言人类已经进入大数据时代,数据规模随时间呈指数级增长,虽然当前摩尔定律仍然在起作用,人类的算力也随时间指数级增长,但是如果考虑数据之间的相互联系,数据之间的关联使得我们在处理数据之间形成的网络时,面临的最坏情况是指数级的规模,而数据本身又是指数级增长的,这就使得数据处理的难度在这个意义上要远远超出人类算力增长的速度。
在实际场景中,大数据往往是以关联数据的形式存在,社交网络、基因组、金融网络、交通网络、物联网网络等等。
这就告诉我们,如何有效的表征复杂的网络,简化网络之间的复杂关系,对于高效、精确处理复杂网络数据至关重要。
自上世纪60年代以来,机器学习方法蓬勃发展,大多数高效且具有优美理论依据的算法都是拟合一个 ,这就要求处理的数据是向量形式的。
那么如何将网络中的结点表征(embedding)成一个n维向量,就具有十分切实的意义和需求。
2. 当前研究现状一种较为传统的方法是通过手动设计特征,比如Motif、Community之类的局部特征,也有Node2Vec、LINE、DeepWalk、Word embedding[1-4]这样的方法,但是这样的方法有几个缺点:①计算节点特征的参数不共享,带来了相当低的计算效率;②由于每次的节点特征依赖于整个图,所以不能有效的应付节点频繁变动的情况,泛化能力比较差。
近年来,基于消息传递机制的图神经网络(Graph Neural Networks, GNNs)[15]在图嵌入(Graph Embedding)方面取得了较大突破,这一类方法通过学习图的节点与边的特征,将其表示成一个低维的向量,具有较高的计算效率,适合分布计算,同时也具有较强的泛化能力(generalization)。
从最原始的GNN[5]开始,这将神经网络[13]的工作从向量空间扩展到了图,使得神经网络具有更强的应用范围[14]。
最朴素的GNN试图从每个节点的邻域中学到该节点的低维表示h^s\in R^s,但是这种方法具有这样几个缺点:①计算效率低;②每个节点学习过程中的参数都相同,表达能力弱;③诸如边之类的特征,在nave的GNN中没有被学到;④不同节点的向量表示趋同;而后出现了Spectral networks [6]这样基于谱方法的图神经网络,但是这样基于谱方法先从空间域先变换到谱域再做卷积再逆变换回来的神经网络虽然在数学上很优美,却具有如下显而易见的缺点: ①需要对图拉普拉斯矩阵做谱分解,这在大规模网络下是极其昂贵甚至不可能完成的;②计算复杂度高;③不具有局部性质,这与卷积神经网络所发挥效用的关键性质相违背。
以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。