博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【Graph Embedding】DeepWalk算法原理,实现和应用
阅读量:4262 次
发布时间:2019-05-26

本文共 3138 字,大约阅读时间需要 10 分钟。

本文首先从整体介绍一下图表示学习,然后分别从原理,核心代码,应用三个部分介绍 DeepWalk 。

图表示学习

我们都知道在数据结构中,图是一种基础且常用的结构。现实世界中许多场景可以抽象为一种图结构,如社交网络,交通网络,电商网站中用户与物品的关系等。

目前提到图算法一般指:

1. 经典数据结构与算法层面的:最小生成树 (Prim,Kruskal,...) ,最短路 (Dijkstra,Floyed,...) ,拓扑排序,关键路径等

2. 概率图模型,涉及图的表示,推断和学习,详细可以参考 Koller 的书或者公开课

3. 图神经网络,主要包括 Graph Embedding (基于随机游走)和 Graph CNN (基于邻居汇聚)两部分。

这里先看下 Graph Embedding 的相关内容。

Graph Embedding 技术将图中的节点以低维稠密向量的形式进行表达,要求在原始图中相似(不同的方法对相似的定义不同)的节点其在低维表达空间也接近。得到的表达向量可以用来进行下游任务,如节点分类,链接预测,可视化或重构原始图等。

DeepWalk 算法原理

虽然 DeepWalk 是 KDD 2014的工作,但却是我们了解 Graph Embedding 无法绕过的一个方法。

我们都知道在 NLP 任务中,word2vec 是一种常用的 word embedding 方法, word2vec 通过语料库中的句子序列来描述词与词的共现关系,进而学习到词语的向量表示。

DeepWalk 的思想类似 word2vec,使用图中节点与节点的共现关系来学习节点的向量表示。那么关键的问题就是如何来描述节点与节点的共现关系,DeepWalk 给出的方法是使用随机游走 (RandomWalk) 的方式在图中进行节点采样。

RandomWalk 是一种可重复访问已访问节点的深度优先遍历算法。给定当前访问起始节点,从其邻居中随机采样节点作为下一个访问节点,重复此过程,直到访问序列长度满足预设条件。

获取足够数量的节点访问序列后,使用 skip-gram model 进行向量学习。

DeepWalk 核心代码

 

DeepWalk 算法主要包括两个步骤,第一步为随机游走采样节点序列,第二步为使用 skip-gram modelword2vec 学习表达向量。

①构建同构网络,从网络中的每个节点开始分别进行 Random Walk 采样,得到局部相关联的训练数据; 

②对采样数据进行 SkipGram 训练,将离散的网络节点表示成向量化,最大化节点共现,使用 Hierarchical Softmax 来做超大规模分类的分类器

Random Walk

我们可以通过并行的方式加速路径采样,在采用多进程进行加速时,相比于开一个进程池让每次外层循环启动一个进程,我们采用固定为每个进程分配指定数量的num_walks的方式,这样可以最大限度减少进程频繁创建与销毁的时间开销。

deepwalk_walk方法对应上一节伪代码中第6行,_simulate_walks对应伪代码中第3行开始的外层循环。

最后的Parallel为多进程并行时的任务分配操作。

def deepwalk_walk(self, walk_length, start_node):    walk = [start_node]    while len(walk) < walk_length:        cur = walk[-1]        cur_nbrs = list(self.G.neighbors(cur))        if len(cur_nbrs) > 0:            walk.append(random.choice(cur_nbrs))        else:            break    return walkdef _simulate_walks(self, nodes, num_walks, walk_length,):    walks = []    for _ in range(num_walks):        random.shuffle(nodes)        for v in nodes:                       walks.append(self.deepwalk_walk(alk_length=walk_length, start_node=v))    return walksresults = Parallel(n_jobs=workers, verbose=verbose, )(    delayed(self._simulate_walks)(nodes, num, walk_length) for num in    partition_num(num_walks, workers))walks = list(itertools.chain(*results))

Word2vec

这里就偷个懒直接用gensim里的 Word2Vec 了。

from gensim.models import Word2Vecw2v_model = Word2Vec(walks,sg=1,hs=1)

DeepWalk应用

这里简单的用 DeepWalk 算法在 wiki 数据集上进行节点分类任务和可视化任务。  wiki 数据集包含 2,405 个网页和17,981条网页之间的链接关系,以及每个网页的所属类别。

本例中的训练,评测和可视化的完整代码在下面的git仓库中,同时还包含line,node2vec,sdne,struc2vec 等 graph embedding 方法,后续也会持续更新

https://github.com/shenweichen/GraphEmbedding

G = nx.read_edgelist('../data/wiki/Wiki_edgelist.txt',create_using=nx.DiGraph(),nodetype=None,data=[('weight',int)])model = DeepWalk(G,walk_length=10,num_walks=80,workers=1)model.train(window_size=5,iter=3)embeddings = model.get_embeddings()evaluate_embeddings(embeddings)plot_embeddings(embeddings)

分类任务结果

micro-F1 : 0.6674

macro-F1 : 0.5768

可视化结果

参考资料:

1. Perozzi B, Al-Rfou R, Skiena S. Deepwalk: Online learning of social representations[C]//Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2014: 701-710.

http://www.perozzi.net/publications/14_kdd_deepwalk.pdf

2. Graph Neural Network Review

https://zhuanlan.zhihu.com/p/43972372

 

转载地址:http://uzoei.baihongyu.com/

你可能感兴趣的文章
html5 webwork-助你处理复杂耗时的JS逻辑
查看>>
Web Worker 使用教程
查看>>
ElementUi .babelrc配置
查看>>
Error: .plugins[0][1] must be an object, false, or undefined
查看>>
Plugin/Preset files are not allowed to export objects,only functions.webpack报错/babel报错的解决办法
查看>>
vue-cli项目中使用echarts和echarts的百度地图扩展bmap
查看>>
css3 placeholder字体颜色大小
查看>>
Vue Baidu Map 插件的使用
查看>>
Vue中使用百度地图Vue Baidu Map(vue-baidu-map)
查看>>
Flutter 环境第一次配置遇到的问题
查看>>
如何在vue单页应用中使用百度地图
查看>>
Flutter是什么?
查看>>
elementUI按需引入两种方法
查看>>
webpack打包踩坑之TypeError: Cannot read property 'bindings' of null
查看>>
动画:什么是闭包?
查看>>
css中使用'!important'使属性值有最高优先级
查看>>
URI's fragment
查看>>
关于uni-app的ui库、ui框架、ui组件
查看>>
vue中使用v-for时为什么不能用index作为key?
查看>>
如何在Vue中获取自定义属性方法:data-id
查看>>