diff --git a/README.md b/README.md index 1464c91608b4532c1064423fa4eb1a8245498c16..bc79785d3632ed95845b57566afe204a90d3c180 100644 --- a/README.md +++ b/README.md @@ -1,6 +1,6 @@ # Paddle Graph Learning (PGL) -[DOC](https://pgl.readthedocs.io/en/latest/) | [Quick Start](https://pgl.readthedocs.io/en/latest/instruction.html) +[DOC](https://pgl.readthedocs.io/en/latest/) | [Quick Start](https://pgl.readthedocs.io/en/latest/instruction.html) | [中文](./README.zh.md) Paddle Graph Learning (PGL) is an efficient and flexible graph learning framework based on [PaddlePaddle](https://github.com/PaddlePaddle/Paddle). diff --git a/README.zh.md b/README.zh.md new file mode 100644 index 0000000000000000000000000000000000000000..5c15d732c066464ccb55480d368b5236a018a9ab --- /dev/null +++ b/README.zh.md @@ -0,0 +1,75 @@ +# Paddle Graph Learning (PGL) + +[文档](https://pgl.readthedocs.io/en/latest/) | [快速开始](https://pgl.readthedocs.io/en/latest/instruction.html) + +Paddle Graph Learning (PGL)是一个基于[PaddlePaddle](https://github.com/PaddlePaddle/Paddle)的高效易用的图学习框架 + +The Framework of Paddle Graph Learning (PGL) + +我们提供一系列的Python接口用于存储/读取/查询图数据结构,并且提供基于游走(Walk Based)以及消息传递(Message Passing)两种计算范式的计算接口(见上图)。利用这些接口,我们就能够轻松的搭建最前沿的图学习算法。结合PaddlePaddle深度学习框架,我们的框架基本能够覆盖大部分的图网络应用,包括图表示学习以及图神经网络。 + + +## 特色:高效灵活的消息传递范式 + + +对比于一般的模型,图神经网络模型最大的优势在于它利用了节点与节点之间连接的信息。但是,如何通过代码来实现建模这些节点连接十分的麻烦。PGL采用与[DGL](https://github.com/dmlc/dgl)相似的**消息传递范式**用于作为构建图神经网络的接口。用于只需要简单的编写```send```还有```recv```函数就能够轻松的实现一个简单的GCN网络。如下图所示,首先,send函数被定义在节点之间的边上,用户自定义send函数![](http://latex.codecogs.com/gif.latex?\\phi^e})会把消息从源点发送到目标节点。然后,recv函数![](http://latex.codecogs.com/gif.latex?\\phi^v})负责将这些消息用汇聚函数 ![](http://latex.codecogs.com/gif.latex?\\oplus}) 汇聚起来。 + +The basic idea of message passing paradigm + +如下面左图所示,为了去适配用户定义的汇聚函数,DGL使用了Degree Bucketing来将相同度的节点组合在一个块,然后将汇聚函数![](http://latex.codecogs.com/gif.latex?\\oplus})作用在每个块之上。而对于PGL的用户定义汇聚函数,我们则将消息以PaddlePaddle的[LodTensor](http://www.paddlepaddle.org/documentation/docs/en/1.4/user_guides/howto/basic_concept/lod_tensor_en.html)的形式处理,将若干消息看作一组变长的序列,然后利用**LodTensor在PaddlePaddle的特性进行快速平行的消息聚合**。 + +The parallel degree bucketing of PGL + +用户只需要简单的调用PaddlePaddle序列相关的函数```sequence_ops```就可以实现高效的消息聚合了。举个例子,下面就是简单的利用```sequence_pool```来做邻居消息求和。 + +```python + import paddle.fluid as fluid + def recv(msg): + return fluid.layers.sequence_pool(msg, "sum") +``` + +尽管PGL用了一些内核融合(kernel fusion)的方法来将常用的sum,max等聚合函数用scatter-gather进行优化。但是对于**复杂的用户定义函数**,他们使用的Degree Bucketing算法,仅仅使用串行的方案来处理不同的分块,并不同充分利用GPU进行加速。然而,在PGL中我们使用基于LodTensor的消息传递能够充分地利用GPU的并行优化,即使不使用scatter-gather的优化,PGL仍然有高效的性能表现。当然,我们也是提供了scatter优化的聚合函数。 + + +## 性能测试 + + +我们用Tesla V100-SXM2-16G测试了下列所有的GNN算法,每一个算法跑了200个Epoch来计算平均速度。准确率是在测试集上计算出来的,并且我们没有使用Early-stopping策略。 + +| 数据集 | 模型 | PGL准确率 | PGL速度 (epoch) | DGL速度 (epoch) | +| -------- | ----- | ----------------- | ------------ | ------------------------------------ | +| Cora | GCN |81.75% | 0.0047s | **0.0045s** | +| Cora | GAT | 83.5% | **0.0119s** | 0.0141s | +| Pubmed | GCN |79.2% |**0.0049s** |0.0051s | +| Pubmed | GAT | 77% |0.0193s|**0.0144s**| +| Citeseer | GCN |70.2%| **0.0045** |0.0046s| +| Citeseer | GAT |68.8%| **0.0124s** |0.0139s| + +## 依赖 + +PGL依赖于: + +* paddle >= 1.5 +* networkx +* cython + + +PGL supports both Python 2 & 3 + + +## 安装 + +当前,PGL的版本是0.1.0.beta。你可以简单的用pip进行安装。 + +```sh +pip install pgl +``` + +## 团队 + +PGL由百度的NLP以及Paddle团队共同开发以及维护。 + +## License + +PGL uses Apache License 2.0. +