You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Paddle/doc/howto/usage/cluster/cluster_train_cn.md

10 KiB

分布式训练

概述

本文将介绍如何使用PaddlePaddle在不同的集群框架下完成分布式训练。分布式训练架构如下图所示

  • 数据分片Data shard): 用于训练神经网络的数据被切分成多个部分每个部分分别给每个trainer使用。
  • 计算节点Trainer: 每个trainer启动后读取切分好的一部分数据开始神经网络的“前馈”和“后馈”计算并和参数服务器通信。在完成一定量数据的训练后上传计算得出的梯度gradients然后下载优化更新后的神经网络参数parameters
  • 参数服务器Parameter server:每个参数服务器只保存整个神经网络所有参数的一部分。参数服务器接收从计算节点上传的梯度,并完成参数优化更新,再将更新后的参数下发到每个计算节点。

这样通过计算节点和参数服务器的分布式协作可以完成神经网络的SGD方法的训练。PaddlePaddle可以同时支持同步随机梯度下降SGD和异步随机梯度下降。

在使用同步SGD训练神经网络时PaddlePaddle使用同步屏障barrier使梯度的提交和参数的更新按照顺序方式执行。在异步SGD中则并不会等待所有trainer提交梯度才更新参数这样极大地提高了计算的并行性参数服务器之间不相互依赖并行地接收梯度和更新参数参数服务器也不会等待计算节点全部都提交梯度之后才开始下一步计算节点之间也不会相互依赖并行地执行模型的训练。可以看出虽然异步SGD方式会提高参数更新并行度, 但是并不能保证参数同步更新在任意时间某一台参数服务器上保存的参数可能比另一台要更新与同步SGD相比梯度会有噪声。

环境准备

  1. 准备您的计算集群。计算集群通常由一组几台到几千台规模的Linux服务器组成。服务器之间可以通过局域网LAN联通每台服务器具有集群中唯一的IP地址或者可被DNS解析的主机名。集群中的每台计算机通常被成为一个“节点”。
  2. 我们需要在集群的所有节点上安装 PaddlePaddle。 如果要启用GPU还需要在节点上安装对应的GPU驱动以及CUDA。PaddlePaddle的安装可以参考build_and_install的多种安装方式。我们推荐使用Docker安装方式来快速安装PaddlePaddle。

安装完成之后执行下面的命令可以查看已经安装的版本docker安装方式可以进入docker容器执行docker run -it paddlepaddle/paddle:[tag] /bin/bash

$ paddle version
PaddlePaddle 0.10.0, compiled with
    with_avx: ON
    with_gpu: OFF
    with_double: OFF
    with_python: ON
    with_rdma: OFF
    with_timer: OFF

下面以doc/howto/usage/cluster/src/word2vec中的代码作为实例介绍使用PaddlePaddle v2 API完成分布式训练。

启动参数说明

启动参数服务器

执行以下的命令启动一个参数服务器并等待和计算节点的数据交互

$ paddle pserver --port=7164 --ports_num=1 --ports_num_for_sparse=1 --num_gradient_servers=1

如果希望可以在后台运行pserver程序并保存输出到一个日志文件可以运行

$ stdbuf -oL /usr/bin/nohup paddle pserver --port=7164 --ports_num=1 --ports_num_for_sparse=1 --num_gradient_servers=1 &> pserver.log

参数说明

  • port必选默认7164pserver监听的起始端口根据ports_num决定总端口个数从起始端口监听多个端口用于通信
  • ports_num必选默认1,监听的端口个数
  • ports_num_for_sparse必选默认1,用于稀疏类型参数通信的端口个数
  • num_gradient_servers必选默认1当前训练任务pserver总数

启动计算节点

执行以下命令启动使用python编写的trainer程序文件名为任意文件名如train.py

$ python train.py

trainer需要和pserver保持网络联通以完成训练。trainer启动需要传入端口、pserver地址等参数使trainer可以正确连接到pserver。这些参数可以通过环境变量https://zh.wikipedia.org/wiki/环境变量 )或编写程序时paddle.init()中传入参数。如果同时使用paddle.init()参数和环境变量,将会优先使用paddle.init()中传入的参数。

使用环境变量:

export PADDLE_INIT_USE_GPU=False
export PADDLE_INIT_TRAINER_COUNT=1
export PADDLE_INIT_PORT=7164
export PADDLE_INIT_PORTS_NUM=1
export PADDLE_INIT_PORTS_NUM_FOR_SPARSE=1
export PADDLE_INIT_NUM_GRADIENT_SERVERS=1
export PADDLE_INIT_TRAINER_ID=0
export PADDLE_INIT_PSERVERS=127.0.0.1

使用参数:

paddle.init(
        use_gpu=False,
        trainer_count=1,
        port=7164,
        ports_num=1,
        ports_num_for_sparse=1,
        num_gradient_servers=1,
        trainer_id=0,
        pservers="127.0.0.1")

参数说明

  • use_gpu 可选默认False是否启用GPU训练
  • trainer_count必选默认1当前训练任务trainer总个数
  • port必选默认7164连接到pserver的端口
  • ports_num必选默认1连接到pserver的端口个数
  • ports_num_for_sparse必选默认1和pserver之间用于稀疏类型参数通信的端口个数
  • num_gradient_servers必选默认1当前训练任务pserver总数
  • trainer_id必选默认0每个trainer的唯一ID从0开始的整数
  • pservers必选默认127.0.0.1当前训练任务启动的pserver的IP列表多个IP使用“,”隔开

准备数据集

参考样例数据准备脚本prepare.py准备训练数据和验证数据集我们使用paddle.dataset.imikolov数据集并根据分布式训练并发数trainer节点个数prepare.py开头部分指定SPLIT_COUNT将数据切分成多份。

在线上系统中通常会使用MapReduce任务的输出结果作为训练结果这样训练文件的个数会比较多而且个数并不确定。在trainer中可以使用下面取模的方法为每个trainer分配训练数据文件

import os
train_list = []
flist = os.listdir("/train_data/")
for f in flist:
  suffix = int(f.split("-")[1])
  if suffix % TRAINER_COUNT == TRAINER_ID:
    train_list.append(f)

示例程序prepare.py会把训练集和测试集分别分割成多个文件例子中为3个后缀为-00000-00001-00002:

train.txt
train.txt-00000
train.txt-00001
train.txt-00002
test.txt
test.txt-00000
test.txt-00001
test.txt-00002

在进行分布式训练时每个trainer进程需要能够读取属于自己的一份数据。在一些分布式系统中系统会提供一个分布式存储服务这样保存在分布式存储中的数据可以被集群中的每个节点读取到。如果不使用分布式存储则需要手动拷贝属于每个trainer节点的训练数据到对应的节点上。

对于不同的训练任务,训练数据格式和训练程序的reader()会大不相同,所以开发者需要根据自己训练任务的实际场景完成训练数据的分割和reader()的编写。

准备训练程序

我们会对每个训练任务都会在每个节点上创建一个工作空间workspace其中包含了用户的训练程序、程序依赖、挂载或下载的训练数据分片。

最后,工作空间应如下所示:

.
|-- my_lib.py
|-- word_dict.pickle
|-- train.py
|-- train_data_dir/
|   |-- train.txt-00000
|   |-- train.txt-00001
|   |-- train.txt-00002
`-- test_data_dir/
    |-- test.txt-00000
    |-- test.txt-00001
    `-- test.txt-00002
  • my_lib.py:会被train.py调用的一些用户定义的库函数比如PIL库等。

  • word_dict.pickle:在train.py中会使用到的字典数据文件。

  • train.py:训练程序,代码参考api_train_v2_cluster.py注意: 对于本样例代码,在使用不同的分布式计算平台时,您可能需要修改train.py开头的部分(如下),以便获得训练数据的位置和获取环境变量配置:

    cluster_train_file = "./train_data_dir/train/train.txt"
    cluster_test_file = "./test_data_dir/test/test.txt"
    node_id = os.getenv("OMPI_COMM_WORLD_RANK")
    if not node_id:
        raise EnvironmentError("must provied OMPI_COMM_WORLD_RANK")
    
  • train_data_dir:包含训练数据的目录,可以是从分布式存储挂载过来的,也可以是在任务启动前下载到本地的。

  • test_data_dir:包含测试数据集的目录。

使用分布式计算平台或工具

PaddlePaddle可以使用多种分布式计算平台构建分布式计算任务包括

  • Kubernetes Google开源的容器集群的调度框架支持大规模集群生产环境的完整集群方案。
  • OpenMPI 成熟的高性能并行计算框架。
  • Fabric 集群管理工具。可以使用Fabric编写集群任务提交和管理脚本。

对于不同的集群平台,会分别介绍集群作业的启动和停止方法。这些例子都可以在cluster_train_v2找到。

在使用分布式计算平台进行训练时任务被调度在集群中时分布式计算平台通常会通过API或者环境变量提供任务运行需要的参数比如节点的ID、IP和任务节点个数等。

在不同集群中运行