You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
mindspore/model_zoo/official/cv/vgg16/README_CN.md

16 KiB

目录

VGG描述

于2014年提出的VGG是用于大规模图像识别的非常深的卷积网络。它在ImageNet大型视觉识别大赛2014ILSVRC14中获得了目标定位第一名和图像分类第二名。

论文: Simonyan K, zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. arXiv preprint arXiv:1409.1556, 2014.

模型架构

VGG 16网络主要由几个基本模块包括卷积层和池化层和三个连续密集层组成。 这里的基本模块主要包括以下基本操作: 3×3卷积2×2最大池化

数据集

使用的数据集:CIFAR-10

  • CIFAR-10数据集大小175 MB共10个类、60,000张32*32彩色图像
    • 训练集146 MB50,000张图像
    • 测试集29.3 MB10,000张图像
  • 数据格式:二进制文件
    • 数据在src/dataset.py中处理。

使用的数据集:ImageNet2012

  • 数据集大小约146 GB共1000个类、128万张彩色图像
    • 训练集140 GB1,281,167张图像
    • 测试集6.4 GB50, 000张图像
  • 数据格式RGB图像。
    • 数据在src/dataset.py中处理。

数据集组织方式

CIFAR-10

将CIFAR-10数据集解压到任意路径文件夹结构如下

.
├── cifar-10-batches-bin  # 训练数据集
└── cifar-10-verify-bin   # 推理数据集

ImageNet2012

将ImageNet2012数据集解压到任意路径文件夹结构应包含训练数据集和评估数据集如下所示

.
└─dataset
  ├─ilsvrc                # 训练数据集
  └─validation_preprocess # 评估数据集

特性

混合精度

采用混合精度的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。

以FP16算子为例如果输入数据类型为FP32MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志搜索“reduce precision”查看精度降低的算子。

环境要求

快速入门

通过官方网站安装MindSpore后您可以按照如下步骤进行训练和评估

  • Ascend处理器环境运行
# 训练示例
python train.py  --data_path=[DATA_PATH] --device_id=[DEVICE_ID] > output.train.log 2>&1 &

# 分布式训练示例
sh run_distribute_train.sh [RANL_TABLE_JSON] [DATA_PATH]

# 评估示例
python eval.py --data_path=[DATA_PATH]  --pre_trained=[PRE_TRAINED] > output.eval.log 2>&1 &

分布式训练需要提前创建JSON格式的HCCL配置文件。 具体操作,参见: https://gitee.com/mindspore/mindspore/tree/master/model_zoo/utils/hccl_tools

  • GPU处理器环境运行
# 训练示例
python train.py --device_target="GPU" --device_id=[DEVICE_ID] --dataset=[DATASET_TYPE] --data_path=[DATA_PATH] > output.train.log 2>&1 &

# 分布式训练示例
sh run_distribute_train_gpu.sh [DATA_PATH]

# 评估示例
python eval.py --device_target="GPU" --device_id=[DEVICE_ID] --dataset=[DATASET_TYPE] --data_path=[DATA_PATH]  --pre_trained=[PRE_TRAINED] > output.eval.log 2>&1 &

脚本说明

脚本及样例代码

├── model_zoo
    ├── README.md                                 // 所有模型相关说明
    ├── vgg16
        ├── README.md                             // GoogLeNet相关说明
        ├── scripts
        │   ├── run_distribute_train.sh           // Ascend分布式训练shell脚本
        │   ├── run_distribute_train_gpu.sh       // GPU分布式训练shell脚本
        ├── src
        │   ├── utils
        │   │   ├── logging.py                    // 日志格式设置
        │   │   ├── sampler.py                    // 为数据集创建采样器
        │   │   ├── util.py                       // 工具函数
        │   │   ├── var_init.py                   // 网络参数init方法
        │   ├── config.py                         // 参数配置
        │   ├── crossentropy.py                   // 损失计算
        │   ├── dataset.py                        // 创建数据集
        │   ├── linear_warmup.py                  // 线性学习率
        │   ├── warmup_cosine_annealing_lr.py     // 余弦退火学习率
        │   ├── warmup_step_lr.py                 // 单次或多次迭代学习率
        │   ├──vgg.py                             // VGG架构
        ├── train.py                              // 训练脚本
        ├── eval.py                               // 评估脚本

脚本参数

训练

用法train.py [--device_target TARGET][--data_path DATA_PATH]
                [--dataset  DATASET_TYPE][--is_distributed VALUE]
                [--device_id DEVICE_ID][--pre_trained PRE_TRAINED]
                [--ckpt_path CHECKPOINT_PATH][--ckpt_interval INTERVAL_STEP]

选项:
  --device_target       训练后端类型Ascend或GPU默认为Ascend。
  --dataset             数据集类型cifar10或imagenet2012。
  --is_distributed      训练方式是否为分布式训练值可以是0或1。
  --data_path           数据集存储路径
  --device_id           用于训练模型的设备。
  --pre_trained         预训练检查点文件路径。
  --ckpt_path           存放检查点的路径。
  --ckpt_interval       保存检查点的轮次间隔。

评估

用法eval.py [--device_target TARGET][--data_path DATA_PATH]
               [--dataset  DATASET_TYPE][--pre_trained PRE_TRAINED]
               [--device_id DEVICE_ID]

选项:
  --device_target       评估后端类型Ascend或GPU默认为Ascend。
  --dataset             数据集类型cifar10或imagenet2012。
  --data_path           数据集存储路径。
  --device_id           用于评估模型的设备。
  --pre_trained         用于评估模型的检查点文件路径。

参数配置

在config.py中可以同时配置训练参数和评估参数。

  • 配置VGG16CIFAR-10数据集
"num_classes": 10,                   # 数据集类数
"lr": 0.01,                          # 学习率
"lr_init": 0.01,                     # 初始学习率
"lr_max": 0.1,                       # 最大学习率
"lr_epochs": '30,60,90,120',         # 基于变化lr的轮次
"lr_scheduler": "step",              # 学习率模式
"warmup_epochs": 5,                  # 热身轮次数
"batch_size": 64,                    # 输入张量批次大小
"max_epoch": 70,                     # 只对训练有效推理固定值为1
"momentum": 0.9,                     # 动量
"weight_decay": 5e-4,                # 权重衰减
"loss_scale": 1.0,                   # 损失放大
"label_smooth": 0,                   # 标签平滑
"label_smooth_factor": 0,            # 标签平滑因子
"buffer_size": 10,                   # 混洗缓冲区大小
"image_size": '224,224',             # 图像大小
"pad_mode": 'same',                  # conv2d的填充方式
"padding": 0,                        # conv2d的填充值
"has_bias": False,                   # conv2d是否有偏差
"batch_norm": True,                  # 在conv2d中是否有batch_norm
"keep_checkpoint_max": 10,           # 只保留最后一个keep_checkpoint_max检查点
"initialize_mode": "XavierUniform",  # conv2d init模式
"has_dropout": True                  # 是否使用Dropout层
  • VGG16配置ImageNet2012数据集
"num_classes": 1000,                 # 数据集类数
"lr": 0.01,                          # 学习率
"lr_init": 0.01,                     # 初始学习率
"lr_max": 0.1,                       # 最大学习率
"lr_epochs": '30,60,90,120',         # 基于变化lr的轮次
"lr_scheduler": "cosine_annealing",  # 学习率模式
"warmup_epochs": 0,                  # 热身轮次数
"batch_size": 32,                    # 输入张量的批次大小
"max_epoch": 150,                    # 只对训练有效推理固定值为1
"momentum": 0.9,                     # 动量
"weight_decay": 1e-4,                # 权重衰减
"loss_scale": 1024,                  # 损失放大
"label_smooth": 1,                   # 标签平滑
"label_smooth_factor": 0.1,          # 标签平滑因子
"buffer_size": 10,                   # 混洗缓冲区大小
"image_size": '224,224',             # 图像大小
"pad_mode": 'pad',                   # conv2d的填充方式
"padding": 1,                        # conv2d的填充值
"has_bias": True,                    # conv2d是否有偏差
"batch_norm": False,                 # 在conv2d中是否有batch_norm
"keep_checkpoint_max": 10,           # 只保留最后一个keep_checkpoint_max检查点
"initialize_mode": "KaimingNormal",  # conv2d init模式
"has_dropout": True                  # 是否使用Dropout层

训练过程

训练

Ascend处理器环境运行VGG16
  • 使用单设备1p训练默认使用CIFAR-10数据集
python train.py --data_path=your_data_path --device_id=6 > out.train.log 2>&1 &

上述python命令在后台运行可通过out.train.log文件查看结果。

训练结束后可在指定的ckpt_path中找到检查点文件默认在./output目录中。

损失值如下:

# grep "loss is " output.train.log
epoch: 1 step: 781, loss is 2.093086
epcoh: 2 step: 781, loss is 1.827582
...
  • 分布式训练
sh run_distribute_train.sh rank_table.json your_data_path

上述shell脚本会在后台进行分布式训练可通过train_parallel[X]/log文件查看结果。

损失值如下:


# grep "result: " train_parallel*/log
train_parallel0/log:epoch: 1 step: 97, loss is 1.9060308
train_parallel0/log:epcoh: 2 step: 97, loss is 1.6003821
...
train_parallel1/log:epoch: 1 step: 97, loss is 1.7095519
train_parallel1/log:epcoh: 2 step: 97, loss is 1.7133579
...
...

关于rank_table.json可以参考分布式并行训练注意 将根据device_num和处理器总数绑定处理器核。如果您不希望预训练中绑定处理器内核,请在scripts/run_distribute_train.sh脚本中移除taskset相关操作。

GPU处理器环境运行VGG16
  • 单设备训练1p
python train.py  --device_target="GPU" --dataset="imagenet2012" --is_distributed=0 --data_path=$DATA_PATH  > output.train.log 2>&1 &
  • 分布式训练
# 分布式训练8p
bash scripts/run_distribute_train_gpu.sh /path/ImageNet2012/train"

评估过程

评估

  • 评估过程如下需要指定数据集类型为“cifar10”或“imagenet2012”。
# 使用CIFAR-10数据集
python eval.py --data_path=your_data_path --dataset="cifar10" --device_target="Ascend" --pre_trained=./*-70-781.ckpt > output.eval.log 2>&1 &

# 使用ImageNet2012数据集
python eval.py --data_path=your_data_path --dataset="imagenet2012" --device_target="GPU" --pre_trained=./*-150-5004.ckpt > output.eval.log 2>&1 &
  • 上述python命令在后台运行可通过output.eval.log文件查看结果。准确率如下:
# 使用CIFAR-10数据集
# grep "result: " output.eval.log
result: {'acc': 0.92}

# 使用ImageNet2012数据集
after allreduce eval: top1_correct=36636, tot=50000, acc=73.27%
after allreduce eval: top5_correct=45582, tot=50000, acc=91.16%

模型描述

性能

训练性能

参数 VGG16(Ascend) VGG16(GPU)
模型版本 VGG16 VGG16
资源 Ascend 910CPU2.60GHz192核内存755 GB NV SMX2 V100-32G
上传日期 2020-08-20 2020-08-20
MindSpore版本 0.5.0-alpha 0.5.0-alpha
数据集 CIFAR-10 ImageNet2012
训练参数 epoch=70, steps=781, batch_size = 64, lr=0.1 epoch=150, steps=40036, batch_size = 32, lr=0.1
优化器 Momentum Momentum
损失函数 SoftmaxCrossEntropy SoftmaxCrossEntropy
输出 概率 概率
损失 0.01 1.5~2.0
速度 1卡79 毫秒/步8卡104毫秒/步 1卡81毫秒/步8卡94.4毫秒/步
总时长 1卡72分钟8卡11.8分钟 8卡19.7小时
调优检查点 1.1 GB.ckpt 文件) 1.1 GB.ckpt 文件)
脚本 VGG16

评估性能

参数 VGG16(Ascend) VGG16(GPU)
模型版本 VGG16 VGG16
资源 Ascend 910 GPU
上传日期 2020-08-20 2020-08-20
MindSpore版本 0.5.0-alpha 0.5.0-alpha
数据集 CIFAR-1010000张图像 ImageNet20125000张图像
batch_size 64 32
输出 概率 概率
准确率 1卡93.4% 1卡73.0%;

随机情况说明

dataset.py中设置了“create_dataset”函数内的种子同时还使用了train.py中的随机种子。

ModelZoo主页

请浏览官网主页