You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
9.4 KiB
9.4 KiB
目录
WarpCTC描述
以下为MindSpore中用自生成的验证码图像数据集来训练WarpCTC的例子。
模型架构
WarpCTC是带有一层FC神经网络的二层堆叠LSTM模型。详细信息请参见src/warpctc.py。
数据集
该数据集由第三方库captcha自行生成,可以在图像中随机生成数字0至9。在本网络中,我们设置数字个数为1至4。
环境要求
- 硬件(Ascend/GPU)
- 使用Ascend或GPU处理器来搭建硬件环境。
- 框架
- 如需查看详情,请参见如下资源:
快速入门
-
生成数据集
执行脚本
scripts/run_process_data.sh
生成数据集。默认情况下,shell脚本将分别生成10000个测试图片和50000个训练图片。$ cd scripts $ sh run_process_data.sh # 执行后,数据集如下: . └─warpctc └─data ├─ train # 训练数据集 └─ test # 评估数据集
-
数据集准备完成后,您可以开始执行训练或评估脚本,具体步骤如下:
- Ascend处理器环境运行
# Ascend分布式训练示例 $ bash run_distribute_train.sh rank_table.json ../data/train # Ascend评估示例 $ bash run_eval.sh ../data/test warpctc-30-97.ckpt Ascend # Ascend中单机训练示例 $ bash run_standalone_train.sh ../data/train Ascend
在分布式训练中,JSON格式的HCCL配置文件需要提前创建。
详情参见如下链接:
- 在GPU环境运行
# Ascend分布式训练示例 $ bash run_distribute_train_for_gpu.sh 8 ../data/train # GPU单机训练示例 $ bash run_standalone_train.sh ../data/train GPU # GPU评估示例 $ bash run_eval.sh ../data/test warpctc-30-97.ckpt GPU
脚本说明
脚本及样例代码
.
└──warpctc
├── README.md
├── script
├── run_distribute_train.sh # 启动Ascend分布式训练(8卡)
├── run_distribute_train_for_gpu.sh # 启动GPU分布式训练
├── run_eval.sh # 启动评估
├── run_process_data.sh # 启动数据集生成
└── run_standalone_train.sh # 启动单机训练(1卡)
├── src
├── config.py # 参数配置
├── dataset.py # 数据预处理
├── loss.py # CTC损失定义
├── lr_generator.py # 生成每个步骤的学习率
├── metric.py # warpctc网络准确指标
├── warpctc.py # warpctc网络定义
└── warpctc_for_train.py # 带梯度、损失和梯度剪裁的warpctc网络
├── mindspore_hub_conf.py # Mindspore Hub接口
├── eval.py # 评估网络
├── process_data.py # 数据集生成脚本
└── train.py # 训练网络
脚本参数
训练脚本参数
# Ascend分布式训练
用法: bash run_distribute_train.sh [RANK_TABLE_FILE] [DATASET_PATH]
# GPU分布式训练
用法: bash run_distribute_train_for_gpu.sh [RANK_SIZE] [DATASET_PATH]
# 单机训练
用法: bash run_standalone_train.sh [DATASET_PATH] [PLATFORM]
参数配置
在config.py中可以同时配置训练参数和评估参数。
"max_captcha_digits": 4, # 每张图像的数字个数上限。
"captcha_width": 160, # captcha图片宽度。
"captcha_height": 64, # capthca图片高度。
"batch_size": 64, # 输入张量批次大小。
"epoch_size": 30, # 只对训练有效,推理固定值为1。
"hidden_size": 512, # LSTM层隐藏大小。
"learning_rate": 0.01, # 初始学习率。
"momentum": 0.9 # SGD优化器动量。
"save_checkpoint": True, # 是否保存检查点。
"save_checkpoint_steps": 97, # 两个检查点之间的迭代间隙。默认情况下,最后一个检查点将在最后一步迭代结束后保存。
"keep_checkpoint_max": 30, # 只保留最后一个keep_checkpoint_max检查点。
"save_checkpoint_path": "./checkpoint", # 检查点保存路径。
数据集准备
- 您可以参考快速入门中的“生成数据集”自动生成数据集,也可以自行选择生成验证码数据集。
训练过程
- 在
config.py
中设置选项,包括学习率和网络超参数。单击MindSpore加载数据集教程,了解更多信息。
训练
- 在Ascend或GPU上运行
run_standalone_train.sh
进行WarpCTC模型的非分布式训练。
bash run_standalone_train.sh [DATASET_PATH] [PLATFORM]
分布式训练
- 在Ascend上运行
run_distribute_train.sh
进行WarpCTC模型的分布式训练。
bash run_distribute_train.sh [RANK_TABLE_FILE] [DATASET_PATH]
- 在GPU上运行
run_distribute_train_gpu.sh
进行WarpCTC模型的分布式训练。
bash run_distribute_train_gpu.sh [RANK_SIZE] [DATASET_PATH]
评估过程
评估
- 运行
run_eval.sh
进行评估。
bash run_eval.sh [DATASET_PATH] [CHECKPOINT_PATH] [PLATFORM]
模型描述
性能
训练性能
参数 | Ascend 910 | GPU |
---|---|---|
模型版本 | v1.0 | v1.0 |
资源 | Ascend 910,CPU 2.60GHz 192核,内存:755G | GPU(Tesla V100 SXM2),CPU 2.1GHz 24核,内存: 128G |
上传日期 | 2020-07-01 | 2020-08-01 |
MindSpore版本 | 0.5.0-alpha | 0.6.0-alpha |
数据集 | Captcha | Captcha |
训练参数 | epoch=30, steps per epoch=98, batch_size = 64 | epoch=30, steps per epoch=98, batch_size = 64 |
优化器 | SGD | SGD |
损失函数 | CTCLoss | CTCLoss |
输出 | 概率 | 概率 |
损失 | 0.0000157 | 0.0000246 |
速度 | 980毫秒/步(8卡) | 150毫秒/步(8卡) |
总时长 | 30分钟 | 5分钟 |
参数(M) | 2.75 | 2.75 |
微调检查点 | 20.3M (.ckpt文件) | 20.3M (.ckpt文件) |
脚本 | 链接 | 链接 |
评估性能
参数 | WarpCTC |
---|---|
模型版本 | V1.0 |
资源 | Ascend 910 |
上传日期 | 2020-08-01 |
MindSpore版本 | 0.6.0-alpha |
数据集 | Captcha |
batch_size | 64 |
输出 | ACC |
准确率 | 99.0% |
推理模型 | 20.3M (.ckpt文件) |
随机情况说明
在dataset.py中设置“create_dataset”函数内的种子。使用train.py中的随机种子进行权重初始化。
ModelZoo主页
请浏览官网主页。