12 KiB
目录
Tiny-DarkNet描述
Tiny-DarkNet是Joseph Chet Redmon等人提出的一个16层的针对于经典的图像分类数据集ImageNet所进行的图像分类网络模型。 Tiny-DarkNet作为作者为了满足用户对较小模型规模的需求而尽量降低模型的大小设计的简易版本的Darknet,具有优于AlexNet和SqueezeNet的图像分类能力,同时其只使用少于它们的模型参数。为了减少模型的规模,该Tiny-DarkNet网络没有使用全连接层,仅由卷积层、最大池化层、平均池化层组成。
更多Tiny-DarkNet详细信息可以参考官方介绍
模型架构
具体而言, Tiny-DarkNet网络由1×1 conv, 3×3 conv, 2×2 max和全局平均池化层组成,这些模块相互组成将输入的图片转换成一个1×1000的向量。
数据集
以下将介绍模型中使用数据集以及其出处:
所使用的数据集可参考论文
- 数据集规模:125G,1250k张分别属于1000个类的彩色图像
- 训练集: 120G,1200k张图片
- 测试集: 5G, 50k张图片
- 数据格式: RGB格式图片
- 注意: 数据将会被 src/dataset.py 中的函数进行处理
环境要求
- 硬件(Ascend)
- 请准备具有Ascend处理器的硬件环境.如果想使用Ascend资源,请发送申请表 至ascend@huawei.com. 当收到许可即可使用Ascend资源.
- 框架
- 更多的信息请访问以下链接:
快速入门
根据官方网站成功安装MindSpore以后,可以按照以下步骤进行训练和测试模型:
-
在Ascend资源上运行:
# 单卡训练 bash ./scripts/run_standalone_train.sh 0 # 分布式训练 bash ./scripts/run_distribute_train.sh rank_table.json # 评估 python eval.py > eval.log 2>&1 & OR bash ./script/run_eval.sh
进行并行训练时, 需要提前创建JSON格式的hccl配置文件。
请按照以下链接的指导进行设置:
https://gitee.com/mindspore/mindspore/tree/master/model_zoo/utils/hccl_tools.
更多的细节请参考具体的script文件
脚本描述
脚本及样例代码
├── tinydarknet
├── README.md // Tiny-Darknet英文说明
├── README_CN.md // Tiny-Darknet中文说明
├── scripts
├──run_standalone_train.sh // Ascend单卡训练shell脚本
├──run_distribute_train.sh // Ascend分布式训练shell脚本
├──run_eval.sh // Ascend评估shell脚本
├── src
├─lr_scheduler //学习率策略
├─__init__.py // 初始化文件
├─linear_warmup.py // linear_warmup策略
├─warmup_cosine_annealing_lr.py // warmup_cosine_annealing_lr策略
├─warmup_step_lr.py // warmup_step_lr策略
├──dataset.py // 创建数据集
├──CrossEntropySmooth.py // 损失函数
├──tinydarknet.py // Tiny-Darknet网络结构
├──config.py // 参数配置
├── train.py // 训练脚本
├── eval.py // 评估脚本
├── export.py // 导出checkpoint文件
├── mindspore_hub_conf.py // hub配置文件
脚本参数
训练和测试的参数可在 config.py 中进行设置
-
Tiny-Darknet的配置文件
'pre_trained': 'False' # 是否载入预训练模型 'num_classes': 1000 # 数据集中类的数量 'lr_init': 0.1 # 初始学习率 'batch_size': 128 # 训练的batch_size 'epoch_size': 500 # 总共的训练epoch 'momentum': 0.9 # 动量 'weight_decay': 1e-4 # 权重衰减率 'image_height': 224 # 输入图像的高度 'image_width': 224 # 输入图像的宽度 'data_path': './ImageNet_Original/train/' # 训练数据集的绝对路径 'val_data_path': './ImageNet_Original/val/' # 评估数据集的绝对路径 'device_target': 'Ascend' # 程序运行的设备 'keep_checkpoint_max': 10 # 仅仅保持最新的keep_checkpoint_max个checkpoint文件 'checkpoint_path': '/train_tinydarknet.ckpt' # 保存checkpoint文件的绝对路径 'onnx_filename': 'tinydarknet.onnx' # 用于export.py 文件中的onnx模型的文件名 'air_filename': 'tinydarknet.air' # 用于export.py 文件中的air模型的文件名 'lr_scheduler': 'exponential' # 学习率策略 'lr_epochs': [70, 140, 210, 280] # 学习率进行变化的epoch数 'lr_gamma': 0.3 # lr_scheduler为exponential时的学习率衰减因子 'eta_min': 0.0 # cosine_annealing策略中的eta_min 'T_max': 150 # cosine_annealing策略中的T-max 'warmup_epochs': 0 # 热启动的epoch数 'is_dynamic_loss_scale': 0 # 动态损失尺度 'loss_scale': 1024 # 损失尺度 'label_smooth_factor': 0.1 # 训练标签平滑因子 'use_label_smooth': True # 是否采用训练标签平滑
更多的细节, 请参考config.py
.
训练过程
单机训练
-
在Ascend资源上运行:
bash ./scripts/run_standalone_train.sh 0
上述的命令将运行在后台中,可以通过
train.log
文件查看运行结果.训练完成后,默认情况下,可在script文件夹下得到一些checkpoint文件. 训练的损失值将以如下的形式展示:
# grep "loss is " train.log epoch: 498 step: 1251, loss is 2.7798953 Epoch time: 130690.544, per step time: 104.469 epoch: 499 step: 1251, loss is 2.9261637 Epoch time: 130511.081, per step time: 104.325 epoch: 500 step: 1251, loss is 2.69412 Epoch time: 127067.548, per step time: 101.573 ...
模型checkpoint文件将会保存在当前文件夹下.
分布式训练
-
在Ascend资源上运行:
bash scripts/run_distribute_train.sh rank_table.json
上述的脚本命令将在后台中进行分布式训练,可以通过
train_parallel[X]/log
文件查看运行结果. 训练的损失值将以如下的形式展示:# grep "result: " train_parallel*/log epoch: 498 step: 1251, loss is 2.7798953 Epoch time: 130690.544, per step time: 104.469 epoch: 499 step: 1251, loss is 2.9261637 Epoch time: 130511.081, per step time: 104.325 epoch: 500 step: 1251, loss is 2.69412 Epoch time: 127067.548, per step time: 101.573 ...
评估过程
评估
-
在Ascend资源上进行评估:
在运行如下命令前,请确认用于评估的checkpoint文件的路径.请将checkpoint路径设置为绝对路径,例如:"/username/imagenet/train_tinydarknet.ckpt"
python eval.py > eval.log 2>&1 & OR bash scripts/run_eval.sh
上述的python命令将运行在后台中,可以通过"eval.log"文件查看结果. 测试数据集的准确率将如下面所列:
# grep "accuracy: " eval.log accuracy: {'top_1_accuracy': 0.5871979166666667, 'top_5_accuracy': 0.8175280448717949}
请注意在并行训练后,测试请将checkpoint_path设置为最后保存的checkpoint文件的路径,准确率将如下面所列:
# grep "accuracy: " eval.log accuracy: {'top_1_accuracy': 0.5871979166666667, 'top_5_accuracy': 0.8175280448717949}
模型描述
性能
训练性能
参数 | Ascend |
---|---|
模型版本 | V1 |
资源 | Ascend 910, CPU 2.60GHz, 56cores, Memory 314G |
上传日期 | 2020/12/22 |
MindSpore版本 | 1.1.0 |
数据集 | 1200k张图片 |
训练参数 | epoch=500, steps=1251, batch_size=128, lr=0.1 |
优化器 | Momentum |
损失函数 | Softmax Cross Entropy |
速度 | 8卡: 104 ms/step |
总时间 | 8卡: 17.8小时 |
参数(M) | 4.0 |
脚本 | Tiny-Darknet脚本 |
评估性能
参数 | Ascend |
---|---|
模型版本 | V1 |
资源 | Ascend 910 |
上传日期 | 2020/12/22 |
MindSpore版本 | 1.1.0 |
数据集 | 200k张图片 |
batch_size | 128 |
输出 | 分类概率 |
准确率 | 8卡 Top-1: 58.7%; Top-5: 81.7% |
推理模型 | 11.6M (.ckpt文件) |
ModelZoo主页
请参考官方主页.