From 9a617636295fccf8cc34b7a6f63cd6fb22d54d44 Mon Sep 17 00:00:00 2001 From: chengxianbin Date: Sat, 6 Mar 2021 14:14:22 +0800 Subject: [PATCH] add ssd&yolov3 CN README --- model_zoo/official/cv/ssd/README_CN.md | 356 ++++++++++++++++++ .../official/cv/yolov3_darknet53/README_CN.md | 349 +++++++++++++++++ .../cv/yolov3_darknet53_quant/README_CN.md | 313 +++++++++++++++ .../official/cv/yolov3_resnet18/README_CN.md | 238 ++++++++++++ 4 files changed, 1256 insertions(+) create mode 100644 model_zoo/official/cv/ssd/README_CN.md create mode 100644 model_zoo/official/cv/yolov3_darknet53/README_CN.md create mode 100644 model_zoo/official/cv/yolov3_darknet53_quant/README_CN.md create mode 100644 model_zoo/official/cv/yolov3_resnet18/README_CN.md diff --git a/model_zoo/official/cv/ssd/README_CN.md b/model_zoo/official/cv/ssd/README_CN.md new file mode 100644 index 0000000000..48527dfd35 --- /dev/null +++ b/model_zoo/official/cv/ssd/README_CN.md @@ -0,0 +1,356 @@ +# 目录 + + + +- [目录](#目录) +- [SSD说明](#ssd说明) +- [模型架构](#模型架构) +- [数据集](#数据集) +- [环境要求](#环境要求) +- [快速入门](#快速入门) +- [脚本说明](#脚本说明) + - [脚本及样例代码](#脚本及样例代码) + - [脚本参数](#脚本参数) + - [训练过程](#训练过程) + - [Ascend上训练](#ascend上训练) + - [GPU训练](#gpu训练) + - [评估过程](#评估过程) + - [Ascend处理器环境评估](#ascend处理器环境评估) + - [GPU处理器环境评估](#gpu处理器环境评估) +- [模型描述](#模型描述) + - [性能](#性能) + - [评估性能](#评估性能) + - [推理性能](#推理性能) +- [随机情况说明](#随机情况说明) +- [ModelZoo主页](#modelzoo主页) + + + +# SSD说明 + +SSD将边界框的输出空间离散成一组默认框,每个特征映射位置具有不同的纵横比和尺度。在预测时,网络对每个默认框中存在的对象类别进行评分,并对框进行调整以更好地匹配对象形状。此外,网络将多个不同分辨率的特征映射的预测组合在一起,自然处理各种大小的对象。 + +[论文](https://arxiv.org/abs/1512.02325): Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander C. Berg.European Conference on Computer Vision (ECCV), 2016 (In press). + +# 模型架构 + +SSD方法基于前向卷积网络,该网络产生固定大小的边界框集合,并针对这些框内存在的对象类实例进行评分,然后通过非极大值抑制步骤进行最终检测。早期的网络层基于高质量图像分类的标准体系结构,被称为基础网络。后来通过向网络添加辅助结构进行检测。 + +# 数据集 + +使用的数据集: [COCO2017]() + +- 数据集大小:19 GB + - 训练集:18 GB,118000张图像 + - 验证集:1 GB,5000张图像 + - 标注:241 MB,实例,字幕,person_keypoints等 +- 数据格式:图像和json文件 + - 注意:数据在dataset.py中处理 + +# 环境要求 + +- 安装[MindSpore](https://www.mindspore.cn/install)。 + +- 下载数据集COCO2017。 + +- 本示例默认使用COCO2017作为训练数据集,您也可以使用自己的数据集。 + + 1. 如果使用coco数据集。**执行脚本时选择数据集coco。** + 安装Cython和pycocotool,也可以安装mmcv进行数据处理。 + + ```python + pip install Cython + + pip install pycocotools + + ``` + + 并在`config.py`中更改COCO_ROOT和其他您需要的设置。目录结构如下: + + ```text + . + └─cocodataset + ├─annotations + ├─instance_train2017.json + └─instance_val2017.json + ├─val2017 + └─train2017 + + ``` + + 2. 如果使用自己的数据集。**执行脚本时选择数据集为other。** + 将数据集信息整理成TXT文件,每行如下: + + ```text + train2017/0000001.jpg 0,259,401,459,7 35,28,324,201,2 0,30,59,80,2 + + ``` + + 每行是按空间分割的图像标注,第一列是图像的相对路径,其余为[xmin,ymin,xmax,ymax,class]格式的框和类信息。我们从`IMAGE_DIR`(数据集目录)和`ANNO_PATH`(TXT文件路径)的相对路径连接起来的图像路径中读取图像。在`config.py`中设置`IMAGE_DIR`和`ANNO_PATH`。 + +# 快速入门 + +通过官方网站安装MindSpore后,您可以按照如下步骤进行训练和评估: + +- Ascend处理器环境运行 + +```shell script +# Ascend分布式训练 +sh run_distribute_train.sh [DEVICE_NUM] [EPOCH_SIZE] [LR] [DATASET] [RANK_TABLE_FILE] +``` + +```shell script +# Ascend处理器环境运行eval +sh run_eval.sh [DATASET] [CHECKPOINT_PATH] [DEVICE_ID] +``` + +- GPU处理器环境运行 + +```shell script +# GPU分布式训练 +sh run_distribute_train_gpu.sh [DEVICE_NUM] [EPOCH_SIZE] [LR] [DATASET] +``` + +```shell script +# GPU处理器环境运行eval +sh run_eval_gpu.sh [DATASET] [CHECKPOINT_PATH] [DEVICE_ID] +``` + +# 脚本说明 + +## 脚本及样例代码 + +```text +. +└─ cv + └─ ssd + ├─ README.md ## SSD相关说明 + ├─ scripts + ├─ run_distribute_train.sh ## Ascend分布式shell脚本 + ├─ run_distribute_train_gpu.sh ## GPU分布式shell脚本 + ├─ run_eval.sh ## Ascend评估shell脚本 + └─ run_eval_gpu.sh ## GPU评估shell脚本 + ├─ src + ├─ __init__.py ## 初始化文件 + ├─ box_util.py ## bbox工具 + ├─ coco_eval.py ## coco指标工具 + ├─ config.py ## 总配置 + ├─ dataset.py ## 创建并处理数据集 + ├─ init_params.py ## 参数工具 + ├─ lr_schedule.py ## 学习率生成器 + └─ ssd.py ## SSD架构 + ├─ eval.py ## 评估脚本 + ├─ train.py ## 训练脚本 + └─ mindspore_hub_conf.py ## MindSpore Hub接口 +``` + +## 脚本参数 + + ```text + train.py和config.py中主要参数如下: + + "device_num": 1 # 使用设备数量 + "lr": 0.05 # 学习率初始值 + "dataset": coco # 数据集名称 + "epoch_size": 500 # 轮次大小 + "batch_size": 32 # 输入张量的批次大小 + "pre_trained": None # 预训练检查点文件路径 + "pre_trained_epoch_size": 0 # 预训练轮次大小 + "save_checkpoint_epochs": 10 # 两个检查点之间的轮次间隔。默认情况下,每10个轮次都会保存检查点。 + "loss_scale": 1024 # 损失放大 + + "class_num": 81 # 数据集类数 + "image_shape": [300, 300] # 作为模型输入的图像高和宽 + "mindrecord_dir": "/data/MindRecord_COCO" # MindRecord路径 + "coco_root": "/data/coco2017" # COCO2017数据集路径 + "voc_root": "" # VOC原始数据集路径 + "image_dir": "" # 其他数据集图片路径,如果使用coco或voc,此参数无效。 + "anno_path": "" # 其他数据集标注路径,如果使用coco或voc,此参数无效。 + + ``` + +## 训练过程 + +运行`train.py`训练模型。如果`mindrecord_dir`为空,则会通过`coco_root`(coco数据集)或`image_dir`和`anno_path`(自己的数据集)生成[MindRecord](https://www.mindspore.cn/tutorial/training/zh-CN/master/advanced_use/convert_dataset.html)文件。**注意,如果mindrecord_dir不为空,将使用mindrecord_dir代替原始图像。** + +### Ascend上训练 + +- 分布式 + +```shell script + sh run_distribute_train.sh [DEVICE_NUM] [EPOCH_SIZE] [LR] [DATASET] [RANK_TABLE_FILE] [PRE_TRAINED](optional) [PRE_TRAINED_EPOCH_SIZE](optional) +``` + +此脚本需要五或七个参数。 + +- `DEVICE_NUM`:分布式训练的设备数。 +- `EPOCH_NUM`:分布式训练的轮次数。 +- `LR`:分布式训练的学习率初始值。 +- `DATASET`:分布式训练的数据集模式。 +- `RANK_TABLE_FILE`:[rank_table.json](https://gitee.com/mindspore/mindspore/tree/master/model_zoo/utils/hccl_tools)的路径。最好使用绝对路径。 +- `PRE_TRAINED`:预训练检查点文件的路径。最好使用绝对路径。 +- `PRE_TRAINED_EPOCH_SIZE`:预训练的轮次数。 + + 训练结果保存在当前路径中,文件夹名称以"LOG"开头。 您可在此文件夹中找到检查点文件以及结果,如下所示。 + +```text +epoch: 1 step: 458, loss is 3.1681802 +epoch time: 228752.4654865265, per step time: 499.4595316299705 +epoch: 2 step: 458, loss is 2.8847265 +epoch time: 38912.93382644653, per step time: 84.96273761232868 +epoch: 3 step: 458, loss is 2.8398118 +epoch time: 38769.184827804565, per step time: 84.64887516987896 +... + +epoch: 498 step: 458, loss is 0.70908034 +epoch time: 38771.079778671265, per step time: 84.65301261718616 +epoch: 499 step: 458, loss is 0.7974688 +epoch time: 38787.413120269775, per step time: 84.68867493508685 +epoch: 500 step: 458, loss is 0.5548882 +epoch time: 39064.8467540741, per step time: 85.29442522723602 +``` + +### GPU训练 + +- 分布式 + +```shell script + sh run_distribute_train_gpu.sh [DEVICE_NUM] [EPOCH_SIZE] [LR] [DATASET] [PRE_TRAINED](optional) [PRE_TRAINED_EPOCH_SIZE](optional) +``` + +此脚本需要五或七个参数。 + +- `DEVICE_NUM`:分布式训练的设备数。 +- `EPOCH_NUM`:分布式训练的轮次数。 +- `LR`:分布式训练的学习率初始值。 +- `DATASET`:分布式训练的数据集模式。 +- `PRE_TRAINED`:预训练检查点文件的路径。最好使用绝对路径。 +- `PRE_TRAINED_EPOCH_SIZE`:预训练的轮次数。 + + 训练结果保存在当前路径中,文件夹名称以"LOG"开头。 您可在此文件夹中找到检查点文件以及结果,如下所示。 + +```text +epoch: 1 step: 1, loss is 420.11783 +epoch: 1 step: 2, loss is 434.11032 +epoch: 1 step: 3, loss is 476.802 +... +epoch: 1 step: 458, loss is 3.1283689 +epoch time: 150753.701, per step time: 329.157 +... + +``` + +## 评估过程 + +### Ascend处理器环境评估 + +```shell script +sh run_eval.sh [DATASET] [CHECKPOINT_PATH] [DEVICE_ID] +``` + +此脚本需要两个参数。 + +- `DATASET`:评估数据集的模式。 +- `CHECKPOINT_PATH`:检查点文件的绝对路径。 +- `DEVICE_ID`: 评估的设备ID。 + +> 在训练过程中可以生成检查点。 + +推理结果保存在示例路径中,文件夹名称以“eval”开头。您可以在日志中找到类似以下的结果。 + +```text +Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.238 +Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.400 +Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.240 +Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.039 +Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.198 +Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.438 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.250 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.389 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.424 +Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.122 +Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.434 +Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.697 + +======================================== + +mAP: 0.23808886505483504 +``` + +### GPU处理器环境评估 + +```shell script +sh run_eval_gpu.sh [DATASET] [CHECKPOINT_PATH] [DEVICE_ID] +``` + +此脚本需要两个参数。 + +- `DATASET`:评估数据集的模式。 +- `CHECKPOINT_PATH`:检查点文件的绝对路径。 +- `DEVICE_ID`: 评估的设备ID。 + +> 在训练过程中可以生成检查点。 + +推理结果保存在示例路径中,文件夹名称以“eval”开头。您可以在日志中找到类似以下的结果。 + +```text +Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.224 +Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.375 +Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.228 +Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.034 +Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.189 +Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.407 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.243 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.382 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.417 +Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.120 +Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.425 +Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.686 + +======================================== + +mAP: 0.2244936111705981 +``` + +# 模型描述 + +## 性能 + +### 评估性能 + +| 参数 | Ascend | GPU | +| -------------------------- | -------------------------------------------------------------| -------------------------------------------------------------| +| 模型版本 | SSD V1 | SSD V1 | +| 资源 | Ascend 910;CPU: 2.60GHz,192核;内存:755 GB | NV SMX2 V100-16G | +| 上传日期 | 2020-06-01 | 2020-09-24 | +| MindSpore版本 | 0.3.0-alpha | 1.0.0 | +| 数据集 | COCO2017 | COCO2017 | +| 训练参数 | epoch = 500, batch_size = 32 | epoch = 800, batch_size = 32 | +| 优化器 | Momentum | Momentum | +| 损失函数 | Sigmoid交叉熵,SmoothL1Loss | Sigmoid交叉熵,SmoothL1Loss | +| 速度 | 8卡:90毫秒/步 | 8卡:121毫秒/步 | +| 总时长 | 8卡:4.81小时 | 8卡:12.31小时 | +| 参数(M) | 34 | 34 | +|脚本 | https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/ssd | https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/ssd | + +### 推理性能 + +| 参数 | Ascend | GPU | +| ------------------- | ----------------------------| ----------------------------| +| 模型版本 | SSD V1 | SSD V1 | +| 资源 | Ascend 910 | GPU | +| 上传日期 | 2020-06-01 | 2020-09-24 | +| MindSpore版本 | 0.3.0-alpha | 1.0.0 | +| 数据集 | COCO2017 | COCO2017 | +| batch_size | 1 | 1 | +| 输出 | mAP | mAP | +| 准确率 | IoU=0.50: 23.8% | IoU=0.50: 22.4% | +| 推理模型 | 34M(.ckpt文件) | 34M(.ckpt文件) | + +# 随机情况说明 + +dataset.py中设置了“create_dataset”函数内的种子,同时还使用了train.py中的随机种子。 + +# ModelZoo主页 + + 请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。 diff --git a/model_zoo/official/cv/yolov3_darknet53/README_CN.md b/model_zoo/official/cv/yolov3_darknet53/README_CN.md new file mode 100644 index 0000000000..e54dd8108e --- /dev/null +++ b/model_zoo/official/cv/yolov3_darknet53/README_CN.md @@ -0,0 +1,349 @@ +# 目录 + + + +- [目录](#目录) +- [YOLOv3-DarkNet53描述](#yolov3-darknet53描述) +- [模型架构](#模型架构) +- [数据集](#数据集) +- [环境要求](#环境要求) +- [快速入门](#快速入门) +- [脚本说明](#脚本说明) + - [脚本及样例代码](#脚本及样例代码) + - [脚本参数](#脚本参数) + - [训练过程](#训练过程) + - [训练](#训练) + - [分布式训练](#分布式训练) + - [评估过程](#评估过程) + - [评估](#评估) +- [模型描述](#模型描述) + - [性能](#性能) + - [评估性能](#评估性能) + - [推理性能](#推理性能) +- [随机情况说明](#随机情况说明) +- [ModelZoo主页](#modelzoo主页) + + + +# YOLOv3-DarkNet53描述 + +You only look once(YOLO)是最先进的实时物体检测系统。YOLOv3非常快速和准确。 + +先前的检测系统重新利用分类器或定位器来执行检测,将模型应用于多个位置和尺度的图像。图像的高分区域被认为是检测。 + YOLOv3使用了完全不同的方法。该方法将单个神经网络应用于全图像,将图像划分为区域,并预测每个区域的边界框和概率。这些边界框由预测概率加权。 + +YOLOv3使用了一些技巧来改进训练,提高性能,包括多尺度预测、更好的主干分类器等等,详情见论文。 + +[论文](https://pjreddie.com/media/files/papers/YOLOv3.pdf): YOLOv3: An Incremental Improvement.Joseph Redmon, Ali Farhadi, +University of Washington + +# 模型架构 + +YOLOv3使用DarkNet53执行特征提取,这是YOLOv2中的Darknet-19和残差网络的一种混合方法。DarkNet53使用连续的3×3和1×1卷积层,并且有一些快捷连接,而且DarkNet53明显更大,它有53层卷积层。 + +# 数据集 + +使用的数据集:[COCO 2014](https://cocodataset.org/#download) + +- 数据集大小:19G,123287张图片,80个物体类别 + - 训练集:13G,82783张图像 + - 验证集:6GM,40504张图像 + - 标注:241M,训练/验证标注 +- 数据格式:zip文件 + - 注:数据将在yolo_dataset.py中处理,并在使用前解压文件。 + +# 环境要求 + +- 硬件(Ascend/GPU) + - 使用Ascend或GPU处理器来搭建硬件环境。如需试用Ascend处理器,请发送[申请表](https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/file/other/Ascend%20Model%20Zoo%E4%BD%93%E9%AA%8C%E8%B5%84%E6%BA%90%E7%94%B3%E8%AF%B7%E8%A1%A8.docx)至ascend@huawei.com,审核通过即可获得资源。 +- 框架 + - [MindSpore](https://www.mindspore.cn/install) +- 如需查看详情,请参见如下资源: + - [MindSpore教程](https://www.mindspore.cn/tutorial/training/zh-CN/master/index.html) + - [MindSpore Python API](https://www.mindspore.cn/doc/api_python/zh-CN/master/index.html) + +# 快速入门 + +通过官方网站安装MindSpore后,您可以按照如下步骤进行训练和评估:如果在GPU上运行,请在python命令中添加`--device_target=GPU`,或者使用“_gpu”shell脚本(“xxx_gpu.sh”)。 + +```python +# 下面的脚本中的darknet53_backbone.ckpt是从darknet53训练得到的。 +# pretrained_backbone可以使用src/convert_weight.py,将darknet53.conv.74转换为MindSpore checkpoint。可通过`https://pjreddie.com/media/files/darknet53.conv.74`获取darknet53.conv.74。 +# training_shape参数定义网络图像形状,默认为""。 +# 意思是使用10种形状作为输入形状,或者可以设置某种形状。 +# 通过python命令执行训练示例(1卡)。 +python train.py \ + --data_dir=./dataset/coco2014 \ + --pretrained_backbone=darknet53_backbone.ckpt \ + --is_distributed=0 \ + --lr=0.1 \ + --T_max=320 \ + --max_epoch=320 \ + --warmup_epochs=4 \ + --training_shape=416 \ + --lr_scheduler=cosine_annealing > log.txt 2>&1 & +``` + +```shell script +# shell脚本单机训练示例(1卡) +sh run_standalone_train.sh dataset/coco2014 darknet53_backbone.ckpt +``` + +```shell script +# 对于Ascend设备,使用shell脚本分布式训练示例(8卡) +sh run_distribute_train.sh dataset/coco2014 darknet53_backbone.ckpt rank_table_8p.json +``` + +```shell script +# 对于GPU设备,使用shell脚本分布式训练示例(8卡) +sh run_distribute_train_gpu.sh dataset/coco2014 darknet53_backbone.ckpt +``` + +```python +# 使用python命令评估 +python eval.py \ + --data_dir=./dataset/coco2014 \ + --pretrained=yolov3.ckpt \ + --testing_shape=416 > log.txt 2>&1 & +``` + +```shell script +# 通过shell脚本运行评估 +sh run_eval.sh dataset/coco2014/ checkpoint/0-319_102400.ckpt +``` + +# 脚本说明 + +## 脚本及样例代码 + +```text +. +└─yolov3_darknet53 + ├─README.md + ├─mindspore_hub_conf.md # Mindspore Hub配置 + ├─scripts + ├─run_standalone_train.sh # 在Ascend中启动单机训练(1卡) + ├─run_distribute_train.sh # 在Ascend中启动分布式训练(8卡) + └─run_eval.sh # 在Ascend中启动评估 + ├─run_standalone_train_gpu.sh # 在GPU中启动单机训练(1卡) + ├─run_distribute_train_gpu.sh # 在GPU中启动分布式训练(8卡) + └─run_eval_gpu.sh # 在GPU中启动评估 + ├─src + ├─__init__.py # python初始化文件 + ├─config.py # 参数配置 + ├─darknet.py # 网络骨干 + ├─distributed_sampler.py # 数据集迭代器 + ├─initializer.py #参数初始化器 + ├─logger.py # 日志函数 + ├─loss.py # 损失函数 + ├─lr_scheduler.py # 生成学习率 + ├─transforms.py # 预处理数据 + ├─util.py # 工具函数 + ├─yolo.py # yolov3网络 + ├─yolo_dataset.py # 为YOLOV3创建数据集 + ├─eval.py # 评估网络 + └─train.py # 训练网络 +``` + +## 脚本参数 + +```text +train.py中主要参数如下: + +可选参数: + -h, --help 显示此帮助消息并退出。 + --Device_target 实现代码的设备:“Ascend" | "GPU"。默认设置:"Ascend"。 + --data_dir DATA_DIR 训练数据集目录。 + --per_batch_size PER_BATCH_SIZE + 训练批次大小。默认设置:32。 + --pretrained_backbone PRETRAINED_BACKBONE + DarkNet53的ckpt文件。默认设置:""。 + --resume_yolov3 RESUME_YOLOV3 + YOLOv3的ckpt文件,用于微调。默认设置:""。 + --lr_scheduler LR_SCHEDULER + 学习率调度器,选项:exponential,cosine_annealing。默认设置:exponential。 + --lr LR 学习率。默认设置:0.001。 + --lr_epochs LR_EPOCHS + lr changing轮次,用“,”分隔。默认设置:220,250。 + --lr_gamma LR_GAMMA 降低lr的exponential lr_scheduler因子。默认设置:0.1。 + --eta_min ETA_MIN cosine_annealing调度器中的eta_min。默认设置:0。 + --T_max T_MAX cosine_annealing调度器中的T-max。默认设置:320。 + --max_epoch MAX_EPOCH + 训练模型的最大轮次数。默认设置:320。 + --warmup_epochs WARMUP_EPOCHS + 热身轮次。默认设置:0。 + --weight_decay WEIGHT_DECAY + 权重衰减因子。默认设置:0.0005。 + --momentum MOMENTUM 动量。默认设置:0.9。 + --loss_scale LOSS_SCALE + 静态损失等级。默认设置:1024。 + --label_smooth LABEL_SMOOTH + CE中是否使用标签平滑。默认设置:0。 + --label_smooth_factor LABEL_SMOOTH_FACTOR + 独热平滑强度。默认设置:0.1。 + --log_interval LOG_INTERVAL + 日志记录迭代间隔。默认设置:100。 + --ckpt_path CKPT_PATH + 检查点保存位置。默认设置:outputs/。 + --ckpt_interval CKPT_INTERVAL + 保存检查点间隔。默认设置:None。 + --is_save_on_master IS_SAVE_ON_MASTER + 在主进程序号或所有进程序号上保存ckpt。1为主进程序号, 0为所有进程序号。默认设置:1。 + --is_distributed IS_DISTRIBUTED + 是否分布训练,1表示是,0表示否,默认设置:1。 + --rank RANK 分布式本地排名。默认设置:0。 + --group_size GROUP_SIZE + 设备进程总数。默认设置:1。 + --need_profiler NEED_PROFILER + 是否使用调优器。0表示否,1表示是。默认设置:0。 + --training_shape TRAINING_SHAPE + 固定训练形状。默认设置:""。 + --resize_rate RESIZE_RATE + 多尺度训练的调整率。默认设置:None。 +``` + +## 训练过程 + +### 训练 + +```python +python train.py \ + --data_dir=./dataset/coco2014 \ + --pretrained_backbone=darknet53_backbone.ckpt \ + --is_distributed=0 \ + --lr=0.1 \ + --T_max=320 \ + --max_epoch=320 \ + --warmup_epochs=4 \ + --training_shape=416 \ + --lr_scheduler=cosine_annealing > log.txt 2>&1 & +``` + +上述python命令将在后台运行,您可以通过`log.txt`文件查看结果。如果在GPU上运行,请在python命令中添加`--device_target=GPU`。 + +训练结束后,您可在默认输出文件夹下找到检查点文件。损失值的实现如下: + +```text +# grep "loss:" train/log.txt +2020-08-20 14:14:43,640:INFO:epoch[0], iter[0], loss:7809.262695, 0.15 imgs/sec, lr:9.746589057613164e-06 +2020-08-20 14:15:05,142:INFO:epoch[0], iter[100], loss:2778.349033, 133.92 imgs/sec, lr:0.0009844054002314806 +2020-08-20 14:15:31,796:INFO:epoch[0], iter[200], loss:535.517361, 130.54 imgs/sec, lr:0.0019590642768889666 +... +``` + +模型检查点将会储存在输出目录。 + +### 分布式训练 + +对于Ascend设备,使用shell脚本分布式训练示例(8卡) + +```shell script +sh run_distribute_train.sh dataset/coco2014 darknet53_backbone.ckpt rank_table_8p.json +``` + +对于GPU设备,使用shell脚本分布式训练示例(8卡) + +```shell script +sh run_distribute_train_gpu.sh dataset/coco2014 darknet53_backbone.ckpt +``` + +上述shell脚本将在后台运行分布训练。您可以通过`train_parallel[X]/log.txt`文件查看结果。损失值的实现如下: + +```text +# 分布式训练示例(8卡) +epoch[0], iter[0], loss:14623.384766, 1.23 imgs/sec, lr:7.812499825377017e-05 +epoch[0], iter[100], loss:1486.253051, 15.01 imgs/sec, lr:0.007890624925494194 +epoch[0], iter[200], loss:288.579535, 490.41 imgs/sec, lr:0.015703124925494194 +epoch[0], iter[300], loss:153.136754, 531.99 imgs/sec, lr:0.023515624925494194 +epoch[1], iter[400], loss:106.429322, 405.14 imgs/sec, lr:0.03132812678813934 +... +epoch[318], iter[102000], loss:34.135306, 431.06 imgs/sec, lr:9.63797629083274e-06 +epoch[319], iter[102100], loss:35.652469, 449.52 imgs/sec, lr:2.409552052995423e-06 +epoch[319], iter[102200], loss:34.652273, 384.02 imgs/sec, lr:2.409552052995423e-06 +epoch[319], iter[102300], loss:35.430038, 423.49 imgs/sec, lr:2.409552052995423e-06 +... +``` + +## 评估过程 + +### 评估 + +运行以下命令。如果在GPU上运行,请在python命令中添加`--device_target=GPU`,或者使用“_gpu”shell脚本(“xxx_gpu.sh”)。 + +```python +python eval.py \ + --data_dir=./dataset/coco2014 \ + --pretrained=yolov3.ckpt \ + --testing_shape=416 > log.txt 2>&1 & +``` + +或者 + +```shell script +sh run_eval.sh dataset/coco2014/ checkpoint/0-319_102400.ckpt +``` + +上述python命令将在后台运行,您可以通过log.txt文件查看结果。测试数据集的mAP如下: + +```text +# log.txt +=============coco eval reulst========= + Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.311 + Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.528 + Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.322 + Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.127 + Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.323 + Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.428 + Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.259 + Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.398 + Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.423 + Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.224 + Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.442 + Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.551 +``` + +# 模型描述 + +## 性能 + +### 评估性能 + +| 参数 | YOLO |YOLO | +| -------------------------- | ----------------------------------------------------------- |------------------------------------------------------------ | +| 模型版本 | YOLOv3 |YOLOv3 | +| 资源 | Ascend 910;CPU 2.60GHz,192核;内存:755G | NV SMX2 V100-16G;CPU 2.10GHz,96核;内存:251G | +| 上传日期 | 2020-06-31 | 2020-09-02 | +| MindSpore版本 | 0.5.0-alpha | 0.7.0 | +| 数据集 | COCO2014 | COCO2014 | +| 训练参数 | epoch=320,batch_size=32,lr=0.001,momentum=0.9 | epoch=320,batch_size=32,lr=0.001,momentum=0.9 | +| 优化器 | Momentum | Momentum | +| 损失函数 | 带logits的Sigmoid交叉熵 | 带logits的Sigmoid交叉熵 | +| 输出 | 边界框和标签 | 边界框和标签 | +| 损失 | 34 | 34 | +| 速度 | 1卡:350毫秒/步; | 1卡: 600毫秒/步; | +| 总时长 | 8卡:18.5小时 | 8卡: 18小时(shape=416) | +| 参数(M) | 62.1 | 62.1 | +| 微调检查点 | 474M (.ckpt文件) | 474M (.ckpt文件) | +| 脚本 | https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/yolov3_darknet53 | https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/yolov3_darknet53 | + +### 推理性能 + +| 参数 | YOLO |YOLO | +| ------------------- | --------------------------- |------------------------------| +| 模型版本 | YOLOv3 | YOLOv3 | +| 资源 | Ascend 910 | NV SMX2 V100-16G | +| 上传日期 | 2020-06-31 | 2020-08-20 | +| MindSpore版本 | 0.5.0-alpha | 0.7.0 | +| 数据集 | COCO2014,40504张图像 | COCO2014,40504张图像 | +| batch_size | 1 | 1 | +| 输出 | mAP | mAP | +| 准确性 | 8卡: 31.1% | 8卡: 29.7%~30.3% (shape=416)| +| 推理模型 | 474M (.ckpt文件) | 474M (.ckpt文件) | + +# 随机情况说明 + +在distributed_sampler.py、transforms.py、yolo_dataset.py文件中有随机种子。 + +# ModelZoo主页 + + 请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。 diff --git a/model_zoo/official/cv/yolov3_darknet53_quant/README_CN.md b/model_zoo/official/cv/yolov3_darknet53_quant/README_CN.md new file mode 100644 index 0000000000..4f1b1a140b --- /dev/null +++ b/model_zoo/official/cv/yolov3_darknet53_quant/README_CN.md @@ -0,0 +1,313 @@ +# 目录 + + + +- [目录](#目录) +- [YOLOv3-DarkNet53-Quant描述](#yolov3-darknet53-quant描述) +- [模型架构](#模型架构) +- [数据集](#数据集) +- [环境要求](#环境要求) +- [快速入门](#快速入门) +- [脚本说明](#脚本说明) + - [脚本及样例代码](#脚本及样例代码) + - [脚本参数](#脚本参数) + - [训练过程](#训练过程) + - [Ascend上训练](#ascend上训练) + - [分布式训练](#分布式训练) + - [评估过程](#评估过程) + - [Ascend评估](#ascend评估) +- [模型描述](#模型描述) + - [性能](#性能) + - [评估性能](#评估性能) + - [推理性能](#推理性能) +- [随机情况说明](#随机情况说明) +- [ModelZoo主页](#modelzoo主页) + + + +# YOLOv3-DarkNet53-Quant描述 + +You only look once(YOLO)是最先进的实时物体检测系统。YOLOv3非常快速和准确。 + +先前的检测系统重新利用分类器或定位器来执行检测,将模型应用于多个位置和尺度的图像。图像的高分区域被认为是检测。 + YOLOv3使用了完全不同的方法。该方法将单个神经网络应用于全图像,将图像划分为区域,并预测每个区域的边界框和概率。这些边界框由预测概率加权。 + +YOLOv3使用了一些技巧来改进训练,提高性能,包括多尺度预测、更好的主干分类器等等,详情见论文。 + +为了减小权重的大小,提高低位计算性能,采用了int8量化。 + +[论文](https://pjreddie.com/media/files/papers/YOLOv3.pdf): YOLOv3: An Incremental Improvement.Joseph Redmon, Ali Farhadi, University of Washington + +# 模型架构 + +YOLOv3使用DarkNet53执行特征提取,这是YOLOv2中的Darknet-19和残差网络的一种混合方法。DarkNet53使用连续的3×3和1×1卷积层,并且有一些快捷连接,而且DarkNet53明显更大,它有53层卷积层。 + +# 数据集 + +使用的数据集:[COCO 2014](https://cocodataset.org/#download) + +- 数据集大小:19G,123287张图片,80个物体类别 + - 训练集:13G,82783张图片 + - 验证集:6GM,40504张图片 + - 标注:241M,训练/验证标注 +- 数据格式:zip文件 + - 注:数据将在yolo_dataset.py中处理,并在使用前解压文件。 + +# 环境要求 + +- 硬件(Ascend处理器) + - 准备Ascend或GPU处理器搭建硬件环境。如需试用Ascend处理器,请发送[申请表](https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/file/other/Ascend%20Model%20Zoo%E4%BD%93%E9%AA%8C%E8%B5%84%E6%BA%90%E7%94%B3%E8%AF%B7%E8%A1%A8.docx)至ascend@huawei.com,审核通过即可获得资源。 +- 框架 + - [MindSpore](https://www.mindspore.cn/install/) +- 如需查看详情,请参见如下资源: + - [MindSpore教程](https://www.mindspore.cn/tutorial/training/zh-CN/master/index.html) + - [MindSpore Python API](https://www.mindspore.cn/doc/api_python/zh-CN/master/index.html) + +# 快速入门 + +通过官方网站安装MindSpore后,您可以按照如下步骤进行训练和评估: + +```python +# 下面的脚本中的yolov3_darknet53_noquin.ckpt是从yolov3-darknet53训练得到的。 +# resume_yolov3参数是必需的。 +# training_shape参数定义网络图像形状,默认为""。 +# 意思是使用10种形状作为输入形状,或者可以设置某种形状。 +# 通过python命令执行训练示例(1卡)。 +python train.py \ + --data_dir=./dataset/coco2014 \ + --resume_yolov3=yolov3_darknet53_noquant.ckpt \ + --is_distributed=0 \ + --per_batch_size=16 \ + --lr=0.012 \ + --T_max=135 \ + --max_epoch=135 \ + --warmup_epochs=5 \ + --lr_scheduler=cosine_annealing > log.txt 2>&1 & +``` + +```shell script +# shell脚本单机训练示例(1卡) +sh run_standalone_train.sh dataset/coco2014 yolov3_darknet53_noquant.ckpt +``` + +```shell script +# shell脚本分布式训练示例(8卡) +sh run_distribute_train.sh dataset/coco2014 yolov3_darknet53_noquant.ckpt rank_table_8p.json +``` + +```python +# 使用python命令评估 +python eval.py \ + --data_dir=./dataset/coco2014 \ + --pretrained=yolov3_quent.ckpt \ + --testing_shape=416 > log.txt 2>&1 & +``` + +```shell script +# 通过shell脚本运行评估 +sh run_eval.sh dataset/coco2014/ checkpoint/yolov3_quant.ckpt 0 +``` + +# 脚本说明 + +## 脚本及样例代码 + +```text +. +└─yolov3_darknet53_quant + ├─README.md + ├─mindspore_hub_conf.md # Mindspore Hub配置 + ├─scripts + ├─run_standalone_train.sh # 在Ascend中启动单机训练(1卡) + ├─run_distribute_train.sh # 在Ascend中启动分布式训练(8卡) + └─run_eval.sh # 在Ascend中启动评估 + ├─src + ├─__init__.py # python初始化文件 + ├─config.py # 参数配置 + ├─darknet.py # 网络骨干 + ├─distributed_sampler.py # 数据集迭代器 + ├─initializer.py # 参数初始化器 + ├─logger.py # 日志函数 + ├─loss.py # 损失函数 + ├─lr_scheduler.py # 生成学习率 + ├─transforms.py # 预处理数据 + ├─util.py # 工具函数 + ├─yolo.py # YOLOV3网络 + ├─yolo_dataset.py # 为YOLOV3创建数据集 + ├─eval.py # 评估网络 + └─train.py # 训练网络 +``` + +## 脚本参数 + +```text +train.py中主要参数如下: + +可选参数: + -h, --help 显示此帮助消息并退出。 + --data_dir DATA_DIR 训练数据集目录。默认设置:""。 + --per_batch_size PER_BATCH_SIZE + 每个设备的批次大小。默认设置:16。 + --resume_yolov3 RESUME_YOLOV3 + YOLOv3的ckpt文件,用于微调。默认设置:""。 + --lr_scheduler LR_SCHEDULER + 学习率调度器,选项:exponential,cosine_annealing。默认设置:exponential。 + --lr LR 学习率。默认设置:0.012。 + --lr_epochs LR_EPOCHS + lr changing轮次,用“,”分隔。默认设置:92, 105。 + --lr_gamma LR_GAMMA 降低lr的exponential lr_scheduler因子。默认设置:0.1。 + --eta_min ETA_MIN cosine_annealing调度器中的eta_min。默认设置:0。 + --T_max T_MAX cosine_annealing调度器中的T-max。默认设置:135。 + --max_epoch MAX_EPOCH + 训练模型的最大轮次数。默认设置:135。 + --warmup_epochs WARMUP_EPOCHS + 热身轮次。默认设置:0。 + --weight_decay WEIGHT_DECAY + 权重衰减因子。默认设置:0.0005。 + --momentum MOMENTUM 动量。默认设置:0.9。 + --loss_scale LOSS_SCALE + 静态损失等级。默认设置:1024。 + --label_smooth LABEL_SMOOTH + CE中是否使用标签平滑。默认设置:0。 + --label_smooth_factor LABEL_SMOOTH_FACTOR + 独热平滑强度。默认设置:0.1。 + --log_interval LOG_INTERVAL + 日志记录迭代间隙。默认设置:100。 + --ckpt_path CKPT_PATH + 检查点保存位置。默认设置:"outputs/"。 + --ckpt_interval CKPT_INTERVAL + 保存检查点间隔。默认设置:None。 + --is_save_on_master IS_SAVE_ON_MASTER + 在主进程序号或所有进程序号上保存ckpt。1为主进程序号, 0为所有进程序号。默认设置:1。 + --is_distributed IS_DISTRIBUTED + 是否分布训练,1表示是,0表示否。 默认设置:0。 + --rank RANK 分布式本地进程序号。默认设置:0。 + --group_size GROUP_SIZE + 设备进程总数。默认设置:1。 + --need_profiler NEED_PROFILER + 是否使用调优器。1表示是,0表示否。默认设置:0。 + --training_shape TRAINING_SHAPE + 固定训练形状。默认设置:""。 + --resize_rate RESIZE_RATE + 多尺度训练的调整率。默认设置:None。 +``` + +## 训练过程 + +### Ascend上训练 + +### 分布式训练 + +```shell script +sh run_distribute_train.sh dataset/coco2014 yolov3_darknet53_noquant.ckpt rank_table_8p.json +``` + +上述shell脚本将在后台运行分布训练。您可以通过`train_parallel[X]/log.txt`文件查看结果。损失值的实现如下: + +```text +# 分布式训练示例(8卡) +epoch[0], iter[0], loss:483.341675, 0.31 imgs/sec, lr:0.0 +epoch[0], iter[100], loss:55.690952, 3.46 imgs/sec, lr:0.0 +epoch[0], iter[200], loss:54.045728, 126.54 imgs/sec, lr:0.0 +epoch[0], iter[300], loss:48.771608, 133.04 imgs/sec, lr:0.0 +epoch[0], iter[400], loss:48.486769, 139.69 imgs/sec, lr:0.0 +epoch[0], iter[500], loss:48.649275, 143.29 imgs/sec, lr:0.0 +epoch[0], iter[600], loss:44.731309, 144.03 imgs/sec, lr:0.0 +epoch[1], iter[700], loss:43.037023, 136.08 imgs/sec, lr:0.0 +epoch[1], iter[800], loss:41.514788, 132.94 imgs/sec, lr:0.0 + +… +epoch[133], iter[85700], loss:33.326716, 136.14 imgs/sec, lr:6.497331924038008e-06 +epoch[133], iter[85800], loss:34.968744, 136.76 imgs/sec, lr:6.497331924038008e-06 +epoch[134], iter[85900], loss:35.868543, 137.08 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86000], loss:35.740817, 139.49 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86100], loss:34.600463, 141.47 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86200], loss:36.641916, 137.91 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86300], loss:32.819769, 138.17 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86400], loss:35.603033, 142.23 imgs/sec, lr:1.6245529650404933e-06 +epoch[134], iter[86500], loss:34.303755, 145.18 imgs/sec, lr:1.6245529650404933e-06 +``` + +## 评估过程 + +### Ascend评估 + +运行以下命令。 + +```python +python eval.py \ + --data_dir=./dataset/coco2014 \ + --pretrained=0-130_83330.ckpt \ + --testing_shape=416 > log.txt 2>&1 & +``` + +或者 + +```shell script +sh run_eval.sh dataset/coco2014/ checkpoint/0-130_83330.ckpt 0 +``` + +上述python命令将在后台运行,您可以通过log.txt文件查看结果。测试数据集的mAP如下: + +```text +# log.txt +=============coco eval reulst========= +Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.310 +Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.531 +Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.322 +Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.130 +Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.326 +Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.425 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.260 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.402 +Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.429 +Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.232 +Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.450 +Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.558 +``` + +# 模型描述 + +## 性能 + +### 评估性能 + +| 参数 | Ascend | +| -------------------------- | ---------------------------------------------------------------------------------------------- | +| 模型版本 | YOLOv3_Darknet53_Quant V1 | +| 资源 | Ascend 910; CPU 2.60GHz,192核; 内存:755G | +| 上传日期 | 2020-06-31 | +| MindSpore版本 | 0.6.0-alpha | +| 数据集 | COCO2014 | +| 训练参数 | epoch=135,batch_size=16,lr=0.012,momentum=0.9 | +| 优化器 | Momentum | +| 损失函数 | 带logits的Sigmoid交叉熵 | +| 输出 | 边界框和标签 | +| 损失 | 34 | +| 速度 | 1卡:135毫秒/步; | +| 总时长 | 8卡:23.5小时 | +| 参数 (M) | 62.1 | +| 微调检查点 | 474M (.ckpt文件) | +| 脚本 | https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/yolov3_darknet53_quant | + +### 推理性能 + +| 参数 | Ascend | +| ------------------- | --------------------------- | +| 模型版本 | YOLOv3_Darknet53_Quant V1 | +| 资源 | Ascend 910 | +| 上传日期 | 2020-06-31 | +| MindSpore版本 | 0.6.0-alpha | +| 数据集 | COCO2014,40,504张图片 | +| batch_size | 1 | +| 输出 | mAP | +| 准确率 | 8pcs:31.0% | +| 推理模型 | 474M (.ckpt文件) | + +# 随机情况说明 + +在distributed_sampler.py、transforms.py、yolo_dataset.py文件中有随机种子。 + +# ModelZoo主页 + +请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。 diff --git a/model_zoo/official/cv/yolov3_resnet18/README_CN.md b/model_zoo/official/cv/yolov3_resnet18/README_CN.md new file mode 100644 index 0000000000..991837dfc2 --- /dev/null +++ b/model_zoo/official/cv/yolov3_resnet18/README_CN.md @@ -0,0 +1,238 @@ +# 目录 + + + +- [目录](#目录) +- [YOLOv3_ResNet18描述](#yolov3_resnet18描述) +- [模型架构](#模型架构) +- [数据集](#数据集) +- [环境要求](#环境要求) +- [快速入门](#快速入门) +- [脚本说明](#脚本说明) + - [脚本及样例代码](#脚本及样例代码) + - [脚本参数](#脚本参数) + - [训练过程](#训练过程) + - [Ascend上训练](#ascend上训练) + - [评估过程](#评估过程) + - [Ascend评估](#ascend评估) +- [模型描述](#模型描述) + - [性能](#性能) + - [评估性能](#评估性能) + - [推理性能](#推理性能) +- [随机情况说明](#随机情况说明) +- [ModelZoo主页](#modelzoo主页) + + + +# YOLOv3_ResNet18描述 + +基于ResNet-18的YOLOv3网络,支持训练和评估。 + +[论文](https://arxiv.org/abs/1804.02767): Joseph Redmon, Ali Farhadi. arXiv preprint arXiv:1804.02767, 2018.2, 4, 7, 11. + +# 模型架构 + +YOLOv3整体网络架构如下: + +我们使用ResNet18作为YOLOv3_ResNet18的主干。ResNet18架构分为四个阶段。ResNet架构分别使用大小为7×7和3×3的内核执行初始卷积和最大池化。此后每个阶段的网络都有不同的残差模块(2, 2, 2, 2),包含两个3×3的卷积层。最后是一个平均池化层和一个全连接层。 + +# 数据集 + +使用的数据集:[COCO 2017]() + +- 数据集大小:19 GB + - 训练集:18 GB,118000张图片 + - 验证集:1GB,5000张图片 + - 标注:241 MB,包含实例,字幕,person_keypoints等 +- 数据格式:图片和json文件 + - 标注:数据在dataset.py中处理。 + +- 数据集 + + 1. 目录结构如下: + + ``` + . + ├── annotations # 标注jsons + ├── train2017 # 训练数据集 + └── val2017 # 推理数据集 + ``` + + 2. 将数据集信息整理成TXT文件,每行如下: + + ``` + train2017/0000001.jpg 0,259,401,459,7 35,28,324,201,2 0,30,59,80,2 + ``` + + 每行是按空间分割的图像标注,第一列是图像的相对路径,其余为[xmin,ymin,xmax,ymax,class]格式的框和类信息。`dataset.py`是解析脚本,我们从`image_dir`(数据集目录)和`anno_path`(TXT文件路径)的相对路径连接起来的图像路径中读取图像。`image_dir`和`anno_path`为外部输入。 + +# 环境要求 + +- 硬件(Ascend处理器) + - 准备Ascend处理器搭建硬件环境。如需试用Ascend处理器,请发送[申请表](https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/file/other/Ascend%20Model%20Zoo%E4%BD%93%E9%AA%8C%E8%B5%84%E6%BA%90%E7%94%B3%E8%AF%B7%E8%A1%A8.docx)至ascend@huawei.com,审核通过即可获得资源。 +- 框架 + - [MindSpore](https://www.mindspore.cn/install) +- 如需查看详情,请参见如下资源: + - [MindSpore教程](https://www.mindspore.cn/tutorial/training/zh-CN/master/index.html) + - [MindSpore Python API](https://www.mindspore.cn/doc/api_python/zh-CN/master/index.html) + +# 快速入门 + +通过官方网站安装MindSpore后,您可以按照如下步骤进行训练和评估: + +- Ascend处理器环境运行 + + ```shell script + # 运行单机训练示例 + sh run_standalone_train.sh [DEVICE_ID] [EPOCH_SIZE] [MINDRECORD_DIR] [IMAGE_DIR] [ANNO_PATH] + # 运行分布式训练示例 + sh run_distribute_train.sh [DEVICE_NUM] [EPOCH_SIZE] [MINDRECORD_DIR] [IMAGE_DIR] [ANNO_PATH] [RANK_TABLE_FILE] + # 运行评估示例 + sh run_eval.sh [DEVICE_ID] [CKPT_PATH] [MINDRECORD_DIR] [IMAGE_DIR] [ANNO_PATH] + ``` + +# 脚本说明 + +## 脚本及样例代码 + +```text +└── cv + ├── README.md // 所有模型相关说明 + ├── mindspore_hub_conf.md // Mindspore Hub配置 + └── yolov3_resnet18 + ├── README.md // yolov3_resnet18相关说明 + ├── scripts + ├── run_distribute_train.sh // Ascend上分布式shell脚本 + ├── run_standalone_train.sh // Ascend上分布式shell脚本 + └── run_eval.sh // Ascend上评估的shell脚本 + ├── src + ├── dataset.py // 创建数据集 + ├── yolov3.py // yolov3架构 + ├── config.py // 参数配置 + └── utils.py // 工具函数 + ├── train.py // 训练脚本 + └── eval.py // 评估脚本 +``` + +## 脚本参数 + + ```text + train.py和config.py中主要参数如下: + + device_num: 使用设备编号,默认为1。 + lr: 学习率,默认为0.001。 + epoch_size: 轮次大小,默认为50。 + batch_size: 批次大小,默认为32。 + pre_trained: 预训练的检查点文件路径。 + pre_trained_epoch_size: 预训练的轮次大小。 + mindrecord_dir: Mindrecord目录。 + image_dir: 数据集路径。 + anno_path: 标注路径。 + + img_shape: 输入到模型的图像高度和宽度。 + ``` + +## 训练过程 + +### Ascend上训练 + +训练模型运行`train.py`,使用数据集`image_dir`、`anno_path`和`mindrecord_dir`。如果`mindrecord_dir`为空,则通过`image_dir`和`anno_path`(图像绝对路径由`image_dir`和`anno_path`中的相对路径连接)生成[MindRecord](https://www.mindspore.cn/tutorial/training/zh-CN/master/advanced_use/convert_dataset.html)文件。**注意,如果`mindrecord_dir`不为空,将使用`mindrecord_dir`而不是`image_dir`和`anno_path`。** + +- 单机模式 + + ```shell script + sh run_standalone_train.sh 0 50 ./Mindrecord_train ./dataset ./dataset/train.txt + ``` + + 输入变量为设备编号、轮次大小、MindRecord目录路径、数据集目录路径、训练TXT文件路径。 + +- 分布式模式 + + ```shell script + sh run_distribute_train.sh 8 150 /data/Mindrecord_train /data /data/train.txt /data/hccl.json + ``` + + 输入变量为设备编号、轮次大小、MindRecord目录路径、数据集目录路径、训练TXT文件路径和[hccl_tools配置文件](https://gitee.com/mindspore/mindspore/tree/master/model_zoo/utils/hccl_tools)。**最好使用绝对路径。** + +每步的损失值和时间如下: + + ```text + epoch:145 step:156, loss is 12.202981 + epoch time:25599.22742843628, per step time:164.0976117207454 + epoch:146 step:156, loss is 16.91706 + epoch time:23199.971675872803, per step time:148.7177671530308 + epoch:147 step:156, loss is 13.04007 + epoch time:23801.95164680481, per step time:152.57661312054364 + epoch:148 step:156, loss is 10.431475 + epoch time:23634.241580963135, per step time:151.50154859591754 + epoch:149 step:156, loss is 14.665991 + epoch time:24118.8325881958, per step time:154.60790120638333 + epoch:150 step:156, loss is 10.779521 + epoch time:25319.57221031189, per step time:162.30495006610187 + ``` + +注意结果为两类(人与脸),使用了我们自己的标注与COCO 2017,您可以更改`config.py`中的`num_classes`来训练您的数据集。我们将在COCO 2017中支持80个分类。 + +## 评估过程 + +### Ascend评估 + +运行`eval.py`,数据集为`image_dir`、`anno_path`(评估TXT)、`mindrecord_dir`和`ckpt_path`。`ckpt_path`是[检查点](https://www.mindspore.cn/tutorial/training/zh-CN/master/use/save_model.html)文件的路径。 + + ```shell script + sh run_eval.sh 0 yolo.ckpt ./Mindrecord_eval ./dataset ./dataset/eval.txt + ``` + +输入变量为设备编号、检查点路径、MindRecord目录路径、数据集目录路径、训练TXT文件路径。 + +您将获得每类的精度和召回值: + + ```text + class 0 precision is 88.18%, recall is 66.00% + class 1 precision is 85.34%, recall is 79.13% + ``` + +注意精度和召回值是使用我们自己的标注和COCO 2017的两种分类(人与脸)的结果。 + +# 模型描述 + +## 性能 + +### 评估性能 + +| 参数 | Ascend | +| -------------------------- | ----------------------------------------------------------- | +| 模型版本 | YOLOv3_Resnet18 V1 | +| 资源 | Ascend 910 ;CPU 2.60GHz,192核;内存:755G | +| 上传日期 | 2020-06-01 | +| MindSpore版本 | 0.2.0-alpha | +| 数据集 | COCO2017 | +| 训练参数 | epoch = 150, batch_size = 32, lr = 0.001 | +| 优化器 | Adam | +| 损失函数 | Sigmoid交叉熵 | +| 输出 | 概率 | +| 速度 | 1pc:120毫秒/步; 8卡:160毫秒/步 | +| 总时长 | 1pc:150分钟; 8卡: 70分钟 | +| 参数(M) | 189 | +| 脚本 | [yolov3_resnet18脚本](https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/yolov3_resnet18) | [yolov3_resnet18脚本](https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/yolov3_resnet18) | + +### 推理性能 + +| 参数 | Ascend | +| ------------------- | ----------------------------------------------- | +| 模型版本 | YOLOv3_Resnet18 V1 | +| 资源 | Ascend 910 | +| 上传日期 | 2020-06-01 | +| MindSpore版本 | 0.2.0-alpha | +| 数据集 | COCO2017 | +| batch_size | 1 | +| 输出 | 精度和召回 | +| 准确性 | class 0: 88.18%/66.00%; class 1: 85.34%/79.13% | + +# 随机情况说明 + +在dataset.py中,我们设置了“create_dataset”函数内的种子。同时还使用了train.py中的随机种子。 + +# ModelZoo主页 + + 请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。