# Unet
<!-- TOC -->
- [Unet ](#unet )
- [U-Net说明 ](#u-net说明 )
- [模型架构 ](#模型架构 )
- [数据集 ](#数据集 )
- [环境要求 ](#环境要求 )
- [快速入门 ](#快速入门 )
- [脚本说明 ](#脚本说明 )
- [脚本及样例代码 ](#脚本及样例代码 )
- [脚本参数 ](#脚本参数 )
- [训练过程 ](#训练过程 )
- [用法 ](#用法 )
- [分布式训练 ](#分布式训练 )
- [评估过程 ](#评估过程 )
- [评估 ](#评估 )
- [模型描述 ](#模型描述 )
- [性能 ](#性能 )
- [评估性能 ](#评估性能 )
- [用法 ](#用法-1 )
- [推理 ](#推理 )
- [Ascend 310环境运行 ](#ascend-310环境运行 )
- [继续训练预训练模型 ](#继续训练预训练模型 )
- [迁移学习 ](#迁移学习 )
- [随机情况说明 ](#随机情况说明 )
- [ModelZoo主页 ](#modelzoo主页 )
<!-- /TOC -->
## U-Net说明
U-Net医学模型基于二维图像分割。实现方式见论文[UNet: Convolutional Networks for Biomedical Image Segmentation](https://arxiv.org/abs/1505.04597)。在2015年ISBI细胞跟踪竞赛中, U-Net获得了许多最佳奖项。论文中提出了一种用于医学图像分割的网络模型和数据增强方法, 有效利用标注数据来解决医学领域标注数据不足的问题。U型网络结构也用于提取上下文和位置信息。
UNet++是U-Net的增强版本, 使用了新的跨层链接方式和深层监督, 可以用于语义分割和实例分割。
[U-Net 论文 ](https://arxiv.org/abs/1505.04597 ): Olaf Ronneberger, Philipp Fischer, Thomas Brox. "U-Net: Convolutional Networks for Biomedical Image Segmentation." *conditionally accepted at MICCAI 2015* . 2015.
[UNet++ 论文 ](https://arxiv.org/abs/1912.05074 ): Z. Zhou, M. M. R. Siddiquee, N. Tajbakhsh and J. Liang, "UNet++: Redesigning Skip Connections to Exploit Multiscale Features in Image Segmentation," in IEEE Transactions on Medical Imaging, vol. 39, no. 6, pp. 1856-1867, June 2020, doi: 10.1109/TMI.2019.2959609.
## 模型架构
具体而言, U-Net的U型网络结构可以更好地提取和融合高层特征, 获得上下文信息和空间位置信息。U型网络结构由编码器和解码器组成。编码器由两个3x3卷积和一个2x2最大池化迭代组成。每次下采样后通道数翻倍。解码器由2x2反卷积、拼接层和2个3x3卷积组成, 经过1x1卷积后输出。
## 数据集
使用的数据集: [ISBI Challenge ](http://brainiac2.mit.edu/isbi_challenge/home )
- 说明: 训练和测试数据集为两组30节果蝇一龄幼虫腹神经索( VNC) 的连续透射电子显微镜( ssTEM) 数据集。微立方体的尺寸约为2 x 2 x 1.5微米, 分辨率为4x4x50纳米/像素。
- 许可证: 您可以免费使用这个数据集来生成或测试非商业图像分割软件。若科学出版物使用此数据集, 则必须引用TrakEM2和以下出版物: Cardona A, Saalfeld S, Preibisch S, Schmid B, Cheng A, Pulokas J, Tomancak P, Hartenstein V. 2010. An Integrated Micro- and Macroarchitectural Analysis of the Drosophila Brain by Computer-Assisted Serial Section Electron Microscopy. PLoS Biol 8(10): e1000502. doi:10.1371/journal.pbio.1000502.
- 数据集大小: 22.5 MB
- 训练集: 15 MB, 30张图像( 训练数据包含2个多页TIF文件, 每个文件包含30张2D图像。train-volume.tif和train-labels.tif分别包含数据和标签。)
- 验证集: ( 我们随机将训练数据分成5份, 通过5折交叉验证来评估模型。)
- 测试集: 7.5 MB, 30张图像( 测试数据包含1个多页TIF文件, 文件包含30张2D图像。test-volume.tif包含数据。)
- 数据格式: 二进制文件( TIF)
- 注意: 数据在src/data_loader.py中处理
我们也支持一个在 [Unet++ ](https://arxiv.org/abs/1912.05074 ) 原论文中使用的数据集 `Cell_nuclei` 。可以通过修改`src/config.py`中`'dataset': 'Cell_nuclei'`配置使用.
## 环境要求
- 硬件( Ascend)
- 准备Ascend处理器搭建硬件环境。如需试用昇腾处理器, 请发送[申请表](https://obs-9be7.obs.cn-east-2.myhuaweicloud.com/file/other/Ascend%20Model%20Zoo%E4%BD%93%E9%AA%8C%E8%B5%84%E6%BA%90%E7%94%B3%E8%AF%B7%E8%A1%A8.docx)至ascend@huawei.com, 审核通过即可获得资源。
- 框架
- [MindSpore ](https://www.mindspore.cn/install )
- 如需查看详情,请参见如下资源:
- [MindSpore教程 ](https://www.mindspore.cn/tutorial/training/zh-CN/master/index.html )
- [MindSpore Python API ](https://www.mindspore.cn/doc/api_python/zh-CN/master/index.html )
## 快速入门
通过官方网站安装MindSpore后, 您可以按照如下步骤进行训练和评估:
- 选择模型及数据集
我们在`src/config.py`预备了一些网络及数据集的参数配置用于快速体验。也可以通过设置`'model'` 为 `'unet_medical'` ,`'unet_nested'` 或者 `'unet_simple'` 来选择使用什么网络结构。我们支持`ISBI` 和 `Cell_nuclei` 两种数据集处理,默认使用`ISBI`,可以设置`'dataset'` 为 `'Cell_nuclei'` 使用`Cell_nuclei`数据集。
- Ascend处理器环境运行
```python
# 训练示例
python train.py --data_url=/path/to/data/ > train.log 2>& 1 &
OR
bash scripts/run_standalone_train.sh [DATASET]
# 分布式训练示例
bash scripts/run_distribute_train.sh [RANK_TABLE_FILE] [DATASET]
# 评估示例
python eval.py --data_url=/path/to/data/ --ckpt_path=/path/to/checkpoint/ > eval.log 2>& 1 &
OR
bash scripts/run_standalone_eval.sh [DATASET] [CHECKPOINT]
```
- Docker中运行
创建docker镜像(讲版本号换成你实际使用的版本)
```shell
# build docker
docker build -t unet:20.1.0 . --build-arg FROM_IMAGE_NAME=ascend-mindspore-arm:20.1.0
```
使用创建好的镜像启动一个容器。
```shell
# start docker
bash scripts/docker_start.sh unet:20.1.0 [DATA_DIR] [MODEL_DIR]
```
然后在容器里的操作就和Ascend平台上是一样的。
## 脚本说明
### 脚本及样例代码
```path
├── model_zoo
├── README.md // 模型描述
├── unet
├── README.md // Unet描述
├── ascend310_infer // Ascend 310 推理代码
├── scripts
│ ├──docker_start.sh // docker 脚本
│ ├──run_disribute_train.sh // Ascend 上分布式训练脚本
│ ├──run_infer_310.sh // Ascend 310 推理脚本
│ ├──run_standalone_train.sh // Ascend 上单卡训练脚本
│ ├──run_standalone_eval.sh // Ascend 上推理脚本
├── src
│ ├──config.py // 参数配置
│ ├──data_loader.py // 数据处理
│ ├──loss.py // 损失函数
│ ├──utils.py // 通用组件(回调函数)
│ ├──unet_medical // 医学图像处理Unet结构
├──__init__.py
├──unet_model.py // Unet 网络结构
├──unet_parts.py // Unet 子网
│ ├──unet_nested // Unet++
├──__init__.py
├──unet_model.py // Unet++ 网络结构
├──unet_parts.py // Unet++ 子网
├── train.py // 训练脚本
├── eval.py // 推理脚本
├── export.py // 导出脚本
├── mindspore_hub_conf.py // hub 配置脚本
├── postprocess.py // 310 推理后处理脚本
├── preprocess.py // 310 推理前处理脚本
```
### 脚本参数
在config.py中可以同时配置训练参数和评估参数。
- U-Net配置, ISBI数据集
```python
'name': 'Unet', # 模型名称
'lr': 0.0001, # 学习率
'epochs': 400, # 运行1p时的总训练轮次
'distribute_epochs': 1600, # 运行8p时的总训练轮次
'batchsize': 16, # 训练批次大小
'cross_valid_ind': 1, # 交叉验证指标
'num_classes': 2, # 数据集类数
'num_channels': 1, # 通道数
'keep_checkpoint_max': 10, # 保留checkpoint检查个数
'weight_decay': 0.0005, # 权重衰减值
'loss_scale': 1024.0, # 损失放大
'FixedLossScaleManager': 1024.0, # 固定损失放大
'resume': False, # 是否使用预训练模型训练
'resume_ckpt': './', # 预训练模型路径
```
- Unet++配置, cell nuclei数据集
```python
'model': 'unet_nested', # 模型名称
'dataset': 'Cell_nuclei', # 数据集名称
'img_size': [96, 96], # 输入图像大小
'lr': 3e-4, # 学习率
'epochs': 200, # 运行1p时的总训练轮次
'distribute_epochs': 1600, # 运行8p时的总训练轮次
'batchsize': 16, # 训练批次大小
'num_classes': 2, # 数据集类数
'num_channels': 3, # 输入图像通道数
'keep_checkpoint_max': 10, # 保留checkpoint检查个数
'weight_decay': 0.0005, # 权重衰减值
'loss_scale': 1024.0, # 损失放大
'FixedLossScaleManager': 1024.0, # 损失放大
'use_bn': True, # 是否使用BN
'use_ds': True, # 是否使用深层监督
'use_deconv': True, # 是否使用反卷积
'resume': False, # 是否使用预训练模型训练
'resume_ckpt': './', # 预训练模型路径
'transfer_training': False # 是否使用迁移学习
'filter_weight': ['final1.weight', 'final2.weight', 'final3.weight', 'final4.weight'] # 迁移学习过滤参数名
```
## 训练过程
### 用法
- Ascend处理器环境运行
```shell
python train.py --data_url=/path/to/data/ > train.log 2>& 1 &
OR
bash scripts/run_standalone_train.sh [DATASET]
```
上述python命令在后台运行, 可通过`train.log`文件查看结果。
训练结束后,您可以在默认脚本文件夹中找到检查点文件。损失值如下:
```shell
# grep "loss is " train.log
step: 1, loss is 0.7011719, fps is 0.25025035060906264
step: 2, loss is 0.69433594, fps is 56.77693756377044
step: 3, loss is 0.69189453, fps is 57.3293877244179
step: 4, loss is 0.6894531, fps is 57.840651522059716
step: 5, loss is 0.6850586, fps is 57.89903776054361
step: 6, loss is 0.6777344, fps is 58.08073627299014
...
step: 597, loss is 0.19030762, fps is 58.28088370287449
step: 598, loss is 0.19958496, fps is 57.95493929352674
step: 599, loss is 0.18371582, fps is 58.04039977720966
step: 600, loss is 0.22070312, fps is 56.99692546024671
```
模型检查点储存在当前路径中。
### 分布式训练
```shell
bash scripts/run_distribute_train.sh [RANK_TABLE_FILE] [DATASET]
```
上述shell脚本在后台运行分布式训练。可通过`logs/device[X]/log.log`文件查看结果。损失值如下:
```shell
# grep "loss is" logs/device0/log.log
step: 1, loss is 0.70524895, fps is 0.15914689861221412
step: 2, loss is 0.6925452, fps is 56.43668656967454
...
step: 299, loss is 0.20551169, fps is 58.4039329983891
step: 300, loss is 0.18949677, fps is 57.63118508760329
```
## 评估过程
### 评估
- Ascend处理器环境运行评估ISBI数据集
在运行以下命令之前,请检查用于评估的检查点路径。将检查点路径设置为绝对全路径,如"username/unet/ckpt_unet_medical_adam-48_600.ckpt"。
```shell
python eval.py --data_url=/path/to/data/ --ckpt_path=/path/to/checkpoint/ > eval.log 2>& 1 &
OR
bash scripts/run_standalone_eval.sh [DATASET] [CHECKPOINT]
```
上述python命令在后台运行。可通过"eval.log"文件查看结果。测试数据集的准确率如下:
```shell
# grep "Cross valid dice coeff is:" eval.log
============== Cross valid dice coeff is: {'dice_coeff': 0.9085704886070473}
```
## 模型描述
### 性能
#### 评估性能
| 参数 | Ascend |
| -------------------------- | ------------------------------------------------------------ |
| 模型版本 | U-Net |
| 资源 | Ascend 910; CPU: 2.60GHz, 192核; 内存: 755 GB |
| 上传日期 | 2020-9-15 |
| MindSpore版本 | 1.0.0 |
| 数据集 | ISBI |
| 训练参数 | 1pc: epoch=400, total steps=600, batch_size = 16, lr=0.0001 |
| | 8pc: epoch=1600, total steps=300, batch_size = 16, lr=0.0001 |
| 优化器 | ADAM |
| 损失函数 | Softmax交叉熵 |
| 输出 | 概率 |
| 损失 | 0.22070312 |
| 速度 | 1卡: 267毫秒/步; 8卡: 280毫秒/步 |
| 总时长 | 1卡: 2.67分钟; 8卡: 1.40分钟 |
| 参数(M) | 93M |
| 微调检查点 | 355.11M (.ckpt文件) |
| 脚本 | [U-Net脚本 ](https://gitee.com/mindspore/mindspore/tree/master/model_zoo/official/cv/unet ) |
### 用法
#### 推理
如果您需要使用训练好的模型在Ascend 910、Ascend 310等多个硬件平台上进行推理上进行推理, 可参考此[链接](https://www.mindspore.cn/tutorial/training/zh-CN/master/advanced_use/migrate_3rd_scripts.html)。下面是一个简单的操作步骤示例:
##### Ascend 310环境运行
导出mindir模型
```shell
python export.py --ckpt_file [CKPT_PATH] --file_name [FILE_NAME] --file_format [FILE_FORMAT]
```
参数`ckpt_file` 是必需的,`EXPORT_FORMAT` 必须在 ["AIR", "MINDIR"]中进行选择。
在执行推理前, MINDIR文件必须在910上通过export.py文件导出。
目前仅可处理batch_Size为1。
```shell
# Ascend310 推理
bash run_infer_310.sh [MINDIR_PATH] [DATA_PATH] [DEVICE_ID]
```
`DEVICE_ID` 可选,默认值为 0。
推理结果保存在当前路径, 可在acc.log中看到最终精度结果。
```text
Cross valid dice coeff is: 0.9054352151297033
```
#### 继续训练预训练模型
在`config.py`里将`resume`设置成True, 并将`resume_ckpt`设置成对应的权重文件路径,例如:
```python
'resume': True,
'resume_ckpt': 'ckpt_0/ckpt_unet_medical_adam_1-1_600.ckpt',
'transfer_training': False,
'filter_weight': ["final.weight"]
```
#### 迁移学习
首先像上面讲的那样讲继续训练的权重加载进来。然后将`transfer_training`设置成True。配置中还有一个 `filter_weight` 参数,用于将一些不能适用于不同数据集的权重过滤掉。通常这个`filter_weight`的参数不需要修改,其默认值通常是和模型的分类数相关的参数。例如:
```python
'resume': True,
'resume_ckpt': 'ckpt_0/ckpt_unet_medical_adam_1-1_600.ckpt',
'transfer_training': True,
'filter_weight': ["final.weight"]
```
## 随机情况说明
dataset.py中设置了“seet_sed”函数内的种子, 同时还使用了train.py中的随机种子。
## ModelZoo主页
请浏览官网[主页](https://gitee.com/mindspore/mindspore/tree/master/model_zoo)。