A model compression and deploy lib.
Project description
micronet
"目前在深度学习领域分类两个派别,一派为学院派,研究强大、复杂的模型网络和实验方法,为了追求更高的性能;另一派为工程派,旨在将算法更稳定、高效的落地在硬件平台上,效率是其追求的目标。复杂的模型固然具有更好的性能,但是高额的存储空间、计算资源消耗是使其难以有效的应用在各硬件平台上的重要原因。所以,深度神经网络日益增长的规模为深度学习在移动端的部署带来了巨大的挑战,深度学习模型压缩与部署成为了学术界和工业界都重点关注的研究领域之一"
项目简介
micronet, a model compression and deploy lib.
压缩
- 量化:QAT, High-Bit(>2b)、Low-Bit(≤2b)/Ternary and Binary; PTQ, 8-bit(tensorrt)
- 剪枝:正常、规整、分组卷积结构剪枝
- 针对特征(A)二值量化的BN融合
- High-Bit量化的BN融合
部署
- TensorRT
目前提供
- 普通卷积和分组卷积结构
- 权重W和特征A的训练中/后量化。训练中量化,W(32/16/8/4/2-bit, 三/二值) 和 A(32/16/8/4/2-bit, 二值)任意组合;训练后量化,采用tensorrt,支持8-bit
- 针对三/二值的一些tricks:W二值/三值缩放因子,W/grad(ste、saturate_ste、soft_ste)截断,A二值时采用B-A-C-P可比C-B-A-P获得更高acc等
- 多种剪枝方式:正常、规整(比如model可剪枝为每层剩余filter个数为N(8,16等)的倍数)、分组卷积结构(剪枝后仍保证分组卷积结构)的通道剪枝
- batch normalization融合及融合前后model对比测试:非量化普通BN融合(训练后,BN层参数 —> conv的权重w和偏置b)、针对特征(A)二值量化的BN融合(训练量化后,BN层参数 —> conv的偏置b)、High-Bit量化的BN融合(训练量化中,先融合再量化)
- tensorrt:fp32/fp16/int8(ptq-calibration)、op-adapt(upsample)、dynamic_shape等
代码结构
micronet
├── README.md
├── compression
│ ├── README.md
│ ├── pruning
│ │ ├── README.md
│ │ ├── gc_prune.py
│ │ ├── main.py
│ │ ├── models
│ │ │ ├── __init__.py
│ │ │ ├── nin.py
│ │ │ └── nin_gc.py
│ │ ├── models_save
│ │ │ └── models_save.txt
│ │ └── normal_regular_prune.py
│ └── quantization
│ ├── README.md
│ ├── wbwtab
│ │ ├── bn_fuse
│ │ │ ├── bn_fuse.py
│ │ │ ├── bn_fused_model_test.py
│ │ │ ├── models_save
│ │ │ │ └── models_save.txt
│ │ │ ├── nin_gc_inference.py
│ │ │ └── nin_gc_training.py
│ │ ├── main.py
│ │ ├── models
│ │ │ ├── __init__.py
│ │ │ ├── nin.py
│ │ │ ├── nin_bn_conv.py
│ │ │ └── nin_gc.py
│ │ ├── models_save
│ │ │ └── models_save.txt
│ │ └── util_wbwtab.py
│ └── wqaq
│ ├── iao
│ │ ├── main.py
│ │ ├── models
│ │ │ ├── __init__.py
│ │ │ ├── nin.py
│ │ │ └── nin_gc.py
│ │ ├── models_save
│ │ │ └── models_save.txt
│ │ └── util_wqaq.py
│ └── dorefa
│ ├── main.py
│ ├── models
│ │ ├── __init__.py
│ │ ├── nin.py
│ │ └── nin_gc.py
│ ├── models_save
│ │ └── models_save.txt
│ └── util_wqaq.py
├── data
│ └── data.txt
├── deploy
│ ├── README.md
│ └── tensorrt
│ ├── README.md
│ ├── calibrator.py
│ ├── eval_trt.py
│ ├── models
│ │ └── models_trt.py
│ ├── models_save
│ │ └── calibration_seg.cache
│ ├── test_trt.py
│ └── util_trt.py
└── readme_imgs
├── code_structure.jpg
└── micronet.xmind
项目进展
- 2019.12.4, 初次提交
- 12.8, DoReFa特征(A)量化前先进行缩放(* 0.1),然后再截断,以减小截断误差
- 12.11, 增加项目代码结构图
- 12.12, 完善使用示例
- 12.14, 增加:1、BN融合量化情况(W三值/二值)可选,即训练量化时选择W三/二值,这里则对应选择; 2、BN融合时对卷积核(conv)不带偏置(bias)的处理
- 12.17, 增加模型压缩前后数据对比(示例)
- 12.20, 增加设备可选(cpu、gpu(单卡、多卡))
- 12.27, 补充相关论文
- 12.29, 取消High-Bit量化8-bit以内的限制,即现在可以量化至10-bit、16-bit等
- 2020.2.17, 1、精简W三值/二值量化代码; 2、加速W三值量化训练
- 2.18, 优化针对特征(A)二值的BN融合:去除对BN层gamma参数的限制,即现在此情况下融合时BN可正常训练
- 2.24, 再次优化三/二值量化代码组织结构,增强可移植性,旧版确实不太好移植。目前移植方法:将想要量化的Conv用compression/quantization/wbwtab/models/util_wbwtab.py中的QuantConv2d替换即可,可参照该路径下nin_gc.py中的使用方法
- 3.1, 新增:1、google的High-Bit量化方法; 2、训练中High-Bit量化的BN融合
- 3.2、3.3, 规整量化代码整体结构,目前所有量化方法都可采取类似的移植方式:将想要量化的Conv(或FC,目前dorefa支持,其他方法类似可写)用models/util_wxax.py中的QuantConv2d(或QuantLinear)替换即可,可分别参照该路径下nin_gc.py中的使用方法进行移植(分类、检测、分割等均适用,但需要据实际情况具体调试)
- 3.4, 规整优化wbwtab/bn_fuse中“针对特征(A)二值的BN融合”的相关实现代码,可进行BN融合及融合前后模型对比测试(精度/速度/(大小))
- 3.11, 调整compression/wqaq/iao中的BN层momentum参数(0.1 —> 0.01),削弱batch统计参数占比,一定程度抑制量化带来的抖动。经实验,量化训练更稳定,acc提升1%左右
- 3.13, 更新代码结构图
- 4.6, 修正二值量化训练中W_clip的相关问题(之前由于这个,导致二值量化训练精度上不去,现在已可正常使用)(同时修正无法找到一些模块如models/util_wxax.py的问题)
- 12.14, 1、improve code structure; 2、add deploy-tensorrt(main module, but not running yet)
- 12.18, 1、improve code structure/module reference/module_name; 2、add transfer-use demo
- 12.21, improve pruning-quantization pipeline and code
- 2021.1.4, add other quant_op
- 1.5, add quant_weight's per-channel and per-layer selection
- 1.7, fix iao's loss-nan bug. The bug is due to per-channel min/max error
- 1.8, 1、improve quant_para save. Now, only save scale and zero_point; 2、add optional weight_observer(MinMaxObserver or MovingAverageMinMaxObserver)
- 1.11, fix bug in binary_a(1/0) and binary_w preprocessing
- 1.12, add "pip install"
环境要求
- python >= 3.5
- torch >= 1.1.0
- torchvison >= 0.3.0
- numpy
- onnx == 1.6.0
- tensorrt == 7.0.0.11
安装
pip install micronet
git clone https://github.com/666DZY666/micronet.git
cd micronet
python setup.py install
验证
python -c "import micronet; print(micronet.__version__)"
测试
Install from github
压缩
量化
W(FP32/三/二值)、A(FP32/二值)
--W --A, 权重W和特征A量化取值
cd micronet/compression/quantization/wbwtab
- WbAb
python main.py --W 2 --A 2
- WbA32
python main.py --W 2 --A 32
- WtAb
python main.py --W 3 --A 2
- WtA32
python main.py --W 3 --A 32
W(FP32/16/8/4/2-bit)、A(FP32/16/8/4/2-bit)
--w_bits --a_bits, 权重W和特征A量化位数
dorefa
cd micronet/compression/quantization/wqaq/dorefa
- W16A16
python main.py --w_bits 16 --a_bits 16
- W8A8
python main.py --w_bits 8 --a_bits 8
- W4A4
python main.py --w_bits 4 --a_bits 4
- 其他bits情况类比
iao
cd micronet/compression/quantization/wqaq/iao
量化位数选择同dorefa
--q_type, 量化类型(0-对称, 1-非对称); --q_level, 权重量化级别(0-通道级, 1-层级); --bn_fuse, 量化中bn融合标志(0-不融合, 1-融合); --weight_observer, weight_observer选择(0-MinMaxObserver, 1-MovingAverageMinMaxObserver)
- (默认)对称、(权重)通道级量化, bn不融合, weight_observer-MinMaxObserver
python main.py --q_type 0 --q_level 0 --bn_fuse 0 --weight_observer 0 --gpu_id 0
- 对称、(权重)通道级量化, bn不融合, weight_observer-MovingAverageMinMaxObserver
python main.py --q_type 0 --q_level 0 --bn_fuse 0 --weight_observer 1 --gpu_id 0
- 对称、(权重)层级量化, bn不融合
python main.py --q_type 0 --q_level 1 --bn_fuse 0 --gpu_id 0
- 非对称、(权重)通道级量化, bn不融合
python main.py --q_type 1 --q_level 0 --bn_fuse 0 --gpu_id 0
- 非对称、(权重)层级量化, bn不融合
python main.py --q_type 1 --q_level 1 --bn_fuse 0 --gpu_id 0
- 对称、(权重)通道级量化, bn融合
python main.py --q_type 0 --q_level 0 --bn_fuse 1 --gpu_id 0
- 对称、(权重)层级量化, bn融合
python main.py --q_type 0 --q_level 1 --bn_fuse 1 --gpu_id 0
- 非对称、(权重)通道级量化, bn融合
python main.py --q_type 1 --q_level 0 --bn_fuse 1 --gpu_id 0
- 非对称、(权重)层级量化, bn融合
python main.py --q_type 1 --q_level 1 --bn_fuse 1 --gpu_id 0
剪枝
稀疏训练 —> 剪枝 —> 微调
cd micronet/compression/pruning
可选: --quant_type 后续量化类型选择(0-三/二值, 1-高位), 默认为0
稀疏训练
-sr 稀疏标志, --s 稀疏率(需根据dataset、model情况具体调整), --model_type 模型类型(0-nin, 1-nin_gc)
- nin(正常卷积结构)
python main.py -sr --s 0.0001 --model_type 0
- nin_gc(含分组卷积结构)
python main.py -sr --s 0.001 --model_type 1
剪枝
--percent 剪枝率, --normal_regular 正常、规整剪枝标志及规整剪枝基数(如设置为N,则剪枝后模型每层filter个数即为N的倍数), --model 稀疏训练后的model路径, --save 剪枝后保存的model路径(路径默认已给出, 可据实际情况更改)
- 正常剪枝(nin)
python normal_regular_prune.py --percent 0.5 --model models_save/nin_sparse.pth --save models_save/nin_prune.pth
- 规整剪枝(nin)
python normal_regular_prune.py --percent 0.5 --normal_regular 8 --model models_save/nin_sparse.pth --save models_save/nin_prune.pth
或
python normal_regular_prune.py --percent 0.5 --normal_regular 16 --model models_save/nin_sparse.pth --save models_save/nin_prune.pth
- 分组卷积结构剪枝(nin_gc)
python gc_prune.py --percent 0.4 --model models_save/nin_gc_sparse.pth
微调
--refine 剪枝后的model路径(在其基础上做微调)
- nin
python main.py --model_type 0 --refine models_save/nin_prune.pth
- nin_gc
需要传入剪枝后得到的新模型的cfg
如
python main.py --model_type 1 --gc_refine 154 162 144 304 320 320 608 584
剪枝 —> 量化(注意剪枝率和量化率平衡)
剪枝完成后,加载保存的模型参数在其基础上再做量化
剪枝 —> 量化(16/8/4/2-bit)(剪枝率偏大、量化率偏小)
对应剪枝中 --quant_type 1
cd micronet/compression/quantization/wqaq/dorefa
或
cd micronet/compression/quantization/wqaq/iao
--gpu_id 0
W8A8
- nin(正常卷积结构)
python main.py --w_bits 8 --a_bits 8 --model_type 0 --refine ../../../pruning/models_save/nin_finetune.pth
- nin_gc(含分组卷积结构)
python main.py --w_bits 8 --a_bits 8 --model_type 1 --refine ../../../pruning/models_save/nin_gc_retrain.pth
其他可选量化配置类比
剪枝 —> 量化(三/二值)(剪枝率偏小、量化率偏大)
对应剪枝中 --quant_type 0
cd micronet/compression/quantization/wbwtab
WbAb
- nin(正常卷积结构)
python main.py --W 2 --A 2 --model_type 0 --refine ../../pruning/models_save/nin_finetune.pth
- nin_gc(含分组卷积结构)
python main.py --W 2 --A 2 --model_type 1 --refine ../../pruning/models_save/nin_gc_retrain.pth
其他取值情况类比
BN融合
cd micronet/compression/quantization/wbwtab/bn_fuse
--W 权重W量化取值(据量化训练时W量化取值(FP32/三值/二值)情况对应选择)
融合并保存融合前后model
- Wb
python bn_fuse.py --W 2
- Wt
python bn_fuse.py --W 3
融合前后model对比测试
python bn_fused_model_test.py
设备选取
现支持cpu、gpu(单卡、多卡)
--cpu 使用cpu,--gpu_id 使用并选择gpu
- cpu
python main.py --cpu
- gpu单卡
python main.py --gpu_id 0
或
python main.py --gpu_id 1
- gpu多卡
python main.py --gpu_id 0,1
或
python main.py --gpu_id 0,1,2
默认:使用服务器全卡
部署
TensorRT
目前仅提供相关核心模块代码,后续再加入完整可运行demo
相关解读
迁移
量化
A model can be quantized(High-Bit(>2b)、Low-Bit(≤2b)/Ternary and Binary) by simply replacing op with quant_op. For example, replacing nn.ConvNd and nn.Linear with QuantConvNd and QuantLinear.
LeNet example
quant_test.py
import torch.nn as nn
import torch.nn.functional as F
# ``quantize`` is quant_module, ``QuantConv2d`` and ``QuantLinear`` are quant_op
from micronet.compression.quantization.wbwtab.quantize import QuantConv2d as quant_conv_wbwtab
from micronet.compression.quantization.wqaq.dorefa.quantize import QuantConv2d as quant_conv_dorefa
from micronet.compression.quantization.wqaq.dorefa.quantize import QuantLinear as quant_linear_dorefa
from micronet.compression.quantization.wqaq.iao.quantize import QuantConv2d as quant_conv_iao
from micronet.compression.quantization.wqaq.iao.quantize import QuantLinear as quant_linear_iao
class LeNet(nn.Module):
def __init__(self):
super(LeNet, self).__init__()
self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
self.fc1 = nn.Linear(320, 50)
self.fc2 = nn.Linear(50, 10)
def forward(self, x):
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2(x), 2))
x = x.view(-1, 320)
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
class QuantLeNetWbWtAb(nn.Module):
def __init__(self):
super(QuantLeNetWbWtAb, self).__init__()
self.conv1 = quant_conv_wbwtab(1, 10, kernel_size=5)
self.conv2 = quant_conv_wbwtab(10, 20, kernel_size=5)
self.fc1 = nn.Linear(320, 50)
self.fc2 = nn.Linear(50, 10)
def forward(self, x):
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2(x), 2))
x = x.view(-1, 320)
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
class QuantLeNetDoReFa(nn.Module):
def __init__(self):
super(QuantLeNetDoReFa, self).__init__()
self.conv1 = quant_conv_dorefa(1, 10, kernel_size=5)
self.conv2 = quant_conv_dorefa(10, 20, kernel_size=5)
self.fc1 = quant_linear_dorefa(320, 50)
self.fc2 = quant_linear_dorefa(50, 10)
def forward(self, x):
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2(x), 2))
x = x.view(-1, 320)
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
class QuantLeNetIAO(nn.Module):
def __init__(self):
super(QuantLeNetIAO, self).__init__()
self.conv1 = quant_conv_iao(1, 10, kernel_size=5)
self.conv2 = quant_conv_iao(10, 20, kernel_size=5)
self.fc1 = quant_linear_iao(320, 50)
self.fc2 = quant_linear_iao(50, 10)
def forward(self, x):
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2(x), 2))
x = x.view(-1, 320)
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
lenet = LeNet()
quant_lenet_wbwtab = QuantLeNetWbWtAb()
quant_lenet_dorefa = QuantLeNetDoReFa()
quant_lenet_iao = QuantLeNetIAO()
print('quant_model is ready')
print('micronet is ready')
test
python quant_test.py
when outputting 'quant_model is ready', micronet is ready.
模型压缩数据对比(仅供参考)
以下为cifar10测试,可在更冗余模型、更大数据集上尝试其他组合压缩方式
类型 | Acc | GFLOPs | Para(M) | Size(MB) | 压缩率 | 损失 | 备注 |
---|---|---|---|---|---|---|---|
原模型(nin) | 91.01% | 0.15 | 0.67 | 2.68 | *** | *** | 全精度 |
采用分组卷积结构(nin_gc) | 90.88% | 0.15 | 0.58 | 2.32 | 13.43% | 0.13% | 全精度 |
剪枝 | 90.26% | 0.09 | 0.32 | 1.28 | 44.83% | 0.62% | 全精度 |
量化(W/A二值) | 90.02% | *** | *** | 0.18 | 92.21% | 0.86% | W二值含缩放因子 |
量化(W三值/A二值) | 87.68% | *** | *** | 0.26 | 88.79% | 3.20% | W三值不含缩放因子,适配一些无法做缩放因子运算的硬件 |
剪枝+量化(W三值/A二值) | 86.13% | *** | *** | 0.19 | 91.81% | 4.75% | W三值不含缩放因子,适配一些无法做缩放因子运算的硬件 |
分组+剪枝+量化(W三值/A二值) | 86.13% | *** | *** | 0.19 | 92.91% | 4.88% | W三值不含缩放因子,适配一些无法做缩放因子运算的硬件 |
注:nin_gc 和 最后一行 的压缩率为与原模型(nin)相比,其余情况的压缩率均为与 nin_gc 相比
相关资料
压缩
量化
QAT
二值
-
BinarizedNeuralNetworks: TrainingNeuralNetworkswithWeightsand ActivationsConstrainedto +1 or−1
-
XNOR-Net:ImageNetClassificationUsingBinary ConvolutionalNeuralNetworks
三值
High-Bit
- DoReFa-Net: Training Low Bitwidth Convolutional Neural Networks with Low Bitwidth Gradients
- Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference
- Quantizing deep convolutional networks for efficient inference: A whitepaper
PTQ
High-Bit
剪枝
- Learning Efficient Convolutional Networks through Network Slimming
- RETHINKING THE VALUE OF NETWORK PRUNING
适配专用芯片的模型压缩
部署
TensorRT
后续
- tensorrt完整demo
- 其他压缩算法(量化/剪枝/蒸馏/NAS等)
- 其他部署框架(mnn/tnn/tengine等)
- 压缩 —> 部署
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Hashes for micronet-0.0.2.post0-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 09322494eaf6451f209d0ca630dfd4dd94e720bf6f7dfc1ac2be04575e38b67d |
|
MD5 | 986d8f8b8a6fba7aa4ab4171037d2753 |
|
BLAKE2b-256 | fc1433a77d33735bbdbddf79699227bf3068ee940ae87d147847d973ba3d1fad |