【模型压缩】蒸馏算法小结

时间:2019-09-11 13:30:03   收藏:0   阅读:1273

模型压缩之蒸馏算法小结

原始文档:https://www.yuque.com/lart/gw5mta/scisva

Google Slide: https://docs.google.com/presentation/d/e/2PACX-1vSsa5X_zfuJUPgxUL7vu8MHbkj3JnUzIlKbf-eXkYivhwiFZRVx_NqhSxBbYDu-1c2D7ucBX_Rlf9kD/pub?start=false&loop=false&delayms=3000

2019年09月07日制作

技术图片

脑图的原始文档:http://naotu.baidu.com/file/f60fea22a9ed0ea7236ca9a70ff1b667?token=dab31b70fffa034a(kdxj)

输出配准

Distilling the Knowledge in a Neural Network(NIPS 2014)

技术图片

Deep Mutual Learning(CVPR 2018)

技术图片

Born Again Neural Networks(ICML 2018)

技术图片

技术图片

直接配准

拟合注意力图

Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer(ICLR 2017)

技术图片

技术图片

Learning Lightweight Lane Detection CNNs by Self Attention Distillation(ICCV 2019)

技术图片

技术图片

拟合特征

FitNets : Hints for Thin Deep Nets(ICLR2015)

技术图片

技术图片

技术图片

关系配准

拟合特征两两之间的关系

A Gift from Knowledge Distillation: Fast Optimization, Network Minimization and Transfer Learning(CVPR 2017)

技术图片

技术图片

技术图片

Graph-based Knowledge Distillation by Multi-head Attention Network(BMVC 2019)

技术图片

技术图片

拟合输出中蕴含的关系

Similarity-Preserving Knowledge Distillation(ICCV 2019)

技术图片

Relational Knowledge Distillation(CVPR 2019)

技术图片

技术图片

Data Distillation: Towards Omni-Supervised Learning(CVPR2018)

技术图片

Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results(NIPS 2017)

技术图片

技术图片

拟合特征自身内部的关系

Knowledge Adaptation for Efficient Semantic Segmentation(CVPR 2019)

技术图片

技术图片

技术图片

Structured Knowledge Distillation for Semantic Segmentation(CVPR 2019)

技术图片

技术图片

技术图片

技术图片

评论(0
© 2014 mamicode.com 版权所有 京ICP备13008772号-2  联系我们:gaon5@hotmail.com
迷上了代码!