文档名:神经网络模型压缩方法综述
深度神经网络在计算机视觉、语音识别等领域取得了巨大成功.然而,目前的深度神经网络模型需要消耗大量的计算资源和存储空间,限制了在移动终端和车载设备等低存储、低延迟需求环境下的应用.因此,需要在保证准确率的前提下对神经网络进行压缩、加速和优化.文中主要讨论如下3种方法:1)在已有的网络结构下进行参数压缩,包括剪枝、量化和低秩分解;2)使用更加紧凑的网络结构;3)采用知识迁移.对于每一类方法的每个分支,文中都详细介绍了其性能、优缺点及应用,并且列举出了相关领域的最新研究成果.最后,总结了现有的成果并讨论了将来可能的发展方向.
作者:张弛田锦王永森刘宏哲
作者单位:北京联合大学北京市信息服务工程重点实验室北京100101
母体文献:中国计算机用户协会网络应用分会2018年第二十二届网络新技术与应用年会论文集
会议名称:中国计算机用户协会网络应用分会2018年第二十二届网络新技术与应用年会
会议时间:2018年10月1日
会议地点:北京
主办单位:中国计算机用户协会
语种:chi
分类号:
关键词:神经网络 参数压缩 知识迁移 模型优化
在线出版日期:2022年4月27日
基金项目:
相似文献
相关博文
- 文件大小:
- 1.55 MB
- 下载次数:
- 60
-
高速下载
|
|