文档名:面向神经机器翻译的模型存储压缩方法分析
模型存储压缩旨在不改变模型性能的同时,大幅度降低神经网络中过多的模型参数带来的存储空间浪费.研究人员对于模型存储压缩方法的研究大多在计算机视觉任务上,缺乏对机器翻译模型压缩方法的研究.该文在机器翻译任务上通过实验对比剪枝、量化、低精度三种模型压缩方法在Transformer和RNN(RecurrentNeuralNetwork)两种模型上的模型压缩效果,最终使用剪枝、量化、低精度三种方法的组合方法可在不损失原有模型性能的前提下在Transformer和RNN模型上分别达到11.7×和5.8×的压缩率.同时,该文还针对三种模型压缩方法在不同模型上的优缺点进行了分析.
作者:林野姜雨帆李恒雨肖桐
作者单位:东北大学自然语言处理实验室,辽宁沈阳110819
母体文献:第十七届全国计算语言学学术会议暨第六届基于自然标注大数据的自然语言处理国际学术研讨会(CCL2018)论文集
会议名称:第十七届全国计算语言学学术会议暨第六届基于自然标注大数据的自然语言处理国际学术研讨会(CCL2018)
会议时间:2018年10月19日
会议地点:长沙
主办单位:中国中文信息学会
语种:chi
分类号:
关键词:机器翻译 神经网络 模型存储压缩 剪枝法 量化法 低精度法
在线出版日期:2021年9月13日
基金项目:
相似文献
相关博文
- 文件大小:
- 858.95 KB
- 下载次数:
- 60
-
高速下载
|
|