返回列表 发布新帖

一种注意力机制优化方法及硬件加速设计

22 0
admin 发表于 2024-12-14 02:39 | 查看全部 阅读模式

文档名:一种注意力机制优化方法及硬件加速设计
摘要:针对注意力机制在卷积神经网络的应用过程中无法避免的计算量增大、延迟增加问题,本文提出一种优化后的CBAM(ConvolutionalBlockAttentionModule)算法模型,并进行了硬件设计实现.论文基于传统CBAM模型结构,分析算法内部隐藏的潜在问题,设计更加符合注意力重要性参数提取初衷的算法模型;同时,通过计算过程优化,减少数据计算量、对算子进行最大并行组合;利用FPGA(FieldProgrammableGateArray)可设计高效灵活并行阵列的优势,为改进后的CBAM算法设计一种硬件加速引擎结构.实验结果表明,与传统CBAM机制相比,改进后的注意力机制可以保持与原有算法模型几乎相同的精度,部署在FPGA的硬件加速计算引擎以180MHz工作频率进行推理实验,经分析可得,本文提出的设计方案在同等硬件资源条件下,针对注意力机制电路可实现10.2%的计算速度提升,针对VGG16网络模型可实现4.5%的推理速度提升.

作者:王莹   王晶   高岚   吕旭   张伟功 Author:WANGYing   WANGJing   GAOLan   LüXu   ZHANGWei-gong
作者单位:首都师范大学信息工程学院,北京100048;首都师范大学数学科学学院,北京100048首都师范大学信息工程学院,北京100048
刊名:电子学报 ISTICEIPKU
Journal:ActaElectronicaSinica
年,卷(期):2023, 51(4)
分类号:TP302.8
关键词:注意力机制  CBAM  卷积神经网络  FPGA  硬件加速器  
机标分类号:TP335+.3R74F272.92
在线出版日期:2023年7月6日
基金项目:国家自然科学基金一种注意力机制优化方法及硬件加速设计[
期刊论文]  电子学报--2023, 51(4)王莹  王晶  高岚  吕旭  张伟功针对注意力机制在卷积神经网络的应用过程中无法避免的计算量增大、延迟增加问题,本文提出一种优化后的CBAM(ConvolutionalBlockAttentionModule)算法模型,并进行了硬件设计实现.论文基于传统CBAM模型结构,分析算法内...参考文献和引证文献
参考文献
引证文献
本文读者也读过
相似文献
相关博文

        一种注意力机制优化方法及硬件加速设计  An Improved Attention Mechanism Algorithm Model and Hardware Aceleration Design Method

一种注意力机制优化方法及硬件加速设计.pdf
2024-12-14 02:39 上传
文件大小:
2.17 MB
下载次数:
60
高速下载
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
    微信扫一扫
  • 联系QQ客服
    QQ扫一扫
2022-2025 新资汇 - 参考资料免费下载网站 最近更新浙ICP备2024084428号-1
关灯 返回顶部
快速回复 返回顶部 返回列表