返回列表 发布新帖

针对图像分类的鲁棒物理域对抗伪装

22 0
admin 发表于 2024-12-14 02:20 | 查看全部 阅读模式

文档名:针对图像分类的鲁棒物理域对抗伪装
摘要:深度学习模型对对抗样本表现出脆弱性.作为一种对现实世界深度系统更具威胁性的攻击形式,物理域对抗样本近年来受到了广泛的研究关注.现有方法大多利用局部对抗贴片噪声在物理域实现对图像分类模型的攻击,然而二维贴片在三维空间的攻击效果将由于视角变化而不可避免地下降.为了解决这一问题,所提Adv-Camou方法利用空间组合变换来实时生成任意视角及变换背景的训练样本,并最小化预测类与目标类交叉熵损失,使模型输出指定错误类别.此外,所建立的仿真三维场景能公平且可重复地评估不同的攻击.实验结果表明,Adv-Camou生成的一体式对抗伪装可在全视角欺骗智能图像分类器,在三维仿真场景比多贴片拼接纹理平均有目标攻击成功率高出25%以上,对Clarifai商用分类系统黑盒有目标攻击成功率达42%,此外3D打印模型实验在现实世界平均攻击成功率约为66%,展现出先进的攻击性能.

Abstract:Deeplearningmodelsarevulnerabletoadversarialexamples.Asamorethreateningtypeforpracticaldeeplearningsystems,physicaladversarialexampleshavereceivedextensiveresearchattentioninrecentyears.Mostoftheexist-ingmethodsusethelocaladversarialpatchnoisetoattacktheimageclassificationmodelinthephysicalworld.However,theattackeffectof2Dpatchesin3Dspacewouldinevitablydeclineduetothechangeintheviewangle.Toaddressthisis-sue,theproposedAdv-Camoumethodusesspatialcombinationtransformationtogeneratetrainingexamplesofarbitraryviewpointsandtransformedbackgroundsinrealtime.Moreover,thecross-entropylossbetweenthepredictionclassandtar-getclassisminimizedtomakethemodeloutputthespecifiedincorrectclass.Inaddition,theestablished3Dscenecaneval-uatedifferentattacksfairlyandreproducibly.Theexperimentalresultsshowthatthecoatedadversarialcamouflagegenerat-edbytheAdv-Camoumethodcanfoolimageclassifiersfromarbitraryviewpoints.Inthe3Dsimulationscene,theaveragetargetedattacksuccessrateofAdv-Camouismorethan25%higherthanthatofpiecingtogetherpatches.Thesuccessrateofblack-boxtargetedattacksontheClarifaicommercialclassificationsystemreaches42%.Inaddition,theaverageattacksuccessrateof3Dprintingmodelexperimentsintherealworldisabout66%,whichsignificantlydemonstratesthatourmethodoutperformsstate-of-the-artmethods.

作者:段晔鑫   贺正芸   张颂   詹达之   王田丰   林庚右   张锦[5]  潘志松 Author:DUANYe-xin   HEZheng-yun   ZHANGSong   ZHANDa-zhi   WANGTian-feng   LINGeng-you   ZHANGJin[5]  PANZhi-song
作者单位:陆军军事交通学院镇江校区,江苏镇江212003;陆军工程大学指挥控制工程学院,江苏南京210007湖南工业大学轨道交通学院,湖南株洲412007北京电子科技学院网络空间安全系,北京100071陆军工程大学指挥控制工程学院,江苏南京210007陆军军事交通学院镇江校区,江苏镇江212003
刊名:电子学报 ISTICEIPKU
Journal:ActaElectronicaSinica
年,卷(期):2024, 52(3)
分类号:TP181
关键词:对抗样本  对抗伪装  对抗攻击  图像分类  深度神经网络  
Keywords:adversarialexample  adversarialcamouflage  adversarialattack  imageclassification  deepneuralnet-work  
机标分类号:TP393.08TP18TJ611
在线出版日期:2024年5月16日
基金项目:针对图像分类的鲁棒物理域对抗伪装[
期刊论文]  电子学报--2024, 52(3)段晔鑫  贺正芸  张颂  詹达之  王田丰  林庚右  张锦  潘志松深度学习模型对对抗样本表现出脆弱性.作为一种对现实世界深度系统更具威胁性的攻击形式,物理域对抗样本近年来受到了广泛的研究关注.现有方法大多利用局部对抗贴片噪声在物理域实现对图像分类模型的攻击,然而二维贴片在...参考文献和引证文献
参考文献
引证文献
本文读者也读过
相似文献
相关博文

        针对图像分类的鲁棒物理域对抗伪装  Robust Physical Adversarial Camouflages for Image Classifiers

针对图像分类的鲁棒物理域对抗伪装.pdf
2024-12-14 02:20 上传
文件大小:
3.14 MB
下载次数:
60
高速下载
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
    微信扫一扫
  • 联系QQ客服
    QQ扫一扫
2022-2025 新资汇 - 参考资料免费下载网站 最近更新浙ICP备2024084428号-1
关灯 返回顶部
快速回复 返回顶部 返回列表