发现最好的AI产品 - OKRVVAI导航站

计算所程学旗团队:随机剪枝 AI 攻击策略,让对抗样本更具「通用攻击力」丨CVPR 2026

随着深度学习技术在计算机视觉领域的快速发展,神经网络模型已经在自动驾驶、智能安防、医疗影像分析以及智能终端等关键场景中得到广泛应用。例如,在自动驾驶系统中,视觉模型需要识别道路标志和行人;在智能安防系统中,人脸识别模型被用于身份验证;在医疗影像分析中,深度学习模型可以辅助医生识别疾病特征。然而,近年来的研究不断表明,这些高性能模型在安全性方面仍然存在明显隐患。其中,对抗样本问题被认为是深度学习系统面临的最重要安全挑战之一。例如,通过在一张交通标志图像上加入人类几乎无法察觉的微小扰动,自动驾驶系统可能会把“限速标志”误判为“停止标志”;在人脸识别系统中,只需在图像中加入细微噪声,就可能使模型将一个人误识别为另一个人。这些微小的输入变化却能导致模型产生完全错误的预测,这种现象不仅揭示了深度神经网络在决策边界上的脆弱性,也对现实系统的安全性提出了严峻挑战。在众多对抗攻击研究方向中,迁移攻击(Transfer-based Attack)尤为受到关注。这类攻击不需要访问目标模型的结构、参数或梯度信息,而是通过一个可访问的代理模型生成对

来源: 雷锋网

聚合资讯

此资讯为聚合内容,请访问原始来源阅读完整内容

阅读原始内容

来源:雷锋网

评论 (0)

登录后可以发表评论