【科研动态】我院师生在国际计算机视觉顶会CVPR 2026发表重要研究成果

发布者:人工智能发布时间:2026-04-09浏览次数:200分享

  近日,国际计算机视觉与模式识别顶级会议CVPR 2026 (IEEE/CVF Conference on Computer Vision and Pattern Recognition) 录用结果公布。我院2023级硕士研究生邹焕鑫作为第一作者、研究生导师吴志泽教授作为通讯作者撰写的学术论文《NRFP: A Noise-Robust Feature Plugin for Source-Free Domain Adaptation》被大会正式录用。

  这是我院在计算机视觉领域国际顶级会议(CCF-A类)上发表的首篇学术论文,标志着我院在人工智能基础前沿研究和高层次创新人才培养方面取得了重要突破。本次工作由合肥大学主导,并与海河信创实验室、安徽大学的科研团队合作完成。

研究背景:无源域自适应面临的“噪音困境”

  近年来,无监督域自适应(UDA)在图像分类、目标检测等计算机视觉任务中取得了显著进展。然而,传统UDA方法依赖于源域数据的持续访问,这在实际应用中往往受限于数据隐私和存储成本。因此,无需源数据的无源域自适应(SFDA)逐渐成为研究热点。

  在现有的SFDA范式中,数据增强(Data Augmentation)是提升模型泛化能力的核心手段。然而,研究团队敏锐地发现:激进或不恰当的数据增强会引入严重的“语义噪声”。例如,旋转操作可能会将数字“6”变成视觉上合理的“9”,颜色扰动可能会扭曲交通信号灯的语义。这些增强带来的噪声会分散模型的注意力,导致特征对齐次优,严重削弱了模型的稳定性。这一痛点在现有的SFDA研究中长期被忽视。

 图注:(a) 常见的增强操作可能导致语义不一致;(b) 噪声数据训练导致模型注意力分散;(c) 清洁数据训练能保持紧凑一致的注意力。

创新成果:提出噪声鲁棒特征插件(NRFP)

  为了解决上述挑战,吴志泽教授团队跳出了传统数据增强的固有思路,从一个全新的“以噪声为中心”的视角出发,提出了一种即插即用的噪声鲁棒特征插件(NRFP)。

  该插件仅利用少量低噪声的辅助样本即可增强域泛化能力,避免了对大规模或极端数据增强的依赖。NRFP由两个相辅相成的核心模块组成:

  1. 辅助样本生成策略(ASGS):巧妙利用AIGC(人工智能生成内容)技术和文本提示,合成语义一致且低噪声的辅助样本,为模型提供干净的语义参考。

  2. 互斥样本生成策略(MESGS):受到对抗性学习的启发,该策略构建在特征空间上与辅助样本互斥、但在视觉上与原始样本保持一致的样本。这迫使模型放弃对肤浅噪声的依赖,转而关注目标类别的内在、不变本质特征。

实验成效与学术价值

  实验证明,尽管NRFP的设计十分简洁,但它可以被无缝集成到现有的主流SFDA框架中。在多个主流SFDA基准测试中,NRFP均展现出了一致且显著的性能提升,达到了当前领域的最优水平。

  该论文重新审视了无源域自适应中的特征提取逻辑,为未来在隐私保护、数据受限条件下的稳健视觉模型开发提供了全新的理论支撑和极具实用价值的解决方案。

结语与展望

  CVPR全称为IEEE/CVF Conference on Computer Vision and Pattern Recognition,是人工智能与计算机视觉领域全球最具影响力的顶级学术会议,属中国计算机学会(CCF)推荐的A类国际学术会议。

  此次成果的发表,不仅是我院学科建设的重要硕果,更是我院研究生培养质量稳步提升的有力印证。近年来,人工智能与大数据学院高度重视科研创新平台建设,鼓励师生潜心钻研学术前沿,脚踏实地开展创新探索,积极参与国际前沿学术交流。未来,学院将继续秉持严谨治学的态度,力争在人工智能前沿基础研究与关键技术攻关上取得更多高质量成果。

  论文链接 / 项目主页:https://github.com/deep-wu/NRFP

(人工智能与大数据学院 撰稿:邹焕鑫 初审:嵇圣硙 复审:吴志泽 终审:胡萍)