研究院5项成果被计算机视觉顶级会议ICCV2021录用
来源: 高峰/
中国海洋大学
295
0
0
2021-09-06
2021年国际计算机视觉大会(ICCV)于近日放榜。中国海洋大学人工智能研究院的5篇论文被大会录用。ICCV (International Conference on Computer Vision) 是计算机视觉领域的顶级会议,每两年召开一次。ICCV2021收到有效投稿6236篇,最终录用1617篇,录用率为25.9%。
 
 
论文1: Invisible Backdoor Attack with Sample-Specific Triggers.
Yuezun Li, Yiming Li, Baoyuan Wu, Longkang Li, Ran He, Siwei Lyu.
后门攻击是一种新兴的人工智能安全问题,攻击者通过污染深度模型的训练数据在深度模型中植入后门。该后门的表现是对于正常的输入数据,模型将输出正确的预测,而对于被污染的输入数据,模型将输出错误的预测。目前常用的污染策略是在输入数据中加入可见且固定模式(sample-agnostic)的触发器。然而由于其可见和固定的触发器,现有的防御方法可以有效地对其进行限制。因此,本文提出了一种不可见且样本相关(sample-specific)的触发器。该方法通过自编码器将特定字串嵌入输入数据作为该样本的触发器,不同的输入数据具有不同的触发器。相比于现有的后门攻击方法,该方法更加的隐蔽,并且可以绕过大部分的防御策略。
 
 
论文2: Low rank tensor completion by approximating the tensor average rank.
Zhangliang Wang, Junyu Dong, Xinguo Liu, Xueying Zeng
本文研究了低秩张量填充问题,旨在从不完整的张量数据中恢复原始的张量。本文基于广义的张量奇异值分解,定义了一种新的张量平均秩。通过对平均秩的近似,本文提出了一种非凸张量填充模型。一种邻近块迭代下降算法被用于求解该模型,并得到了一定的收敛性结果。实验证明,与其他张量填充算法相比,我们提出的算法在恢复效果和效率上具有一定的优势。
 
论文3:Painting from Part.
Dongsheng Guo, Haoru Zhao, Yunhao Cheng, Haiyong Zheng, Zhaorui Gu, Bing Zheng
本文研究了从部分图像恢复出整个图像的问题。为了解决充分利用局部区域的信息恢复全局区域这一难题,我们根据对部分和整体之间关系的观察,提出了一种全新的部分绘制方法,该方法包括三个阶段:噪声重启、部分特征重绘和部分斑块细化,通过利用特征级和斑块级的区域以及生成式对抗网络的强大表示能力来绘制整个图像。本方法在当前的图像修复数据集上都取得了最先进的性能,包括我们提出的不规则outpainting数据集。

论文4:Image Harmonization with Transformer.
Zonghui Guo, Dongsheng Guo, Haiyong Zheng, Zhaorui Gu, Bing Zheng, Junyu Dong
图像协调(Image Harmonization),旨在使合成图像看起来更真实,是一项重要的、具有挑战性的任务。我们试图用Transformer来解决图像协调问题,利用其强大的长距离上下文关系建模能力,用于调整前景光,使其与背景光兼容,同时保持结构和语义不变。通过设计协调Transformer框架,以及综合实验和消融实验,说明了Transformer在图像协调方面的作用。我们的方法在图像协调和图像修复/增强方面都取得了最先进的性能。

论文5: Multi-Modal Multi-Action Video Recognition
Zhensheng Shi, Ju Liang, Qianqian Li, Haiyong Zheng, Zhaorui Gu, Junyu Dong, Bing Zheng
由于需要识别同时出现的多个动作,多动作视频识别具有极大的挑战性。建立多动作关系模型对于理解具有多个动作的视频是有益的和关键的,我们通过利用关系图卷积网络(GCN)和视频的多模态性,提出了一个新颖的视频多动作关系模型。我们首先建立了多模态的GCNs来探索模态感知的多动作关系,将特定模态的动作表示作为节点特征,然后将多模态的CNN-GCN模型和多模态的特征表示联合起来,学习更好的关系动作预测。消减实验和多行动关系可视化分析,都显示了我们的多模态多行动关系建模的强大能力。同时,我们方法在大规模多动作数据集M-MiT上取得了最当前最好的性能。


登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 联系我们
联系我们: