学习报告:Transformer识别排球比赛群体行为的研究

用Transformer分析12位女排运动员动作、交互、场景内容

图1动作交互可视化的l-尖峰活动与连接线。颜色越亮表示关系越强

最近,来自悉尼科技大学、新加坡国立大学以及中科院深圳先进院等机构的作者发现,不同的时空建模顺序对于个体之间的关系模型,进一步对群体行为关系判别有着不同的优势。作者提出了一种简洁的Dual-AI框架,它以两种互补的顺序灵活地安排空间和时间Transformer,通过整合不同时空路径的优点来增强个体间的关系,在女子排球比赛视频中应用并取得了优异的结果。

1.研究背景及目的

群体行为识别(Group Activity Recognition)不同于寻常的关于个体动作的行为识别(Action Recognition),需要通过分析视频中所有参与群体活动的个体之间的关系,进一步结合场景信息,对群体活动的行为类别做出判别。群体活动识别(GAR)是视频理解中的一个重要问题。在这项任务中,我们不仅要识别每个行为者的单独行动,还要理解多个参与行为者的集体活动。因此,对于GAR来说,学习行为体的时空关系是至关重要的。

已有一些尝试通过建立行为者之间的视觉注意力来建立行为者关系模型。然而,对于联合的空间-时间优化来说,这往往是困难的。由于这个原因,最近的 群体活动识别中的方法通常是将 空间-时间注意力分开,以模拟行为者的互动。但是,单一的空间和时间顺序是 但单一的空间和时间顺序不足以描述复杂的群体活动,因为 不同的群体活动往往表现出多样化的 空间-时间的相互作用。

2.研究方法

由于群体行为识别的多粒度特性以及明确的粒度含义(个体-群体),GCN、transformer以及CNN的attention模块都经常被用作对群体进行建模的工具。但是,以往的工作,如ARG、SAM和Actor Transformer都仅以一个时空顺序对个体关系进行建模,即时间-空间(TS,Temporal- Spatial)或空间-时间(ST,Spatial-Temporal)。

如图2(a)所示,个体1和4分别进行起跳击球和起跳拦网的动作,先进行时间建模可以更好地捕捉个体的动作特性;进一步分析个体1-4的空间场景关系,可以通过左侧队伍(个体2/3在等待个体1起跳击球)和右侧队伍(多个个体起跳拦网)的空间关系,更好地表达左侧击球的群体特征(left-spike)。而在图(b)中,个体2和个体1都在进行起跳(一个佯攻,一个传球)的动作,如果先进行时间建模,则会混淆后续的空间建模和群体行为判定;反而,先进行空间建模,可以更好地得到同侧队友之间的场景信息和空间关系,进一步的时间建模,可以更好地区分个体1和个体2的起跳行为,进而得到正确的群体行为分类。

图2 不同的时空建模顺序适合于不同的群体行为类别

基于上述观察和动机,作者提出了简洁的Dual-AI框架,通过对视频中所有个体特征的关系建模,得到互补的个体和群体行为特征。论文已被CVPR 2022 Oral收录。

论文地址:https://arxiv.org/abs/2204.02148

如图3所示,空间建模(S-Trans)仅对一帧内的N个个体进行关系建模,时间建模(T-Trans)建模一个个体在不同帧中的关系。通过对T-Trans和S-Trans不同顺序的堆叠,即可以得到互补的时空特征表达,在分类器得到行为判别后, late-fusion得到融合结果。

图3 简洁的互补时空建模Dual-AI

另外,为了更好地约束两个独立分支的特征交互,作者提出了多尺度的个体对比损失函数(MAC-Loss,Multi-scale Actor Contrastive Loss)。其核心是在时空建模后,相比于其他个体特征,同一个体特征表达应该有着一定的相似性。如图4所示,作者提出个体在帧(Frame)级别和视频(Video)级别特征表达在不同建模分支间的对比损失关系,即帧-帧(F-F,Frame-Frame)、帧-视频(F-V,Frame-Video)和视频-视频(V-V,Video-Video)。

图4 多尺度的个体损失函数MAC-Loss

在全监督设定下,模型通常需要场上参与群体行为的个体的标注包围框、个体的动作标签以及群体行为标签,如图5所示。

图5 全监督提供12位运动员的精细标注

为了进一步减少标注成本,也为了检验模型的鲁棒性,文章提出有限数据设定(limited data),验证模型在有限标注数据(如50%)下的表现;同时,文章也在弱监督设定(不提供个体真值标注,如包围框和行为类别,如图6)下验证了方法的有效性。

图6 弱监督引入场外噪声,减少标注成本

3.研究结果

在这项工作中,我们开发了一个Dual-AI框架,以灵活地学习动作交互在空间-时间和时间-空间的特征。此外,我们设计了一个独特的MAC-loss来实现双路径的合作,以实现有效的动作交互学习。我们在三个数据集上进行了实验,并在不同的数据设置下建立了新的SOTA结果。特别是,我们的方法在50%的数据超过了一些最近用100%数据训练的方法。全面的消融实验和可视化结果表明,我们的方法能够以互补的方式学习动作交互。

参考文献:

  1. Han M, Zhang D J, Wang Y, et al. Dual-AI: Dual-path Actor Interaction Learning for Group Activity Recognition[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 2990-2999.
  2. Li Yuan, Yunpeng Chen, Tao Wang, Weihao Yu, Yujun Shi, Zihang Jiang, Francis EH Tay, Jiashi Feng, and Shuicheng Yan. Tokensto-token vit: Training vision transformers from scratch on imagenet. arXiv preprint arXiv:2101.11986, 2021.
  3. angjie Yuan and Dong Ni. Learning visual context for group activity recognition. In AAAI, volume 35, pages 3261–3269, 2021. 3, 6
  4. ianchao Wu, Limin Wang, Li Wang, Jie Guo, and Gangshan Wu. Learning actor relation graphs for group activity recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 9964–9974, 2019. 1, 2, 3, 6
  5. https://new.qq.com/rain/a/20220610A04X6V00

撰稿人:卢亮宇

审稿人:周成菊


登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: