近期,实验室博士生郭洁的论文”CoMCM:Collaborative 3D Detection With Multiscale Clustering Mamba“被IEEE Journal of Selected Topics in Signal Processing正式录用。随着自动驾驶和通信技术的不断发展,V2V和V2X的多智能体协同感知已成为克服单车感知局限的关键策略。V2V和V2X通信能够实现车辆、基础设施以及行人等交通参与者之间感知数据的实时共享。这克服了车载传感器的视野和感知范围限制,提升了自动驾驶系统的安全性和可靠性。此外,多智能体协同感知还有助于优化交通流、减少拥堵、提高整体道路效率。
论文简介
Tong Wang, Member, IEEE,Harbin Engineering University, Harbin, China
Jie Guo,Student Member,Harbin Engineering University, Harbin, China
Ming Ouyang,Member, IEEE ,Harbin Engineering University, Harbin, China
Peng Xue,Student Member, Harbin Engineering University, Harbin, China
Lu Wang, Member, IEEE,Harbin Engineering University, Harbin, China
Pei Xiao, Senior Member, IEEE,University of Surrey,UK
通过V2V和V2X通信实现的协作式多智能体感知,已成为突破自动驾驶中单辆车感知局限的可行方案。然而,在通信定位受限的环境下,如何高效融合多辆车的大规模高维特征仍面临重大挑战。本文提出了一种名为“多尺度聚类Mamba协同三维检测”(CoMCM)的协作式三维目标检测框架,该框架通过跨空间尺度的自适应特征融合,整合粗粒度与细粒度信息。CoMCM包含两大核心组件:基于Mamba的状态空间模型中的上下文聚类Mamba(CCMamba)和BEV融合模块中的协作式Mamba(CoM)。其中,CCMamba模块通过在Mamba模型中引入多尺度聚类机制,同时捕捉全局与局部上下文信息。该设计有效解决了非因果BEV表征中选择性状态建模的局限性。CoM模块通过采用相对姿态感知注意力机制和自适应加权技术,将多辆联网自动驾驶车辆(CAVs)的BEV特征进行融合,从而实现高效的多车协作。在OPV2V、V2XSet大规模数据集及真实世界DAIR-V2X数据集上的大量实验表明,CoMCM在带宽限制和姿态估计误差条件下仍保持稳健性,其性能显著优于现有协同3D目标检测方法。此外,CoMCM在保持高检测精度的同时,实现了较低的计算成本。该技术为复杂环境中智能联网车辆系统的可扩展协同感知奠定了基础。
作者信息
如果您对本文内容感兴趣的话,可以与作者联系:
郭洁 哈尔滨工程大学智能感知与群智计算黑龙江省重点实验室 博士研究生

评论 0