近日,团队成员2022级研究生叶春锦在李景聪副教授的指导下,在中科院一区Top期刊《Pattern Recognition》(JCR Q1,中科院一区Top,影响因子7.5)上发表了题为“A robust transductive distribution calibration method for few-shot learning”的研究论文。该论文自2024年7月18日提交,于2025年2月18日被正式接收。
图1 方法的整体结构
小样本学习(Few-Shot Learning, FSL)是人工智能领域的一个重要研究方向,旨在通过极少量标注数据训练模型,使其在未见过的样本上也能保持良好的泛化能力。然而,由于标注数据有限,现有方法学习到的特征分布往往存在偏差,导致模型泛化能力受限。为解决这一问题,叶春锦等提出了一种鲁棒的直推式分布校准(RTDC)方法,能够更准确地估算小样本类别的特征分布,并生成更有效的样本,从而显著提升小样本分类任务的性能。
研究方法与创新点
本文提出的RTDC方法通过以下方式实现对小样本类别的特征分布的精准估计:
实验结果与讨论
实验结果表明,该方法在多个基准数据集上达到了甚至超过了现有最先进方法的性能,包括miniImageNet、tieredImageNet、CUB和CIFAR-FS。协方差驱动策略在选择未标记数据以校准类别中心时,考虑了分布的相似性。通过利用小样本类别的学习分布,该方法可以生成大量样本,从而为分类模型在训练过程中提供充足的监督信息。无需复杂的生成模型或额外的可学习参数,仅使用该方法生成的样本训练的简单逻辑回归模型,就能达到甚至超过大多数现有复杂模型的性能。t-SNE结果直观地展示了该方法在估计真实分布方面的有效性。
未来展望
尽管取得了显著成果,但作为一种基于微调的技术,该方法仍存在一定的局限性。它依赖于预训练特征提取器的性能,利用基础类和未标记样本的分布信息来优化小样本类别的特征分布。当特征提取器不足以提取判别性特征表示时,该方法将失去估计特征分布的能力。此外,在协方差驱动策略中,基于协方差的度量缺乏衡量特征之间相似性的非线性内部结构,从而忽略了非线性特征交互。在未来的工作中,团队将进一步优化该方法,使其适用于更广泛的应用场景,并探索如何在分布校准方法中考虑数据的非线性内部结构,以进一步提升模型的性能和泛化能力。