在大语言模型(LLMs)快速渗透软件工程实践的背景下,软件测试人才培养正面临新的结构性挑战。一方面,学生已广泛将大语言模型用于需求分析、测试设计与脚本生成等任务,但其使用方式往往缺乏系统指导,呈现出明显的“工具依赖”倾向;另一方面,现有研究多聚焦于大语言模型是否提升结果质量,却忽视了其对学习行为与认知过程的深层影响。我们的研究发现,学生在实际测试任务中普遍存在提示设计不充分、上下文缺失、交互迭代不足等问题,尤其在自动化测试脚本生成这一高复杂度任务中,这些问题进一步演化为高交互成本与高调试负担,导致“效率幻觉”与学习风险并存。

针对上述困境,华南师范大学数据智能开放实验室汤庸教授团队、广州职业技术大学与慕测平台展开紧密合作,通过课堂实验与大规模问卷调查相结合的混合方法研究,系统揭示了LLM辅助软件测试中的“任务依赖性使用模式”。研究表明,文本类任务(如需求分析、测试用例设计)呈现出相对稳定且一致的交互模式,而脚本生成任务则表现出显著的不确定性与结构性困难。这种差异本质上源于学生在执行过程中难以显式表达测试上下文、执行约束与验证逻辑。进一步地,我们提出并验证了一种“阶段感知(Stage-aware)提示支架”,引导学生在与LLM交互前外化关键测试信息。实验观察显示,该方法能够促使学生在不同测试阶段更清晰地表达假设与约束,从而改变问题暴露的形式,并改善人机协作的结构。
本研究的重要意义在于,它将研究视角从“模型性能优化”转向“学习过程重构”,指出LLM在软件测试人才培养中的核心价值不在于替代人类完成任务,而在于作为认知支架促进学生的推理与表达能力。研究进一步表明,真正的挑战不在于是否引入LLMs,而在于如何通过教学设计引导学生进行阶段化、反思性的人机协作。由此,本论文为LLM在软件测试教育中的规范化、学习导向集成提供了实证基础与方法启示,对于未来智能化软件工程教育体系的构建具有重要参考价值。相关成果的研究论文“Large Language Models for Software Testing Education: an Experience Report”已经被软件工程顶级学术(CCF-A)会议FSE 2026的教育Track录用。
论文预印版参阅:https://arxiv.org/abs/2603.26329。

评论 0