内容简介:
在测试领域,传统的用例设计主要依赖人工经验,耗时长且容易遗漏潜在测试场景。在大型复杂系统中,需求文档(如 PRD)常常包含大量文本描述,如何快速、高效地从这些描述中生成丰富、准确的测试用例,成为亟待解决的难题。
本次分享主要涉及项目落地过程中遇到的难题及解决方案。针对传统测试用例生成存在的瓶颈和主要挑战(如需求理解不足、用例多样性 & 覆盖率有限),探索解决方案,通过提示工程(Prompt Engineering)、任务特定微调、场景上下文嵌入、人机交互等方式,驱动模型从需求文档、历史用例、业务领域知识等多源文本推理生成高质量测试用例。
演讲提纲:
1. 现状:随着业务复杂度提升、需求量增加,确保软件质量变得愈发重要。传统手动编写测试用例方式耗时耗力,难以覆盖实际业务逻辑与各种边界场景。
2. 目标&挑战
- 目标:降低手写文本测试用例的成本,自动生成高价值、高覆盖率、高业务贴合的测试用例,提升研发效率与测试质量。
- 挑战:
- 数据质量:如何快速收集业务领域数据,为下游模型微调和适配提供基础。
- 生成效果:面对复杂、变化多样的业务场景,如何保证生成用例的高采纳率和高覆盖率。
- 多语言适配:支撑中、英等多种语言的文本用例生成。
- 知识融合:如何引入额外补充信息进一步提升用例生成效果。
3. 技术方案:涵盖需求文档解析、提示工程、训练数据收集、大模型微调、工作流优化等完整优化手段。
4. 落地效果:当前产品真实落地效果。
5. 总结&规划:下一步目标和规划。
听众收益:
1. 激发听众对 AI 智能测试等更多创新场景的思考。
2. 学习如何基于大模型实现高质量、规范化的文本测试用例自动生成,并理解其背后的原理和操作流程。
3. 分享实际项目中的应用案例与踩坑经验,帮助听众规避常见问题,少走弯路,减少模型应用落地的阻碍。
先后在蚂蚁集团支付宝技术部和研发效能部任职,现任字节质量工程智能团队算法专家。在智能化测试、舆情风险挖掘、智能问答等场景上有丰富的实践经验。