内容简介:
测试提效是企业生产交付的核心保障。在贝壳,业务的多样性导致测试涉及多类别、多领域,使得质量工具建设面临高维护和学习成本。此外,测试人员能力参差不齐,知识复用率低。本报告将重点介绍贝壳基于llm ai应用在测试提效方面的挑战与解决方案。针对这些挑战,基于知识工程构建垂直领域的质量大脑,利用AI增强检索和模型微调在测试用例生成场景深耕和提升效率。同时,通过搭建全域端到端的AI 应用智能体,实现代码准入自动化验证、变更预警和故障定位、ui自动化测试等,保障测试效率的提升。这些创新应用将推动产研协同作业模式的新变革,为贝壳的业务发展注入强大动力。
演讲提纲:
1、背景介绍
2、基于llm的ai应用在测试域提效的挑战和探索
3、企业实践经验总结(场景展开)
4、展望和规划
听众受益:
1、通过具体的企业应用案例和效果数据让大家更切实了解ai测试提效的实现路径和对人的改变
2、如何建立领域知识库提升ai赋能测试的效果,包括知识工程的搭建,知识库的分类和应用评价等,基于知识库结合RAG技术提升澄清需求、生成功能用例场景的应用
3、multi-agent,相比langchain agent框架,如何通过复杂多agent智能体在代码和需求提测阶段前置发现问题预防风险、故障定位等。通过真实的案例应用让大家更好的结合实际业务现状去有选择性落地
北京理工大学硕士毕业,目前是贝壳质量架构团队负责人,主攻大模型技术在测试域企业级的工程化探索和应用,基于“领域知识+场景+ AI agent”构建垂直域智能体实现大模型能力延伸,包括测试需求分析、测试用例自动生成、缺陷追踪和智能定位等,优化协同流程机制、助力业务快速迭代从而提升自动化产能。