出品人:姜  炎
中兴通讯资深敏捷教练、测试部长
在测试领域具备20年以上的研发改进和产品交付经验。多次获得中兴通讯公司级十佳教练,所服务的项目多次获得公司十佳敏捷项目,并通过devopsL3行标。负责公司测试COP,在测试理论、测试工程能力、测试体系化、自动化工厂、混沌工程上卓有建树。近年与南大软件质量研究所深度合作,在AI赋能研发效能上走在业界前列。                                                                                                                  

AI赋能测试

测试超自动化时代已然到来。聚焦AI智能辅助测试设计,及测试序列、数据、oracle的生成技术前沿,包括SBST、数据驱动测试生成、guided-fuzz、LLM-boost测试生成等主题,及其在各测试层级包括API接口测试、系统测试的应用实践交流分享,共同探索测试生成超自动化新范式。
基于LLM AI应用在测试域提效挑战和方案
内容简介:
测试提效是企业生产交付的核心保障。在贝壳,业务的多样性导致测试涉及多类别、多领域,使得质量工具建设面临高维护和学习成本。此外,测试人员能力参差不齐,知识复用率低。本报告将重点介绍贝壳基于llm ai应用在测试提效方面的挑战与解决方案。针对这些挑战,基于知识工程构建垂直领域的质量大脑,利用AI增强检索和模型微调在测试用例生成场景深耕和提升效率。同时,通过搭建全域端到端的AI 应用智能体,实现代码准入自动化验证、变更预警和故障定位、ui自动化测试等,保障测试效率的提升。这些创新应用将推动产研协同作业模式的新变革,为贝壳的业务发展注入强大动力。                                                                                                                                                                                                                                        
演讲提纲:
1、背景介绍
2、基于llm的ai应用在测试域提效的挑战和探索
3、企业实践经验总结(场景展开)
4、展望和规划
                                                                                     
                                                               
听众受益:
1、通过具体的企业应用案例和效果数据让大家更切实了解ai测试提效的实现路径和对人的改变
2、如何建立领域知识库提升ai赋能测试的效果,包括知识工程的搭建,知识库的分类和应用评价等,基于知识库结合RAG技术提升澄清需求、生成功能用例场景的应用
3、multi-agent,相比langchain agent框架,如何通过复杂多agent智能体在代码和需求提测阶段前置发现问题预防风险、故障定位等。通过真实的案例应用让大家更好的结合实际业务现状去有选择性落地                                                                                                                                          
原玉娇
贝壳找房(北京)科技有限公司
资深工程师
北京理工大学硕士毕业,目前是贝壳质量架构团队负责人,主攻大模型技术在测试域企业级的工程化探索和应用,基于“领域知识+场景+ AI agent”构建垂直域智能体实现大模型能力延伸,包括测试需求分析、测试用例自动生成、缺陷追踪和智能定位等,优化协同流程机制、助力业务快速迭代从而提升自动化产能。
LLM+X驱动移动APP自主测试
内容简介:
对于鸿蒙生态测试场景中的APP功能测试,由于APP均是第三方开发者开发,我们无法提前获得APP的需求和规格,难以预先进行测试设计或测试脚本编写,因此需要一种可针对三方未知功能APP的核心功能的自主测试能力。大模型技术的出现使解决该问题成为可能,利用大模型的意图理解能力和APP操作的知识,可以帮助我们实现APP核心功能的生成和基于测试意图的测试操作决策等能力,目前我们主要聚焦解决测试操作决策问题并初步打通了端到端决策。在本次分享中,我们会分享我们借助大模型、多模态等技术解决该问题的思考、实践经验和目前取得的成果。                                                                                                                                                                                                                                
演讲提纲:
1、APP自主测试的问题背景:
1.1 鸿蒙生态测试场景对APP测试带来的新挑战
1.2 APP自主测试主要难点以及与现有测试技术的主要差别
2、业界进展洞察:当前业界解决该问题的工作分享
3、当前的实践思路和成果
3.1 APP测试Agent构想
3.2 基于测试意图的APP自主测试方法实践
3.3 APP自主测试当前技术成果与应用落地效果
4、未来展望
4.1 APP测试Agent挑战和难题
4.2 未来可能的APP测试新模式
                                                                                     
                                                               
听众受益:
1、App自主测试的难点和主要解决思路
2、App自主测试的应用实践                                                                                                                                         
张  铎
华为测试技术专家
2018年加入华为,负责AI使能测试技术方向,突破GUI测试领域难题,落地游戏自动化测试、Web自主遍历测试、AI自主测试等工具能力。
破解算力困境:低成本构建高效用例、脚本智能生成方案
杨  晟
中兴通讯股份有限公司测试总工
东南大学本科毕业,目前是中兴通讯有线研究院测试总工,同时轮动到公司技术规划部,负责大模型在测试领域的应用探索和推广。
基于在测试分析与设计,测试开发的丰富实践经验,探索使用通用大模型(无需增量预训练和精调)生成用例,生成脚本和脚本执行失败定界的实践,设计通用的工程化方案并已在公司部分项目横推落地。
内容简介:
大模型在语言理解和生成以及代码理解和生成能力上的显著优势,让我们对其在测试领域的应用寄予厚望。我们是否能够借助大模型的力量,真正实现从需求分析到测试脚本自动生成的全流程优化,从而大幅减少测试过程中不必要的繁琐工作?
 在电信级系统产品的测试活动中运用大模型提升效率的最大挑战在于大量专属领域知识的存在,大模型需要充分掌握从需求定义、需求具体化、方案策划、测试用例设计到自动化脚本编写等一系列环节的知识,才能有效促进测试活动的高效进行。
 对于普通企业而言,获取预训练所需的资源和技术能力本身就是一项重大挑战,而且现有的预训练周期往往难以适应实际应用的需要。因此,是否存在一种无需经过预训练和精细,就能实现低成本且高效的用例生成和脚本生成解决方案呢?这是我们共同探寻的方向。
                     
演讲提纲:
1、电信级系统产品的测试领域面对的痛点
2、大模型在电信级系统产品的测试中所遇到的问题和挑战
3、算力不足的情况下,低成本高效落地用例、脚本生成的解决方案
4、用例、脚本智能生成的实践展开
5、展望未来,从需求分析到用例生成、脚本生成、脚本失败分析实现全流程智能化
                                                                                                                      
                                                                 
听众受益:
1、在算力不足以支撑将产品的私域知识训练到大模型中的情况下,如何将大模型应用在用例、脚本只能生成场景,提升效率和质量
2、大模型应用在用例、脚本智能生成场景下的遇到的具体问题和挑战,以及如何应对
                   
大模型在金融测试领域的应用和探索
高  蕊
中信银行测试管理板块板主
中信银行用户体验、业务测试创始人,资深质控专家。工信部互联网高级工程师认证,兼任金融业软件测试框架研究编委会专家,Ai Testing本地化编委会专家,中国金融学会金融科技首批专业委员会专家。担任《研发运营一体化(DevOps)持续测试能力成熟度模型》等6项国家标准规范编委。数字化质量体系建设、自动化测试、精准测试、智能测试、大模型应用等方向经验丰富。            
内容简介:
传统测试行业在经历了60余年的发展后,测试工艺日趋成熟,稳定的测试实施工艺带来了稳定的产出和质量保障,但也让测试工艺的进步陷入了瓶颈期。当下,大模型在各个领域突然爆发出旺盛的生命力,以其智能性,逐渐重塑各个应用行业。在此背景下,测试领域能否借助大模型的特性,进一步突破固有的工艺瓶颈,再次突破测试质量与效率的平衡点,建立起真正智能化的金融测试体系。
                     
演讲提纲:
1、测试+AI,新的发力点
2、质量篇:AI在测试质量管控中的应用
3、效率篇:AI在提升核心自动化能力的应用
4、测试+AI,未来展望
                                                                                                                      
                                                                 
听众受益:
1、了解大模型技术在质量提升中的作用
2、了解大模型技术在效能提升中的作用
3、了解测试工艺未来的发展变化
                   
京ICP备2020039808号-4 京公网安备11011202100922号