出品人:杨  萍
字节跳动 Code团队技术负责人
现就职于字节跳动,任字节跳动Code团队技术负责人,负责代码相关基础技术与智能化建设,曾带领团队孵化并落地多个行业领先的端质量产品,如Fastbot、SmartEye等产品,也对目前AI技术在研发效能的应用有较多的了解。 

AIGCode质量提升

本论坛专注于利用人工智能技术优化代码质量。将探讨代码生成、LLM赋能代码评审、单元测试生成、LLM赋能代码分析、缓解代码生成幻觉问题等关键技术。同时,将分享AI在提升软件开发生命周期中代码质量的实际应用案例,旨在通过智能技术提升AIGC的质量。
AI生成checklist实践
崔  宸
去哪儿旅行高级开发工程师
内容简介:
随着ChatGPT的广泛应用,大量的自然语言处理工作得以自动化。而在测试流程中,checklist的编写是qa角色对需求文档这样一种自然语言的梳理,翻译以及理解的过程,因此可以借助大模型AI对需求文档进行自动化生成checklist的工作,从而降低人工成本。在qunar内部,对于非自测自发的项目,往往需要qa花费0.5pd以上项目外工时进行编写;对于自测自发的项目,则没有checklist编写与核对的步骤,开发自测的质量不能很好的把控。因此,引入大模型AI后可以缩短非自测自发项目qa的chekclist工时,并且自动为自测自发项目生成chekclist辅助开发自测,提高项目开发及测试的效率与质量。             
                                                                                                                                                                            
演讲提纲:
1、项目背景
2、设计方案
3、自动评估
4、成果
                                                                                                                  
                                                                 
听众受益:
1、了解AI生成checklist的prompt技巧
2、了解AI在测试域提效的效果测量方案
     
2022年加入去哪儿旅行基础架构-基础平台团队,主要负责测试域工具的研发。参与过自动化测试、联调平台、写压测等项目,对录制回放场景有深入了解。
熟悉AI大模型通识,23年开始主攻AI大模型应用方向,完成AI在测试域、需求域提效的应用落地。在去哪儿AIGC HACKATHON大赛获得冠军。
CR Copilot - 智能化代码评审的探索与实践
内容简介:
代码评审(Code Review, CR)是确保代码质量的重要途径之一。在软件开发过程中,CR高频出现,是软件开发过程中至关重要的一部分;但同时面临着评审不及时、评审缺失、评审耗时耗力、评审内容质量低下等诸多问题。基于LLM的智能化技术为自动评审带来了新的机遇与挑战,为了解决上述问题,本议题立足于代码评审场景,介绍智能化CR的一些探索和实践。                                                                                                                                  
演讲提纲:
1、代码评审的背景介绍:包括代码评审的基本概念和范畴、代码评审的企业价值和痛点分析;
2、智能化CR的现状分析:包括学界/业界主流的智能化CR的技术进展分析与主流产品介绍、智能化技术给企业CR带来的机遇与挑战;
3、智能化CR在腾讯的实践之路:包括智能化CR在腾讯的整体架构介绍、智能化CR的技术细节分享、智能化CR在腾讯的落地成果分享;
4、智能化CR的未来与展望:包括智能化CR未来发展的前瞻分析以及后续智能化CR在企业落地的业务展望。  

                                                                                     
                                                               
听众受益:
1、了解大模型技术如何在工业界的代码评审场景下落地实践,掌握学/业界智能化CR的最新技术动态与进展;
2、 了解智能化CR的LLM实践的整体布局思路,掌握基本的大模型赋能CR场景的具体技术细节;
3、了解LLM技术在软件开发全链路的代码评审环节中提质增效的关键作用。
王  敏
腾讯Code平台中心高级研究员 
腾讯 Code平台中心 代码智能化团队高级研究员,目前主要负责腾讯工蜂Copilot的代码生成/补全、代码评审等相关智能化研究工作,保障腾讯内部开发团队的代码质量,提升公司内部团队的软件研发效率。毕业于北京大学,软件工程专业,博士学历。曾在软件工程领域的ASE、FSE、TSE、TOSEM、软件学报等国内外顶级会议期刊上发表多篇学术论文;曾参与国家重点研发计划《基于大数据的软件智能开发方法和环境》的课题项目。毕业后就职于腾讯公司,从事代码智能化等方面的研究开发工作。
借助软件分析工具和agent来提升AIGC代码质量

李力行
 北京硅心科技COO
内容简介:                     
软件研发领域的基于大模型的智能化,是当前软件开发技术与工具的关注热点和发展趋势,越来越多的企业对于基于代码大模型的智能化软件研发应用有强烈需求,但同时也面临诸多挑战。aiXcoder团队在该领域的探索和实践已有10年时间,是基于AI的智能化开发领域的开拓者和推动者。本报告将围绕基于大模型的软件开发技术与范型,汇报aiXcoder在代码大模型以及Agent for code领域的最新进展,分享aiXcoder在代码大模型企业落地实践方面的一些探索与思考。
                 
演讲提纲:
1、智能化软件研发发展趋势;
2、代码大模型构建及效果评测;
3、智能化开发工具代码生成质量及用户体验提升;
4、基于agent的代码生成质量提升;
5、企业真实软件开发场景中的代码生成质量提升;
6、未来软件开发发展。
                                                                                                                                                                   
听众受益:
1、针对软件开发的代码大模型的特点和构建方法;
2、代码大模型与企业领域知识结合的方法;
3、代码大模型对软件研发范式产生的变化。
北大/中科院数学与系统科学院 计算机软件与理论博士,现任aiXcoder COO,负责公司产品和技术研发,包括aiXcoder代码大模型构建、智能化软件开发系统的设计和应用落地。曾任阿里优酷搜索团队算法负责人、医疗AI创业公司联合创始人及CIO。
京ICP备2020039808号-4 京公网安备11011202100922号