出品人:朱少民
“软件工程3.0”定义者
   CCF质量工程SIG主席

同济大学特聘教授、CCF质量工程SIG主席、软件绿色联盟标准评测组组长,近三十年来一直从事软件测试、质量管理等工作,先后获得多项省、部级科技进步奖,已出版了二十多部著作和4本译作,代表作主要有《软件测试方法和技术》、《全程软件测试》、《敏捷测试》等,并经常在国内外学术会议或技术大会上发表演讲,曾任思科(中国)软件有限公司QA高级总监、IEEE ICST2019工业论坛主席、IEEE ICST、QRS、DAS等国际学术会议的程序委员、《软件学报》审稿人等。  

智能体与具身智能

本论坛深入探讨AI在数字化领域中的无限可能,将聚焦于AI智能体技术的最新发展和应用,深入探讨智能体如何模拟人类认知、实现自主学习和智能行为,更好掌控智能体技术的关键特征,包括自主学习、智能交互、智能决策、流程自动化等应用场景。你将与AI业内专家分享最新研究成果、共同探索AI智能体的奇妙世界!

打造自适应AI运维智慧体: 大语言模型在软件日志运维的实践
刘逸伦
华为高级工程师
内容简介:
现有软件日志自动运维技术依赖大量专家数据标注,并且无法输出可靠详尽的定制化根因分析结论。基于大语言模型在通用语言任务方面的潜力,我们考虑多种prompt工程策略,将日志运维的专家先验引入大模型打造自适应运维智慧体。          
                                                                                                                                                                            
演讲提纲:
1、软件日志运维观点&传统日志运维分析的痛点
2、大模型应用于日志运维:构建prompt application引擎
3、大模型知识领域迁移打造运维专精模型
4
、未来畅想
                                                                                       
                                                                 
听众受益:
1、日志分析前沿论文技术分享,大模型在日志分析的前景
2、prompt工程对运维工程师做LLM for 日志分析任务的启发

本科南开大学,硕士毕业于佐治亚理工学院。研究兴趣包括智能运维,大模型微调,数据质量等方向,在ICDE、ICSE、IWQoS、ICPC等国际顶级会议发表多篇第一作者论文。
大模型智能体协同的缩放法则初探
钱 忱
清华大学自然语言处理实验室(THUNLP)博士后
内容简介:
当代大模型驱动的群体协同旨在创建一个多智能体协作运营的虚拟团队,使其在人类用户提出具体任务需求下,通过智能体交互式协同来自主生成完整的解决方案。这一方向实现了高效和经济的推理过程,为自动化解决复杂问题提供了全新的可能性,相关技术有望有效地将人力从传统繁重劳动中解放出来,实现“智能体协助人类工作”的美好愿景。本报告将基于大模型多智能体协同的关键技术,介绍交互、协同、演化等方面的技术进展,并初步探究协同缩放法则,以指导构建高效的多智能系统。        

演讲提纲:
1、从大模型走向自主智能体
2、多智能体系统的分类
3、智能体间如何协同
4、智能体协同的缩放法则
5、总结与展望       

清华大学软件学院博士,现于清华大学自然语言处理实验室(THUNLP)担任博士后,清华大学水木学者,主要研究方向为预训练模型、自主智能体、群体智能;合作导师为孙茂松和刘知远教授,曾在ACL、SIGIR、ICLR、AAAI、CIKM等人工智能、信息管理、软件工程等相关的国际学术会议或期刊上以第一作者身份发表论文数篇。在群体智能方面,主持发布了大语言模型驱动的群体协作框架ChatDev、群体共学习范式Co-Learning、群体协同网络MacNet,并参与构建了用于任务完成和社会模拟的多智能体平台AgentVerse。其中ChatDev在世界影响力最大的开源平台 Github 上获得超过两万颗星标,受到了国内外众多知名学者和企业的高度评价,人工智能和机器学习领域国际上最权威的学者吴恩达于2024年3月发表智能体方面的最新趋势与洞察,把ChatDev作为唯一代表性案例进行了重点论述。      
基于大模型逻辑推理的根因分析落地实战
文  吉
畅捷通运维总监
内容简介:
通过LLM基于专家故障排查经验、业务系统架构、CMDB等关键信息进行推理,从而调度编排根因分析逻辑因子的执行,并将分析结果汇总呈现,旨在解决运维报警分析场景高度依赖专家经验等非结构化数据,且传统大语言模型不擅长大数据计算的问题。

演讲提纲:
1、数据集的构建:基于专家排障经验、业务系统架构和CMDB构建大模型数据集。
2、报警数据治理:为了让大模型更好的进行逻辑推理,需要统一报警内容的格式,从资源类别、报警类别等诸多角度进行明细化分类,让每个报警类型都能对应专家的排障经验形成二叉树,让LMM更好的进行推理。
3、根因分析逻辑因子构建:逻辑因子是为了补充大模型大数据计算的短板,我们为不同的数据源、数据类型定义了一系列分析工具(比如单指标分析、多指标分析、微服务性能分析、数据库分析、硬件资源瓶颈分析等),每种因子将数据源、实例等都作为动态入参接收,分析后的结果分为正常和异常两类,供大模型编排调用。同时支持运维专家按照因子构建规范自定义脚本或者自定义API,从而提高了因子的可扩展性。
4、流程编排和prompt工程:这个过程包含了复杂的逻辑推理和任务编排调度,我们将分享我们在LLM工程的流程编排和prompt工程的最佳实践。
5、算法逻辑的模型建设,提升了智能诊断场景的落地。

听众受益:   
1、通过流程编排的方式,将大模型应用与业务逻辑因子串联,既发挥了大模型逻辑推理、文本分析的能力,又规避了其数据分析、贴近业务场景能力略微不足的短板,此最佳实践可以平移至其他领域。
2、不论是否是运维领域的用户,都可以在本次分享中获得新的思路。
3、智能机器人辅助运维排障能力,实现2-5-10的落地。
4、主要是分享ToB 场景下,如果通过智能大模型能力落地和推进 智能机器人的持续升级。

十年以上SRE实战经验,用友集团高级专家,多次对外分享,融合大模型能力升级智能运维,荣获了信通院颁发的“稳定性优秀案例”。
基于eBPF和Agent构建LLM 训练推理优化体系
向  阳
云杉网络研发VP
内容简介:
LLM 的训练和推理需要处理海量的模型参数和数据,当缺乏可观测性时,提高 GPU 利用率非常困难。然而,现有的工具例如 Nsight 缺少 CPU Context,PyTorch Profiler 依赖精巧的插桩。使用 eBPF 可以实现零侵扰、全栈的 LLM 训练过程和推理服务可观测性,本次分享将会介绍使用 eBPF 实现零侵扰的 CPU+GPU 全栈持续剖析以及分布式追踪的实践经验,并介绍如何结合 AI Agent 建设 LLM 训练推理优化的自动驾驶机制。
                                                                                                                                                                            
演讲提纲:
1、LLM 的性能瓶颈以及现有可观测性方法的缺陷
2、使用 eBPF 构建零侵扰、全栈的可观测性
3、在 PyTorch 中的 Profiling 和 Tracing 效果
4、结合智能体实现 MFU、MBU 提升的自动驾驶机制
5、LLM 零侵扰可观测性的演讲方向        
                                                                                                                  
                                                                 
听众受益:
1、了解使用 eBPF 实现零侵扰可观测性的方法
2、了解零侵扰可观测性对训练推理过程的优化效果
3、了解如何结合可观测性与智能体建设自动驾驶机制
 
清华大学博士,云杉网络研发 VP,DeepFlow 开源社区负责人。曾在国际顶级学术会议 ACM SIGCOMM、ACM IMC 上发表可观测性方向的学术论文,现负责可观测性产品 DeepFlow,致力于打造一款为云原生和 AI 应用而生的零侵扰可观测性产品。
京ICP备2020039808号-4 京公网安备11011202100922号