出品人:何万青
前阿里云高性能计算负责人
英特尔中国 Principal Engineer

现任英特尔数据中心与人工智能集团首席工程师,负责科学与技术计算、云计算相关的处理器产品支持,曾任阿里巴巴资深技术专家,阿里云高性能计算负责人,并在华为、360云、英特尔,摩托罗拉、国电技术担任研发负责人和创业公司 CTO。先后专注于手机 DSP 软件开发(摩托罗拉),高性能计算性能优化 & 异构计算 & 并行存储(英特尔),阿里云超算产品研发与业务。热心产学研合作,先后担任中国计算机学会 CCF YOCSEF 总部副主席,高专委执委,总部荣誉委员,近年作为青工委副主任负责 CCF YEF、CNCC 等年度会议组织工作,阿里云全球科技抗疫领导者。有公众号「四维碎片」。                     

大模型训练与评测

本论坛旨在深入探讨人工智能和大型语言模型(LLM)的性能评估方法。涵盖模型基准测试、评估指标、测试工具和框架、结果解释、模型比较、可解释性和透明度等关键主题。通过分享最新的评测技术和策略,致力于帮助参与者理解AI和LLM的性能,推动评估标准的制定和评测技术的进步。
AIPerf: 面向大规模智能计算系统的负载自适应评测程序
张  琪
清华大学助理研究员
内容简介:
此次分享将介绍团队提出的一种负载可随系统规模与架构特点自动扩展及定制化的人工智能计算系统性能评测程序AIPerf。自2020年开源以来,AIPerf已连续四年发布世界人工智能算力排行榜,辅助国内几十家智算中心和国家超算中心完成智算系统的性能测试与调优。分享将重点介绍在深度学习模型以及大模型场景下,AIPerf在模型选择、负载调整、调优接口、以及评测指标等方面的设计与实现,希望帮助开发者和用户深入了解智能计算系统在不同负载下的性能特征,为系统性能调优提供指导。                        

演讲提纲:
1、智能计算系统性能评测程序的研究现状
2、基于AutoML的负载自适应评测程序
3、面向大模型的负载可定制性能评测程序
4、未来展望

听众受益:
1、了解智能计算系统性能评测的背景与现状
2、了解面向大模型训练与推理的智能计算系统性能评测的挑战
3、了解AIPerf的设计及其在实现和应用方面的经验
清华大学助理研究员,研究方向为智能计算系统性能评测与优化。AIPerf核心成员,设计实现了面向大模型的智能计算系统评测程序AIPerf-LLM。2023年中国超级算力大会AIPerf排行榜的核心组织成员。    
OpenCompass:开源开放的大模型能力评测体系
张松阳
上海人工智能实验室青年研究员  
内容简介:
评测是大模型研发的指南针,如何全面、科学、客观的评测大模型的能力是产学研各界都关心的重点问题。OpenCompass旨在从能力体系、工具链、评测数据和模型榜单多个维度对大模型评测进行体系建设和技术研发。本演进将介绍OpenCompass在大模型评测上的具体实践和相关思考。               

演讲提纲:
1、大模型评测的重要性和意义
2、大模型评测主要方法
3、OpenCompass评测体系介绍
4、大模型评测前沿技术方向

听众受益:
1、了解大模型评测得基本概念和方法
2、熟悉主流的大模型评测体系和工具
3、了解主流大模型能力水平排名
上海人工智能实验室青年研究员,研究方向为大语言模型与多模态模型。他带领团队研发的OpenCompass 司南大模型能力评测体系,作为唯一国产的大模型评测体系,荣获Meta公司推荐,也被包括微软、阿里巴巴、腾讯、百度等30余家国内外知名大模型企业和研发机构采用。            
RWKV,引领大模型架构变更的新型RNN
林玥煜 
元始智能算法工程VP
内容简介:
RWKV是新一代架构的大模型,兼具Transformer和RNN的优势:推理效率高且速度恒定,显存占用少且恒定,支持无限上下文,对芯片友好(没有KV Cache)。目前已经发展到第六代,已经发布了1.6B,3B,7B版本,即将发布14B的版本。在同级别尺寸上提供了和竞争对手相当的准确性以及指数级提升的推理性能。        

演讲提纲:
1、RWKV的历史
2、RWKV架构的特点
3、RWKV的基础模型
4、RWKV的落地场景
5、RWKV未来的发展方向
6、RWKV在各主流评测的分数以及我们对主流评测的看法
 
原始智能算法工程VP,曾任大数医达科技有限公司算法总监,阿里巴巴数据事业部系统架构师,多年来深耕大数据、人工智能在工业界应用和开发管理。对大语言模型在严肃医疗场景的应用、开发拥有丰富的实战经验。        
大模型的参数高效微调
沈 为
上海交通大学教授  
内容简介:
随着大模型时代的到来,在下游任务中应用大模型去突破性能瓶颈逐渐成为一种趋势。为了减轻下游任务中的训练负担,面向大模型的参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)算法正成为一个研究热点。尽管近年来PEFT领域发展迅速,但不同PEFT方法背后的数学基础几乎没有得到深入研究。此外,不同PEFT方法之间的性能差异及其原因尚未系统地探讨。本次报告中,报告人将介绍如何基于矩阵分解和子空间分解理论,将所有已知的PEFT方法统一在子空间微调的框架下,并深入探讨不同方法如何操作子空间,从分解理论的角度阐明了每种方法的数学原理。此外,报告人将分析为什么这些方法会导致性能差异,提供了理解不同PEFT策略内在动态的全面理论基础。最后,报告人将结合自身最新研究成果和该领域的发展动态,全面展开对PEFT研究方向和实际应用价值的探讨。        

演讲提纲:
1、参数高效微调的发展背景
2、参数高效微调的研究现状
3、参数高效微调统一框架 —— 子空间微调
4、基于子空间重建的参数高效微调
1)对奇异值进行调整
2)对奇异向量的简单调整
3)对奇异向量的复杂调整
5、基于子空间拓展的参数高效微调
1)LoRA及其系列方法
2)Adapter及其系列方法
6、基于子空间结合的参数高效微调
7、报告人团队的代表性工作:如FLoRA(FLoRA会在6a中涉及到)
8、未来展望和总结

听众受益:
1、针对参数高效微调算法的发展和现状有一定的了解
2、深入了解参数高效微调算法底层数学逻辑
3、启发听众从事参数高效微调相关工作,推进相关落地场景的部署
上海交通大学人工智能研究院长聘教轨教授,博士生导师,国家优青,上海市海外高层次引进人才。研究方向为计算机视觉和医学影像处理,发表IEEE TPAMI、IEEE TIP、IEEE TMI、NeurIPS、CVPR、ICCV等人工智能相关领域顶级期刊和会议50多篇,谷歌学术引用1万多次。担任NeurIPS 2023/2024、CVPR 2022/2023、ACCV 2022领域主席,担任SCI一区期刊Pattern Recognition编委、上海市计算机学会计算机视觉专委副主任。代表性工作获得MICCAI 2023青年科学家奖。    
京ICP备2020039808号-4 京公网安备11011202100922号