内容简介:
随着大模型时代的到来,在下游任务中应用大模型去突破性能瓶颈逐渐成为一种趋势。为了减轻下游任务中的训练负担,面向大模型的参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)算法正成为一个研究热点。尽管近年来PEFT领域发展迅速,但不同PEFT方法背后的数学基础几乎没有得到深入研究。此外,不同PEFT方法之间的性能差异及其原因尚未系统地探讨。本次报告中,报告人将介绍如何基于矩阵分解和子空间分解理论,将所有已知的PEFT方法统一在子空间微调的框架下,并深入探讨不同方法如何操作子空间,从分解理论的角度阐明了每种方法的数学原理。此外,报告人将分析为什么这些方法会导致性能差异,提供了理解不同PEFT策略内在动态的全面理论基础。最后,报告人将结合自身最新研究成果和该领域的发展动态,全面展开对PEFT研究方向和实际应用价值的探讨。
演讲提纲:
1、参数高效微调的发展背景
2、参数高效微调的研究现状
3、参数高效微调统一框架 —— 子空间微调
4、基于子空间重建的参数高效微调
1)对奇异值进行调整
2)对奇异向量的简单调整
3)对奇异向量的复杂调整
5、基于子空间拓展的参数高效微调
1)LoRA及其系列方法
2)Adapter及其系列方法
6、基于子空间结合的参数高效微调
7、报告人团队的代表性工作:如FLoRA(FLoRA会在6a中涉及到)
8、未来展望和总结
听众受益:
1、针对参数高效微调算法的发展和现状有一定的了解
2、深入了解参数高效微调算法底层数学逻辑
3、启发听众从事参数高效微调相关工作,推进相关落地场景的部署
上海交通大学人工智能研究院长聘教轨教授,博士生导师,国家优青,上海市海外高层次引进人才。研究方向为计算机视觉和医学影像处理,发表IEEE TPAMI、IEEE TIP、IEEE TMI、NeurIPS、CVPR、ICCV等人工智能相关领域顶级期刊和会议50多篇,谷歌学术引用1万多次。担任NeurIPS 2023/2024、CVPR 2022/2023、ACCV 2022领域主席,担任SCI一区期刊Pattern Recognition编委、上海市计算机学会计算机视觉专委副主任。代表性工作获得MICCAI 2023青年科学家奖。