近日,我校“善思讲坛”中青年学术讲座在中德创新园7号楼401会议室举办。本次讲座特邀安徽大学计算机学院的穆林副教授,以“面向大语言模型的高效适配方法”为主题,进行了生动的演讲。
报告指出,随着大语言模型(LLM)参数规模的不断攀升,全参数微调带来的高昂算力成本已成为制约其广泛应用的瓶颈。针对这一痛点,他系统探讨了在冻结预训练模型主体参数的情况下,通过引入少量可训练结构实现任务适配的“高效适配”技术路径。穆林副教授从参数效率、表达能力和多任务泛化三个核心维度出发,深入剖析了现有主流方法的优势与局限,并分享了其团队提出的一系列优化策略。通过展示在自然语言理解、常识推理及算术推理等多个权威基准上的大量实验数据,有力地验证了高效适配方法能够在显著降低训练成本的同时,达到甚至超越全参数微调的性能水平。这一研究成果为大语言模型在资源受限环境下的学术研究与工程应用提供了重要的理论依据与技术支撑。
与会教师及学生就大模型推理机制、微调策略选择及未来发展趋势等问题与穆林副教授进行了深入探讨,穆林副教授对大家的提问给予了细致解答。
【主讲人简介】
穆林,博士,安徽大学计算机科学与技术学院副教授。主要研究方向包括大模型推理与参数高效微调等。近年来在ACL、EMNLP、TKDE等国内外重要学术会议与期刊上发表论文20余篇,并担任NeurlPS、AAAI、SIGIR等多个国际顶级学术会议的程序委员。

(人工智能与大数据学院 撰稿:蒋越 初审:嵇圣硙 复审:吴志泽 终审:胡萍)