当前位置:南方企业新闻网 » 要 闻 » 企业要闻 » 正文

大模型高效微调新突破,奇富科技PrAd框架入选EMNLP 2025

2025-08-27 10:05:53 来源:南方企业新闻网

在全球人工智能技术激烈竞争、大模型加速赋能产业的关键阶段,高效微调技术成为推动落地的核心突破口。近日,奇富科技在大模型高效参数微调领域的最新研究成果PrAd: Prompt Adaptive Tuning for Decoder-only Language Models被国际顶级NLP学术会议EMNLP 2025 Findings收录。这意味着中国科技企业在人工智能基础研究方面再次获得国际学术界的认可。

EMNLP(Conference on Empirical Methods in Natural Language Processing)是自然语言处理(NLP)领域最顶级、最具影响力的国际学术会议之一,与ACL和NAACL共同构成NLP领域的“三大顶会”。其以极严的评审流程、极低的录取比例著称,是全球NLP研究者发布成果、交流思想的首选平台。此次奇富科技的研究成果被 EMNLP 2025 收录,标志着公司在人工智能基础研究与技术创新方面持续取得重要进展。

随着大语言模型在各实际业务场景中广泛落地,如何高效、低成本地实现多任务适配成为行业共性难题。传统的全参数微调方法虽效果显著,但计算和存储成本极高;而现有的参数高效微调方法如Prompt Tuning和Adapter Tuning等,仍存在训练不稳定、推理延迟高、序列膨胀等局限。

为解决这些痛点,奇富科技研究团队提出了一种面向Decoder-only架构大模型的全新微调框架PrAd。该方法创新性地将结构优化与推理流程深度融合,仅在预填充(Prefill)阶段引入轻量Adapter模块对提示进行特征变换,而在解码(Decoding)阶段则完全保持原始结构,不引入任何额外计算。

PrAd框架在三个方面实现显著突破:

训练效率高:不增加输入长度,初始化简单,训练稳定性强,效果可比甚至超越主流基线;

推理高效:仅在第一个token生成时增加微小延迟,后续解码不引入额外开销,支持多任务共享批推理,实测速度在多任务场景下较LoRA提升最高超10倍;

运维成本大幅降低:Adapter管理规模和显存占用降幅可达50%,简化多任务模型的部署与批量推理流程。

实验结果表明,PrAd在六项多样化NLP任务上均取得了与最优方法相当或更优的表现,同时在推理效率和资源利用率方面展现出显著优势,尤其适用于金融领域常见的多任务、高并发、低延迟应用场景。

奇富科技首席算法科学家费浩峻表示:“PrAd不仅是一项技术突破,更是奇富‘科技赋能金融’理念的具体实践。我们致力于推动大模型在金融场景中的高效、可靠、规模化应用。”未来,奇富科技将继续加大在 AI 基础模型、高效微调、可信计算等方向的研发投入,推动更多科研成果转化为实际生产力,助力金融行业智能化升级。

责任编辑:蔡媛媛
分享到:

相关推荐

白羽肉鸡祖代种鸡全年更新量有望突破150万套

今年第四季度以来,祖代种鸡更新量的意外跃升,正悄然改写未来一到两年白羽肉鸡的市场格局。山东卓创资讯股份有限公司(以下简称“卓创资讯”)最新调研数据显示,2025年12月份,国内白羽肉鸡祖代种鸡更新量预计可达18万套,...【详细】

证券日报食品2025/12/16

突破想象! AI机器人成为实验室“主力军”

化学实验如何告别传统“试错法”,破解新物质制作周期长、成本高的难题?在中国科学技术大学精准智能化学全国重点实验室里,大模型成为科研“超级助手”,AI机器人成为实验室“主力军”。可以自主设计实验方案、24小时不间断做实...【详细】

经济参考报科 技2025/12/15

今年电影总票房已突破500亿元 贺岁档被寄予厚望

灯塔专业版数据显示,截至12月13日,2025全年总票房已突破500亿元,较去年同期提升22%。这是继2017年、2018年、2019年和2023年之后,年度票房第五次突破500亿元大关。其中,贺岁档(2025年11...【详细】

中国网经济参考2025/12/15