【CNMO科技消息】据CNMO了解,2月7日,腾讯科技(深圳)有限公司申请的“大语言模型的训练方法、装置、计算机设备及存储介质”专利正式公布。这一技术通过在模型训练中引入多重摘要文本的对比学习机制,显著提升了模型的泛化能力与生成准确性,为AI语言处理领域提供了新的方向。
根据专利摘要,腾讯的新方法创新性地引入“第一摘要文本”与“第二摘要文本”,两者信息量不同且前者包含正确与错误语句的混合。模型通过对比这两种摘要,学习区分正确与错误表达,同时减少单一数据源导致的过拟合问题。这种设计不仅扩展了模型的学习维度,还通过动态调整优化了生成结果的可靠性。
CNMO注意到,该方法与近年来对比学习在文本摘要领域的应用趋势相契合。此前研究显示,对比学习通过构造正负样本调整模型表示空间,已在提升摘要质量、缓解暴露偏差等方面取得成效。腾讯此次将对比学习框架融入大语言模型训练,进一步拓展了该技术的应用边界。
有媒体分析称,腾讯的专利通过多样化摘要文本及对比机制,为模型提供了更贴近真实应用的学习环境,尤其对智能客服、内容生成等需高精度输出的领域具有直接意义。此外,该技术或能加速大模型落地进程。例如,在短文本对话场景中,腾讯曾推出基于混合注意力机制的对话模型专利,若结合新训练方法,有望进一步提升回复的相关性与丰富性。
可以看到,腾讯近年来在大语言模型领域动作频频,从2023年的微调方法专利到此次训练框架创新,显示出其全链条技术布局的野心。