在9月9日举办的WAVE SUMMIT深度学习开发者大会上,百度正式推出文心大模型X1.1深度思考模型,并宣布该模型在多个基准测试中达到SOTA水平,整体表现超越DeepSeek R1-0528,与GPT-5及Gemini 2.5 Pro效果相当。这一发布标志着国产大模型在事实性、指令遵循和智能体任务能力方面取得显著进展。

文心大模型X1.1基于文心大模型4.5训练而成,采用迭代式混合强化学习训练框架,通过混合强化学习和自蒸馏数据的迭代生产,有效提升模型在通用任务和智能体任务中的表现。据官方披露,X1.1在事实性方面提升34.8%,指令遵循提升12.5%,智能体任务提升9.6%。该模型已上线文心一言官网、文小言APP及百度智能云千帆平台,面向企业客户和开发者全面开放。

在实际演示中,文心大模型X1.1展现出优秀的复杂任务处理能力。在写作任务中,模型能够结合内化知识与联网搜索功能,准确获取信息并完成创意写作,输出结构清晰、逻辑严谨且语言流畅的内容。在长程任务场景中,如共享单车平台的多层次用户服务流程,X1.1能够自主调用工具、遵循业务流程,并结合用户情绪实现高效问题解决,体现了其作为智能体在实际应用中的潜力。

与此同时,百度还发布了飞桨框架v3.2,显著提升训练效率,在ERNIE-4.5-300B-A47B模型上实现预训练MFU达47%。新版本增强了对类CUDA芯片的适配能力,算子内核复用率最高达92%,并全面兼容Safetensors权重与生态加速库,进一步降低部署成本。大模型高效部署套件FastDeploy通过模型压缩与推理优化,显著提高了端到端推理性能。

百度还开源了思考模型ERNIE-4.5-21B-A3B-Thinking,该模型在多项任务中表现卓越,覆盖内容创作、逻辑推理、数学计算与代码生成等场景。此外,文心大模型开发套件ERNIEKit支持高效调优,仅需4张GPU即可完成ERNIE-4.5-300B-A47B模型的后训练,大幅降低开发门槛。GraphNet数据集的发布也为AI编译器测试提供了标准化基准。

百度智能代码助手文心快码升级至3.5S版本,强化多智能体协同能力,实现“一人即团队”的开发模式。该版本在智能体任务分解、多智能体动态协同与团队知识库构建方面实现突破。目前,文心快码已服务超1000万开发者,百度内部新增代码中AI生成比例达45%,头部用户AI辅助代码比例超过75%。

综合来看,百度通过此次发布进一步巩固了其在AI大模型领域的技术布局与生态建设。文心大模型X1.1的性能提升以及在多项任务中的优异表现,显示出国产模型在国际竞争中的技术进步与应用潜力。然而,大模型的发展仍面临算力成本、数据质量与伦理合规等多重挑战,其长期发展仍需持续观察。

(注:本文在资料搜集、框架搭建及部分段落初稿撰写阶段使用了 AI 工具,最终内容经人类编辑核实事实、调整逻辑、优化表达后完成。)

本文来源于极客网,原文链接: https://www.fromgeek.com/latest/703015.html

分类: 暂无分类 标签: 暂无标签

评论