国产类脑脉冲大模型“瞬悉1.0”问世,能否打破算力依赖?
国产类脑脉冲大模型“瞬悉1.0”问世,能否打破算力依赖?
近日,中国科学院自动化研究所李国齐、徐波团队与沐曦 MetaX 合作,成功研发出全球首款类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0)。该模型在国产千卡 GPU 算力平台上完成全流程训练和推理,实现了超长序列推理任务中效率和速度的数量级提升。这一突破引发了广泛关注:在人工智能领域普遍依赖高算力资源的背景下,“瞬悉1.0”是否能够成为降低算力依赖的有效路径?
“瞬悉1.0”的核心创新在于其借鉴了大脑神经元的内生复杂性机制,提出了一种新型的非 Transformer 架构。传统 Transformer 模型在处理长序列时面临计算和内存复杂度二次增长的问题,而“瞬悉1.0”通过脉冲神经元模型和线性注意力机制的融合,显著降低了计算负担。研究团队在理论上建立了脉冲神经元动力学与线性注意力之间的联系,指出现有线性注意力机制仅是树突计算的简化形式,从而为模型性能的持续优化提供了清晰的理论支撑。
在技术实现层面,“瞬悉1.0”包含两个版本:开源的 7B 参数模型(SpikingBrain-1.0-7B)和提供测试的 76B 参数混合复杂度模型(SpikingBrain-1.0-76B,激活参数量为12B)。这些模型在沐曦国产 GPU 曦云 C550 集群上完成了训练与推理,并配套开发了高效的并行计算框架、Triton 算子库和通信原语。实验结果表明,该模型在保持较高精度的同时,大幅减少了长序列推理过程中的计算和存储开销。
从算力依赖的角度来看,“瞬悉1.0”展现出一定的潜力。其架构设计通过降低复杂度,减少了对大规模算力的即时需求,尤其适用于法律文本分析、医疗影像处理、科学模拟等超长序列应用场景。此外,全流程国产化实现了从硬件到算法的自主可控,有助于缓解对外部高性能芯片的依赖。
然而,能否真正“打破”算力依赖,仍需客观评估。当前模型仍依赖于千卡级 GPU 集群进行训练,说明其对算力资源的需求并未完全消除,而是通过架构优化实现了更高效的利用。另一方面,脉冲神经网络(SNN)和类脑计算尚未在广泛任务中证明其通用性与竞争力,其实际应用效果和可扩展性仍需进一步验证。
李国齐研究员指出,该成果不仅提供了更高效的建模工具,还将推动下一代神经形态计算理论和芯片设计的发展。这意味着,“瞬悉1.0”可能成为降低算力瓶颈的探索方向,但其成熟与推广还需产学研多方的持续努力。
总体而言,“瞬悉1.0”的问世是我国在类脑计算与大模型融合领域的重要进展,为构建自主可控的人工智能基础设施提供了新的可能性。它在特定场景中确实具备降低算力需求的潜力,但要实现广泛意义上的“打破算力依赖”,仍需在理论创新、工程实践和生态建设方面取得更多突破。
(注:本文在资料搜集、框架搭建及部分段落初稿撰写阶段使用了 AI 工具,最终内容经人类编辑核实事实、调整逻辑、优化表达后完成。)
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

本文来源于极客网,原文链接: https://www.fromgeek.com/ai/702901.html
本网站的所有内容仅供参考,网站的信息来源包括原创、供稿和第三方自媒体,我们会尽力确保提供的信息准确可靠,但不保证相关资料的准确性或可靠性。在使用这些内容前,请务必进一步核实,并对任何自行决定的行为承担责任。如果有任何单位或个人认为本网站上的网页或链接内容可能侵犯其知识产权或存在不实内容,请及时联系我们沟通相关文章并沟通删除相关内容。
评论