清华DeepSeek推出SPCT技术:AI训练成本大降,性能飙升?

近期,一种名为SPCT的前沿技术引起了业界的广泛关注。该技术通过一种独特的递归架构,显著提升了AI模型在推理过程中的自我修正能力,确保了输出结果的准确性和可靠性。

在SPCT技术的冷启动阶段,一个生成模型(GRM)被精心训练,以适应多样化的输入类型,并学会以正确的格式生成原则和点评内容。这一步骤为后续的优化奠定了坚实的基础。

清华DeepSeek推出SPCT技术:AI训练成本大降,性能飙升?

紧接着,进入基于规则的在线强化学习阶段。在这一阶段,通过引入创新的规则奖励机制,模型不断优化其生成的原则和点评内容,显著提升了推理阶段的可扩展性。这种机制使得模型能够在实际应用中不断学习和进步。

在测试中,一款配备270亿参数的DeepSeek-GRM模型展现了令人瞩目的性能。通过每查询32次采样的推理计算,该模型达到了与671B规模模型相媲美的水平。这一成果充分展示了SPCT技术的强大潜力。

清华DeepSeek推出SPCT技术:AI训练成本大降,性能飙升?

DeepSeek-GRM模型还采用了硬件感知设计,融合了混合专家系统(MoE),支持高达128k token的上下文窗口,且单查询延迟仅为1.4秒。这一设计使得模型在实际应用中能够更高效地处理复杂任务。

在成本方面,SPCT技术也展现出了显著的优势。以DeepSeek-GRM模型为例,其训练成本仅为1.2万美元,远低于同类模型动辄数百万美元的成本。与OpenAI的GPT-4o模型相比,DeepSeek-GRM的成本更是低至后者的1/525,实现了极大的成本优化。

SPCT技术还极大地减少了人工标注的需求,降低了人力成本。据统计,该技术能够减少90%的人工标注工作,使得模型训练更加高效和经济。同时,相较于传统方法,SPCT的能耗降低了73%,更加符合当前环保节能的发展趋势。

由于SPCT技术出色的性能和低延迟设计,它为实时机器人控制等动态场景提供了新的可能性。这一技术的应用将有望推动相关领域的发展,为人类社会带来更多的便利和进步。


编辑 举报 2025-04-11 09:01

0个评论

暂无评论...
验证码 换一张
相关内容