您的位置: 首页 > 实时讯息 >

腾讯自研的推理模型来了:性能比肩DeepSeek-R1,价格是其四分之一

0次浏览     发布时间:2025-03-22 11:29:00    

21世纪经济报道记者白杨 北京报道

3月21日深夜,腾讯宣布推出自研深度思考模型混元T1正式版,并同步在腾讯云官网上线。

一个有意思的现象是,无论是前几天阿里发布推理模型QwQ-32B,还是这次腾讯发布混元T1,都选在了国内的深夜时段。据记者了解,他们这样做的目的,是因为这些模型都会面向海外开发者,这也进一步说明中国大模型已真正走向海外。

据腾讯介绍,混元T1正式版通过大规模强化学习,并结合数学、逻辑推理、科学和代码等理科难题的专项优化,推理能力得到进一步提升。与此前已上线腾讯元宝的混元T1-preview模型相比,综合效果也有了明显提升。

在一些常见的基准测试上,比如大语言模型评估增强数据集MMLU-PRO中,混元T1的评分仅次于OpenAI-o1,优于DeepSeek-R1。

在评估逻辑推理能力的DROP F1测试中,混元T1的评分也优于DeepSeek-R1和OpenAI-o1。不过在数学和代码能力测试中,混元T1的评分都低于DeepSeek-R1。在中文语言理解能力方面,混元T1与DeepSeek-R1的评分齐平。

整体来看,混元T1正式版的成绩已经达到了业界领先推理模型的水平。但腾讯官方此次并未披露混元T1的参数量级,所以并不清楚其是用多少训练数据实现这一性能。

另外值得一提的是,混元T1是以腾讯快思考模型混元Turbo S为基座打造。

混元Turbo S于今年2月底发布,腾讯混元团队当时就表示,Turbo S将作为旗舰模型,成为腾讯混元系列衍生模型的核心基座,为推理、长文、代码等衍生模型提供基础能力。

与DeepSeek R1等慢思考模型不同,混元Turbo S更强调“秒回、吐字快”,并且更善于超长文本处理。

这是因为混元Turbo S在架构方面创新性地采用了Hybrid-Mamba-Transformer融合模式。通过这种融合,混元Turbo S一方面可以发挥Mamba高效处理长序列的能力,另一方面也能保留Transformer擅于捕捉复杂上下文的优势。

因此,该架构有效降低了传统Transformer结构的计算复杂度,减少了KV-Cache的内存占用,从而显著降低了训练和推理成本,让混元T1吐字速度达到最快80 tokens/s。

据了解,混元Turbo S是工业界首次成功将Mamba架构无损地应用在超大型MoE模型上,而混元T1则是工业界首次将混合Mamba架构无损应用于超大型推理模型上。

价格方面,混元T1的输入价格为每百万tokens 1元,输出价格为每百万tokens 4元。这与DeepSeek-R1目前夜间时段(00:30-08:30)的价格相同,但在标准时段,混元T1的价格则是DeepSeek-R1的四分之一。

更多内容请下载21财经APP

相关文章

网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 笨百科 鲁ICP备2024053388号-2