阿里巴巴,股价暴涨!最新成果公布:“用5%的力”,性能比肩满血DeepSeek-R1
3月6日,阿里通义千问大模型团队宣布 ,正式推出最新的推理模型QwQ-32B。
阿里巴巴称,这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的DeepSeek-R1媲美 ,但二者在参数量上相差将近20倍。
据介绍,通过大规模强化学习,千问QwQ-32B在数学、代码及通用能力上实现质的飞跃 ,整体性能比肩DeepSeek-R1,同时大幅降低了部署使用成本,在消费级显卡上也能实现本地部署 。
在数学推理 、编程能力和通用能力的一系列基准测试中 ,通义千问大模型团队将QwQ-32B与OpenAI的o1-mini以及DeepSeek满血版及蒸馏版进行了比较,结果显示,在测试数学能力的AIME24评测集上 ,以及评估代码能力的LiveCodeBench中,QwQ-32B表现与DeepSeek-R1相当,远胜于o1-mini及相同尺寸的R1蒸馏模型。
据介绍,在冷启动基础上 ,阿里通义团队针对数学和编程任务、通用能力分别进行了两轮大规模强化学习。在初始阶段,特别针对数学和编程任务进行了强化学习训练 。与依赖传统的奖励模型不同,通义千问大模型团队通过校验生成答案的正确性来为数学问题提供反馈 ,并通过代码执行服务器评估生成的代码是否成功通过测试用例来提供代码的反馈。
业内人士分析,QwQ-32B的成功表明,将强大的基础模型与大规模强化学习相结合 ,能够在较小的参数规模下实现卓越性能,这为未来通向通用人工智能提供了可行路径。
值得注意的是,尽管DeepSeek-R1拥有6710亿的巨型参数量 ,但由于DeepSeek创新性地使用了MoE(混合专家模型)架构以及MLA(多头潜在注意力机制)的方法,每次推理仅激活370亿参数(占总量的5.5%) 。这使得DeepSeek-R1虽然整体很大,但实际干活时只需要动用一小部分力量 ,能够做到节省资源,高效完成任务。
阿里通义团队表示,未来将继续探索将智能体与强化学习的集成,以实现长时推理 ,探索更高智能进而最终实现AGI的目标。
目前,阿里已采用宽松的Apache2.0协议,将QwQ-32B模型向全球开源 ,所有人都可免费下载及商用,也可以通过阿里云百炼平台直接调用模型API服务 。同时,用户也可通过通义APP免费体验最新的QwQ-32B模型。
3月6日早盘 ,阿里巴巴集团(09988.HK)港股大幅高开涨超6%,截至收盘涨超8%。
3月5日晚,阿里巴巴美股大涨超8% 。
此前 ,2月25日,阿里通义Qwen发布基于旗舰模型Qwen2.5-Max构建的推理模型QwQ-Max-Preview预览版,支持联网搜索 ,会和DeepSeek以及Kimi的推理模型一样展现思考过程.
长江证券研报指出,近期,阿里在AI领域持续发力,践行了其AI驱动战略 ,随着其后续投入的逐步提升,相关成果有望加速迭代,相关成果或将惠及相关产业链 ,加速AI应用落地,进而进一步带动算力需求的爆发。同时,随着阿里在AI基础设施、基础模型平台及AI原生应用 、现有业务的AI转型等三方面加大投入 ,或将引领中国AI产业加速发展。