小米开源“XiaomiMiMo”大模型:以7B参数超越OpenAIo1-mini

f2g7586549kz
预计阅读时长 3 分钟
位置: 首页 实时动态 正文

本站全国服务客服维修电话:
400--117--9882(温馨提示:点击屏幕下方↓↓↓拨号预约)

ZAKER 科技 4 月 30 日消息,"Xiaomi MiMo" 公众号今日发文宣布,小米开源首个 " 为推理而生 " 的大模型 Xiaomi MiMo,联动预训练到后训练,全面提升推理能力。据介绍,MiMo 是来自全新成立不久的 " 小米大模型 Core 团队 " 的初步尝试。

在数学推理(AIME 24-25)和代码竞赛(LiveCodeBench v5)公开测评集上,MiMo 仅用 7B 的参数规模,超越了 OpenAI 的闭源推理模型 o1-mini 和阿里 Qwen 更大规模的开源推理模型 QwQ-32B-Preview。

官方表示,MiMo 推理能力的提升,由预训练和后训练阶段中数据和算法等多层面的创新联合驱动,包括:

预训练:核心是让模型见过更多推理模式数据:着重挖掘富推理语料,并合成约 200B tokens 推理数据。训练:进行了三阶段训练,逐步提升训练难度,总训练 25T tokens。

后训练:核心是高效稳定的强化学习算法和框架算法:提出 Test Difficulty Driven Reward 来缓解困难算法问题中的奖励稀疏问题,并引入 Easy Data Re-Sampling 策略,以稳定 RL 训练。框架:设计了 Seamless Rollout 系统,使得 RL 训练加速 2.29 倍,验证加速 1.96 倍。

头像
美团即时零售在北京日均单量超100万
« 上一篇 2025-04-30
质疑归质疑,但巴纳德学院真不是野鸡大学
下一篇 » 2025-04-30
声明:1、文章内容均来自互联网用户,不代表本站立场,本站不对内容的真实性、完整性、准确性给予任何担保、暗示和承诺,严禁浏览者根据内容形成判断与决定,浏览者所做的任何判断与决定与本文无关。2、本网站内容和电话均非官方渠道提供。如发现本站有涉嫌抄袭侵权/违法违规的内容请联系,一经查实,本站将立刻删除。

取消
微信二维码
支付宝二维码

似水流年

今日已经过去小时
这周已经过去
本月已经过去
今年已经过去个月
«    2025年4月    »
123456
78910111213
14151617181920
21222324252627
282930
点击拨打电话

目录[+]