8 月 4 日消息,腾讯混元今日发布了四款开源的小尺寸模型,参数分别为 0.5B、1.8B、4B、7B,消费级显卡即可运行,适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,且支持垂直领域低成本微调。

目前,四个模型均在 Github 和 Huggingface 等开源社区上线,Arm、高通、英特尔、联发科技等多个消费级终端芯片平台也都宣布支持部署。
新开源的 4 个模型属于融合推理模型,具备推理速度快、性价比高的特点,用户可根据使用场景灵活选择模型思考模式 —— 快思考模式提供简洁、高效的输出;而慢思考涉及解决复杂问题,具备更全面的推理步骤。
效果上,四个模型均实现了跟业界同尺寸模型的对标,特别是在语言理解、数学、推理等领域有出色表现,在多个公开测试集上得分达到了领先水平。
这四个模型的亮点在于 agent 和长文能力,跟此前开源的 Hunyuan-A13B 模型一样,技术上通过精心的数据构建和强化学习奖励信号设计,提升了模型在任务规划、工具调用和复杂决策以及反思等 agent 能力上的表现,让模型实际应用中可以胜任深度搜索、excel 操作、旅行攻略规划等任务。

此外,模型原生长上下文窗口达到了 256k,意味着模型可以一次性记住并处理相当于 40 万中文汉字或 50 万英文单词的超长内容,相当于一口气读完 3 本《哈利波特》小说,并且能记住所有人物关系、剧情细节,还能根据这些内容讨论后续故事发展。
部署上,四个模型均只需单卡即可部署,部分 PC、手机、平板等设备可直接接入。并且,模型具有较强的开放性,主流推理框架(例如,SGLang,vLLM and TensorRT-LLM)和多种量化格式均能够支持。
应用层面,四款小尺寸模型都能够满足从端侧到云端、从通用到专业的多样化需求,并且已经在腾讯多个业务中应用:
在大语言模型领域,腾讯混元此前陆续开源了激活参数量达 52B 的 hunyuan large 和首个混合推理 MoE 模型 Hunyuan-A13B。
多模态方面,混元还开放了完整多模态生成能力及工具集插件,陆续开源了文生图、视频生成和 3D 生成能力,提供接近商业模型性能的开源基座,方便社区基于业务和使用场景定制,图像、视频衍生模型数量达到 3000 个。上周,腾讯发布并开源了混元 3D 世界模型 1.0。
1AI附开源地址:

【Github】
【HuggingFace】