腾讯混元开源0.5B、1.8B、4B、7B小模型

大模型之家讯 8月4日,腾讯正式发布四款开源小尺寸人工智能模型,参数规模覆盖0.5B、1.8B、4B及7B,支持消费级显卡直接运行,适用于笔记本电脑、手机、智能座舱及智能家居等低功耗场景。此举标志着腾讯混元大模型开源战略的进一步深化,不仅丰富了其开源模型体系,更为开发者和企业提供了从端侧到云端的灵活选择。目前,四款模型已同步上线GitHub和Huggingface等开源社区,Arm、高通、Intel及联发科技等主流芯片平台均宣布支持部署,展现出技术落地的广泛兼容性。

腾讯混元开源0.5B、1.8B、4B、7B小模型

模型核心:低功耗与高性能的精准平衡

这四款模型作为融合推理模型,兼具推理速度与高性价比优势。用户可根据场景需求灵活切换“快思考”模式(输出简洁高效)或“慢思考”模式(处理复杂问题,提供全面推理步骤)。在性能表现上,模型在语言理解、数学推理及逻辑分析等关键领域对标业界同尺寸模型,多个公开测试集得分处于领先水平。其技术亮点集中于agent能力与长文本处理:通过数据构建与强化学习奖励信号的精心设计,模型在任务规划、工具调用及复杂决策中表现卓越,可轻松胜任深度搜索、Excel操作及旅行攻略规划等实际任务。尤为突出的是,模型原生长上下文窗口达256k,相当于一次性处理40万中文汉字或50万英文单词的超长内容,足以完整解析三本《哈利波特》小说的人物关系与剧情细节,并据此进行后续内容推演。

腾讯混元开源0.5B、1.8B、4B、7B小模型
腾讯混元开源0.5B、1.8B、4B、7B小模型

应用落地:从端侧到云端的无缝渗透

部署层面,模型仅需单卡即可运行,支持PC、手机及平板等设备直接接入,且兼容主流推理框架(如SGLang、vLLM及TensorRT-LLM)与多种量化格式,显著降低开发门槛。腾讯已将模型深度整合至多款核心产品:腾讯会议AI小助手与微信读书AI问书助手利用超长上下文能力,实现对完整会议记录或整本书籍的即时理解;腾讯手机管家通过模型提升垃圾短信识别准确率,实现毫秒级拦截且隐私零上传;智能座舱助手采用双模型协作架构,优化车载环境下的低功耗推理体验。在高并发场景中,搜狗输入法在嘈杂环境中增强识别准确率,腾讯地图通过意图分类提升交互效率;金融领域,AI助手实现95%以上的高精度意图识别;游戏业务如QQ飞车手游则在多语言理解与方言翻译中展现突出性能。

开源战略:务实布局引领产业新潮

回顾腾讯混元开源历程,此前已陆续推出52B参数的Hunyuan Large及首个混合推理MoE模型Hunyuan-A13B。在多模态领域,其开源的文生图、视频生成及3D模型能力已衍生出超3000个图像与视频应用,上周发布的混元3D世界模型1.0更迅速登顶Huggingface趋势榜第二,下载量近9000次,技术报告荣登论文热榜榜首。当前,全球开源生态竞争白热化,中国大模型表现日益亮眼,而腾讯以小模型为切入点,避免了大模型的资源消耗与部署门槛,通过“轻量化、高适配”的务实策略,悄然推动产业从云端向端侧迁移。未来,腾讯计划持续扩展模型规模与模态,加速产业落地,与开发者共建开放生态——这场无声的布局,正将开源竞争从“巨头喧嚣”拉回“落地实效”的理性轨道。

原创文章,作者:志斌,如若转载,请注明出处:http://www.damoai.com.cn/archives/11971

(0)
上一篇 2天前
下一篇 2天前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注