AIGC宇宙 AIGC宇宙

腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型

作者:沛霖(实习)
2024-11-05 04:13
腾讯今日宣布推出 Hunyuan-Large 大模型,官方表示这是目前业界已经开源的基于 Transformer 的最大 MoE 模型,拥有 3890 亿总参数(389B)和 520 亿激活参数(52B)。 腾讯今日在 Hugging Face 开源了 Hunyuan-A52B-Pretrain 、 Hunyuan-A52B-Instruct 和 Hunyuan-A52B-Instruct-FP8。 并发布了技术报告和训练推理操作手册,详细介绍了模型能力和训练与推理的操作。

腾讯今日宣布推出 Hunyuan-Large 大模型,官方表示这是目前业界已经开源的基于 Transformer 的最大 MoE 模型,拥有 3890 亿总参数(389B)和 520 亿激活参数(52B)。

腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型

腾讯今日在 Hugging Face 开源了 Hunyuan-A52B-Pretrain 、 Hunyuan-A52B-Instruct 和 Hunyuan-A52B-Instruct-FP8。并发布了技术报告和训练推理操作手册,详细介绍了模型能力和训练与推理的操作。

其中模型技术优势如下:

  • 高质量合成数据:通过合成数据增强训练,Hunyuan-Large 能够学习到更丰富的表示,处理长上下文输入,并更好地泛化到未见数据

  • KV 缓存压缩:采用分组查询注意力(GQA)和跨层注意力(CLA)策略,显著减少了 KV 缓存的内存占用和计算开销,提高了推理吞吐

  • 专家特定学习率缩放:为不同专家设置不同的学习率,确保每个子模型都能有效地从数据中学习,并为整体性能做出贡献

  • 长上下文处理能力:预训练模型支持高达 256K 的文本序列,Instruct 模型支持 128K 的文本序列,显著提升了长上下文任务的处理能力

  • 广泛的基准测试:在多种语言和任务上进行广泛实验,验证了 Hunyuan-Large 的实际应用效果和安全性

腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型

▲ Hunyuan-Large 预训练模型与具有相似激活参数大小的 Dense 和 MoE 竞争对手相比

AI在线附相关链接如下:

  • 论文:https://arxiv.org/pdf/2411.02265

  • Github:https://github.com/Tencent/Tencent-Hunyuan-Large

  • Huggingface:https://huggingface.co/tencent/Tencent-Hunyuan-Large

  • 腾讯云:https://cloud.tencent.com/product/hunyuan

相关标签:

相关资讯

首个中文原生DiT架构!腾讯混元文生图大模型全面开源,免费商用

中文 AI 社区迎来了一个好消息:与 Sora 同架构的开源文生图大模型来了!5 月 14 日,腾讯宣布旗下混元文生图大模型全面升级并全面开源,目前已在 Hugging Face 平台及 GitHub 上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。官网地址: 项目地址: Face 模型地址:: 据了解,这是业内首个中文原生的 DiT 架构文生图开源模型,支持中英文双语输入及理解,参数量 15 亿。升级后的混元文生图大模型采用了与 Sora 一致的 DiT 架构,即全新的 Huny
5/15/2024 5:38:00 PM
机器之心

开源社区参数量最大的文生视频模型来了,腾讯版Sora免费使用

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
12/3/2024 8:52:00 PM
机器之心

腾讯发布Hunyuan-TurboS:首款超大型混合Transformer-Mamba MoE模型震撼登场

今日,腾讯在X平台上正式宣布推出其最新AI模型Hunyuan-TurboS,这款被誉为“首款超大型Hybrid-Transformer-Mamba MoE模型”的产品迅速引发全球科技圈的热议。 根据X用户披露的信息,Hunyuan-TurboS通过融合Mamba的高效长序列处理能力和Transformer的强大上下文理解能力,成功克服了传统纯Transformer模型在长文本训练和推理上的瓶颈,展现出令人瞩目的性能突破。 据介绍,传统Transformer模型因O(N²)复杂度和KV-Cache问题,在处理长文本时往往面临效率低下和高成本的挑战。
3/11/2025 8:56:00 AM
AI在线