腾讯发布开源MoE大语言模型Hunyuan

探索 2024-12-26 06:11:40 74

11月5日消息,腾讯腾讯今日宣布推出业界参数规模最大、发布效果最好的开源开源MoE大语言模型Hunyuan-Large。

Huanyuan-large模型的模型总参数量为389B、激活参数为52B、腾讯训练token数量为7T、发布最大上下文长度为256K、开源词表大小为12.8w。模型

腾讯发布开源MoE大语言模型Hunyuan

在技术创新方面,腾讯Hunyuan-large通过高质量的发布合成数据来增强模型训练,弥补了自然数据的开源不足。

其中,模型该模型预训练支持处理高达256K的腾讯文本序列,大幅提升了长文本上下文的发布处理能力,能够更高效地完成长文本任务。开源

据了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多学科综合评测集上表现优异,在中英文自然语言处理、代码生成、数学运算等9大能力维度中全面领先,超越了Llama3.1和Mixtral等一流开源模型。

此外,腾讯还宣布将推出自研的长文评测集“企鹅卷轴(PenguinScrolls)”,以填补行业在真实长文评测集上的空白。

企鹅卷轴基于公开的金融、法律、学术论文等长文本构建,文本长度从1K到128K不等,覆盖深度阅读理解和长文推理任务。

本文地址:http://ddufi.angougou.net/news/54f34399602.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

NBA彩经:青年军对决雷霆更胜一筹击落火箭 相持不下老鹰力拼雄鹿

明楠不续约,直接买明楠算了,整那么多事干啥。

李子柒更新了 微念回应:李子柒目前没有和微念合作

“双11”数据监测:京东3C数码占比超五成 持续行业领先

AMD X670E实现内存超频至DDR5

记者:阿代米训练时崴脚了,好消息是应该问题不大

导演分享《黑衣人》趣闻 史密斯一个响屁暂停拍摄三小时

游客太多兵马俑被迫上夜班 特殊情况临时放夜场票

友情链接