关于我们

质量为本、客户为根、勇于拼搏、务实创新

< 返回新闻公共列表

MiniMax 稀宇科技发布万亿 MoE 模型abab 6.5

发布时间:2024-04-17 16:02:02

站长之家(ChinaZ.com)4月17日 消息:MiniMax 2024年4月17日推出 abab6.5系列模型,这是万亿 MoE(Mixture of Experts)模型。在 MoE 还没有成为行业共识,MiniMax 在研究上投入了大量的精力 MoE 技术,并于今年1月在中国发布首个基于 MoE 架构的 abab6模型。经过三个月的研发,他们推出了更强大的模型 abab6.5模型。

abab6.5系列包括两个模型:abab6.5和 abab6.5.abab6.5拥有万亿参数,支持200k tokens 上下文长度;和 abab6.5s 采用相同的训练技术和数据,但更有效,支持200k tokens 上下文长度,1秒内可处理近3万字的文本。

微信截图_20240417115808.png

abab6在各种核心能力测试中.5开始接近世界上最领先的大语言模型,比如 GPT-4、Claude-3、Gemini-1.5等。

abab6.5和 abab6.5s 将陆续更新到 MiniMax 其产品包括海螺的生产力产品 AI 和 MiniMax 开放平台。用户可以通过这些产品体验这些先进的语言模型。


/template/Home/Zkeys/PC/Static