开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有(建模开源软件哪个好)

AIGC动态欢迎阅读

原标题:开源大模型王座再易主,1320亿参数

DBRX上线,基础、微调模型都有

关键字:模型,基准,参数,效率,质量

文章来源:机器之心

内容字数:10134字

内容摘要:

机器之心报道

编辑:泽南、陈萍「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合专家模型(MoE)。

DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用于研究和商业用途。人们可以自行在公共、自定义或其他专有数据上运行和调整它们,也可以通过 API 的形式使用。

基础版:https://huggingface.co/databricks/dbrx-base

微调版:https://huggingface.co/databricks/dbrx-instruct

GitHub 链接:https://github.com/databricks/dbrx

DBRX 在语言理解、编程、数学和逻辑等方面轻松击败了目前业内领先的开源大模型,如 LLaMA2-70B、Mixtral 和 Grok-1。DBRX 在语言理解(MML

原文链接:开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

0
分享到:
没有账号? 忘记密码?