谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文(谷歌眼镜xe-c)

AIGC动态欢迎阅读

原标题:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文关键字:报告,模型,上下文,窗口,代码

文章来源:Founder Park

内容字数:5517字

内容摘要:

文章转载自「机器之心」今天,谷歌宣布推出 Gemini 1.5。Gemini 1.5 建立在谷歌基础模型开发和基础设施的研究与工程创新的基础上,包括通过新的专家混合 (MoE) 架构使 Gemini 1.5 的训练和服务更加高效。

谷歌现在推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型,针对多种任务的扩展进行了优化,其性能水平与谷歌迄今为止最大的模型 1.0 Ultra 类似,并引入了长上下文理解方面的突破性实验特征。

Gemini 1.5 Pro 配备了 128000 个 token 上下文窗口。但从今天开始,少数开发人员和企业客户可以通过 AI Studio 和 Vertex AI 的私人预览版在最多 100 万个 token 的上下文窗口中进行尝试。谷歌还进行了一些优化,以改善延迟、减少计算要求并增强用户体验。

谷歌 CEO Sundar Pichai 和谷歌 DeepMind CEO Demis Hassabis 对新模型进行了专门介绍。01高效架构Gemini 1.5 建立在谷歌对 Transformer

原文链接:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文

联系作者

文章来源:Founder Park

作者微信:Founder-Park

作者简介:来自极客公园,专注与科技创业者聊「真问题」。

0
分享到:
没有账号? 忘记密码?