离职谷歌的Transformer作者创业,连发3个模型(附技术报告)(谷歌浏览器)

AIGC动态欢迎阅读

原标题:离职谷歌的Transformer作者创业,连发3个模型(附技术报告

关键字:模型,报告,日语,方法,研究者

文章来源:机器之心

内容字数:5586字

内容摘要:

机器之心报道

编辑:陈萍、小舟去年 8 月,两位著名的前谷歌研究人员 David Ha、Llion Jones 宣布创立一家人工智能公司 Sakana AI,总部位于日本东京。其中,Llion Jones 是谷歌 2017 年经典研究论文《Attention is all you need》的第五作者,该论文提出了深度学习架构 transformer。transformer 对整个机器学习领域产生了重要影响,并且是ChatGPT

等生成式 AI 模型的基础。论文于 2017 年 6 月首次发表后,随着全球对生成人工智能人才竞争不断升温,论文作者陆续离开谷歌,自立门户创业。Llion Jones 是八位作者中最后一个退出谷歌的人。

David Ha、Llion Jones 成立的初创公司 Sakana AI 致力于构建生成式 AI 模型。最近,Sakana AI 宣布推出一种通用方法 ——Evolutionary Model Merge。该方法使用进化算法来有效地发现组合不同开源模型的最佳方法,这些开源模型具有不同功能。Evolutionary Model Merge 方法能够自动创建

原文链接:离职谷歌的Transformer作者创业,连发3个模型(附技术报告)

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

0
分享到:
没有账号? 忘记密码?