史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?(黄仁勋lori)

AIGC动态欢迎阅读

原标题:史诗级对话!黄仁勋对谈Transformer八位作者:大模型

从何而来,下一步会如何发展?

关键字:模型,数据,创始人,公告,可编程

文章来源:Founder Park

内容字数:23086字

内容摘要:

今年的 GTC,英伟达创始人黄仁勋和 Transformer 八子的对谈,无疑是最受关注的场次之一。因为某种意义上,双方正是这波 AI 浪潮的奠基人。

谷歌大脑团队 2017 年发表了一篇名为《注意力就是你所需要的一切(Attention is all you need)》的论文,主要目的是解决自然语言处理领域,使用传统的 RNN(循环神经网络)模型不能解决并行计算,从而导致算法效率低下的问题。

这篇文章提出的新的处理架构就是 Transformer 模型,也是今天大模型的基石,而当时这篇文章的八位联名作者今天也被称为 Transformer 八子。几年后八子陆续离开谷歌,今天已经成为 Essential AI、Character.AI 等硅谷重要 AI 公司的创始人或技术核心。

Transformer 八子

Ashish Vaswani,EssentialAI 联合创始人兼 CEO

Noam Shazeer,Character.AI 首席执行官兼联合创始人

Jakob Uszkoreit,Inceptive 联合创始人兼首席执行官

Llion Jones,SakanaAI 联合创始人

原文链接:史诗级对话!黄仁勋对谈Transformer八位作者:大模型从何而来,下一步会如何发展?

联系作者

文章来源:Founder Park

作者微信:Founder-Park

作者简介:来自极客公园,专注与科技创业者聊「真问题」。

0
分享到:
没有账号? 忘记密码?