大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?(模型的不足与改进)

AIGC动态欢迎阅读

原标题:大模型能自己优化Prompt了,曾经那么火的提示工程

要死了吗?

关键字:模型,提示,工程,图像,人类

文章来源:机器之心

内容字数:7316字

内容摘要:

选自IEEE

机器之心编译

编辑:Panda人类设计 prompt 的效率其实很低,效果也不如 AI 模型自己优化。2022 年底,ChatGPT

上线,同时引爆了一个新的名词:提示工程(Prompt Engineering)。

简而言之,提示工程就是寻找一种编辑查询(query)的方式,使得大型语言模型(LLM)或 AI 绘画或视频生成器能得到最佳结果或者让用户能绕过这些模型的安保措施。现在的互联网上到处都是提示工程指南、快捷查询表、建议推文,可以帮助用户充分使用 LLM。在商业领域,现在也有不少公司竞相使用 LLM 来构建产品 copilot、自动化繁琐的工作、创造个人助理。

之前在微软工作过的 Austin Henley 最近采访了一些基于 LLM 开发 copilot 产品或服务的人:「每一家企业都想将其用于他们能想象到的每一种用例。」这也是企业会寻求专业提示工程师帮助的原因。

但一些新的研究结果表明,提示工程干得最好的还是模型自己,而非人类工程师。

这不禁让人怀疑提示工程的未来 —— 并且也让人越来越怀疑可能相当多提示工程岗位都只是昙花一现,至少少于当前该领域的想象。

自动微

原文链接:大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

0
分享到:
没有账号? 忘记密码?