文章目录
- 前言
- 什么是提示工程师?
- Prompt
- 提示工程
- Chain-of-Thought Prompting
- 总结
前言
自人工智能(AI)诞生之初,人们就担心它会抢走人类的工作。
不过,AI也不断在创造新的职业,比如最近大火的“提示工程师”(prompt engineer),随着ChatGPT等语言类大模型(large language model)和Midjourney等图像生成程序(image generator)的爆红而需求剧增。
什么是提示工程师?
Prompt Engineer、prompt engineering
而言之就是为生成式AI(generative AI)撰写文本提示(text prompt)的人,以保证AI正确生成人们所需要的输出成果(output),这一工作流程被称为“prompt engineering(提示工程)”。就像之前我们依靠程序员(programmer)撰写代码(code)来调用程序一样,如今需要提示工程师来培训AI。
Prompt
什么是提示词?
如何向大语言模型提问,或者更好的提问,就是指提示词(Prompt);提示词是给LLM(大语言模型)的指令,它可以是一个问题、一段文字描述,甚至可以是带有一堆参数的文字描述。LLM会基于 prompt 所提供的信息,生成对应的内容从而获得符合预期的结果。
提示工程
什么是提示工程?
- 随着大语言模型的广泛应用,提示词转变为一种工程,就是所谓的提示工程(Prompt Engineering);他是一种LLM使用技术,通过设计和改进 LLM的 prompt 来提高 LLM的表现,其目标是创建有效和可控的LLM系统,使其能够准确、可靠地执行特定任务。
- 不同情况下,Prompt Engineering也称为 In-Context Prompting,也就是上下文的提示词;通俗而言,是指如何在不更新模型权重的情况下与 LLM 进行沟通,以引导LLM的输出得到更有意义结果的方法。
- 在过去一年中,提示工程有着不同程度的进步,可以分成3种分类;第一类为 Zero-shot learning(零样本学习),零样本学习是指该模型可通过从未见过的类别进行分类,使机器具有推理能力,实现真正的智能。
Chain-of-Thought Prompting
什么是思维链?
有些场景下,单凭和大语言模型进行沟通,无法通过推理获得准确的结果;而推理是人类智力的基本方面,涉及得出结论和做出决策的证据和逻辑。
大型语言模型(LLM)开始表现出了类似人类的推理能力,借助我们人类对复杂问题“分步思考”的分析逻辑,LLM也可以发展出“分步思考”的复杂思维能力。 为LLM提供 “思维链”,即推理示例,有时还需要我们人类提供一些 “分步思考” 的简单提示,使这些LLM能够从这些例子中学习,最终形成LLM它们自己的思维链。
总结
本篇文章主要是介绍一下提示工程师,然后涉及到的一些名词,更深入的需要大家自己动手查资料。
另外,提示工程师还能通过对程序的微调(fine-tune),帮助发现AI的错误、偏见和隐藏能力(hidden capabilities)。这也是为什么在全球范围内,多家科技公司正大力招募可帮其优化AI生成内容的提示工程师。一家AI合同评审公司为提示工程师开出的年薪是23万美元;即便在兼职平台Upwork上,这一工种的时薪也达到40美元。
或许,未来最流行的编程语言不再是Python、Java或者C++,而是人们的自然语言,这其实是很酷的一件事。