ChatGPT 背后调用的是 GPT 模型,也就是一个生成式语言模型。那在生成式 AI 领域 ,用户对模型的提问,也被叫做Prompt。而Prompt 正是使用 ChatGPT 的关键技能。
Prompt
ChatGPT 当中使用 Prompt 的好处在于它可以限制模型的生成空间,使其更专注于指定的主题或任务。因为 GPT 模型是基于大规模自监督学习的,它对输入文本的上下文信息学习得非常全面,但这也会导致模型生成的文本与预期的主题或任务不符。通过在输入中添加 Prompt,可以强制模型关注特定的信息,从而提高模型在特定任务上的表现。
此外,Prompt 可以帮助模型更好地利用其自监督学习中学到的记忆知识。在自监督学习中,GPT模型已经学习了大量的语言知识和语言规律,并且可以根据上下文信息生成连贯的文本。但是,在面对特定的任务时,模型可能无法直接应用其自监督学习中的知识,因为它需要特定的指导信息来指示生成合适的文本。通过Prompt的指导,模型可以更好地利用其自监督学习中的记忆知识,并生成更符合预期的文本。
相当于我们在提问时,给到的提示信息越详细,模型响应的质量肯定就会越高。
任务提示型 Prompt
任务提示型 Prompt 是一种 Prompt 分类,作用是提醒模型是要做什么任务。因为同样输入一句话,可以做的任务太多了,通过 Prompt 让模型知道这次是要做什么任务。例如,在 ChatGPT 中,我们输入一段描述,再加上“翻译”或者“问答”的 Prompt,那么 ChatGPT就会生成相应的结果。
答案提示型 Prompt
QA 模式 - 也可以叫做答案提示形 Prompt,相当于使用问题和答案的方式来指导模型完成某个任务的格式。
Prompt的组成
虽然 Prompt 提示词的组成可以很复杂,但总的来说一个 Prompt 可能会包含以下几个元素
- 指令 Instruction :告诉模型你想要它执行的任务,例如:“请将下面的句子翻译成英语:”就是一个 instruction。
- 上下文 Contenxt :当前对话的上下文就是背景和语境,比如让ChatGPT 进行角色扮演,通过为 AI 分配一个角色的方式引导 AI 给出更准确的输出内容。
- 输入数据 Input Data :你想要查询或寻找答案的内容,例如一段文本、一个问题。
- 输出指示符 Output Indicator:告诉模型你希望得到的输出类型或者格式。比如让模型给你一个列表,或者让模型给你一个由分号分隔的结果,都属于 Output Indicator。
需要注意的是并不是所有的 Prompt 提示词都会包含所有元素,比如有的只会包含 Input Data , 而有的会包含 Input Data 和 Output Indicator ,所以具体一段提示词中会包含哪些元素还是取决于我们实际的任务要求。