Press "Enter" to skip to content

Prompt 工程指南(一)—— 先导介绍篇

本系列是学院君学习 Prompt Engineering Guide 的学习笔记,在尊重原文的基础上,有很多增补、注释、整合和汉化工作。

你可以把前面写的三篇《ChatGPT 提示的艺术》作为 Prompt 小白入门篇:

把这个系列看作 Prompt 专业进阶版。

提示工程是一门伴随生成式 AI 发展兴起的相对较新的学科,它致力于开发和优化提示(Prompt),以便更有效地将语言模型(LMs)应用于各种应用和研究主题。如ChatGPT 提示的艺术以及通用人工智能的火花:GPT-4 早期实验中提到的那样,目前 GPT 生成的结果准确性非常依赖输入的提示 ,学习提示工程技能也有助于更好地理解大语言模型(LLMs)的能力和局限性。

什么是大语言模型?

大语言模型(Large Language Models,简称LLMs)是一类基于人工智能和机器学习的先进算法,它们被训练为理解、生成和处理自然语言文本。这些模型通过分析大量文本数据来学习语言的结构、语法和语义规律。在训练阶段,模型尝试捕捉语言的模式和上下文关系,以便在部署时能够根据输入的提示生成恰当的回应或完成特定任务。

大语言模型的一个典型例子是 OpenAI 的 GPT(即生成预训练式 Transformer)系列,包括 GPT-2、GPT-3 和 GPT-4。这些模型利用了 Transformer 架构,能处理多种任务,如问答、文本生成、摘要、翻译、情感分析等。

随着模型规模的扩大(如参数数量的增加),大语言模型在许多自然语言处理任务上的表现越来越好。然而,这也带来了一些挑战,如计算资源需求的增加、潜在的偏见问题以及与安全性和道德相关的问题。

研究人员使用提示工程可以提高 LLMs 在广泛的常见和复杂任务(如问答和算术推理)方面的能力。开发人员使用提示工程可以设计稳健且有效的提示技巧,以便与 LLMs 和其他工具进行交互。

提示工程不仅仅是关于设计和开发提示。它涵盖了与 LLMs 交互和开发的一系列技能和技巧。这是一个重要的技能,用于接入、构建和理解 LLMs 的能力。你可以使用提示工程来提高 LLMs 的安全性,并构建新的功能,如使用领域知识和外部工具来增强 LLMs。

受到对 LLMs 开发的高度关注的推动,我们创建了这个新的提示工程指南,其中包含了所有与提示工程相关的基础知识,包括最新论文、学习指南、模型、讲座、参考资料、新的 LLMs 功能和工具等,以提供如何使用提示与大语言模型(LLMs)进行交互和指导的大概思路。

所有示例都在 OpenAI Playgound 中基于 text-davinci-003 进行测试,除非另有说明,并且使用默认配置,即 temperature=0.7top_p=1,但本指南不仅适用于 OpenAI,而是面向所有生成式 AI 的提示:

image-20230327174256930

text-davinci-003gpt-3.5-turbo 有啥区别?

text-davinci-003gpt-3.5-turbo 都是 OpenAI GPT-3 系列中的两个模型,它们之间的主要区别在于性能和价格。

性能:gpt-3.5-turbo 相对于 text-davinci-003 在性能方面有所提高。根据 OpenAI 的说法,gpt-3.5-turbo 在许多任务中的性能与 text-davinci-003 相当或更好。这意味着,与 text-davinci-003 相比,gpt-3.5-turbo 可以在保持相同质量输出的同时更有效地完成任务。

价格:gpt-3.5-turbo 的价格相对于 text-davinci-003 更具竞争力。使用 gpt-3.5-turbo 的成本约为使用 text-davinci-003 的1/4。这使得 gpt-3.5-turbo 成为许多应用和开发场景中更实惠的选择。

因此,在大多数情况下,从性能和成本上看,gpt-3.5-turbo 是更好的选择。但它们准确性上相差无几,在某些特定场景下,text-davinci-003 可能更胜一筹,比如准确性和稳定性,不过要看具体场景和输入。作为教程示例,这里沿用原文的选择,以避免额外隐形工作量的增加。

有关 AI&ChatGPT的实时动态和免费资源获取,可以加入这个免费的知识星球获取:

发表回复