文章目录
AI大模型提示词工程师 1 Prompt工程之原理 1.1 AIGC的发展和产业前景 前言 AIGC时代的到来 发展趋势和应用展望 1.2 大模型的类型和特点 大模型的对比 上手 特点 1.3 大模型技术原理和发展 成语接龙和暴力穷举 ChatGPT如何理解人类语言 如何存储数据 图像存储 电脑存数字 如何让电脑知道存的什么? 向量化 为什么需要向量化 向量可以计算 难点 调整位置 科学的方式 Word2vec算法 信息压缩与特征提取 谷歌论文-自注意力机制 TransFormer算法演进 通用人工智能模型 2 Prompt工程之原则 2.1 设计Prompt的3个原则 相关性 确定焦点 清晰度 2.2 设计Prompt的1个万能公式 2.3 设计Prompt的5个技巧 2.4 设计Prompt高质量答案的2个窍门 3 Prompt工程之迭代 3.1 Prompt优化与迭代 3.2 Prompt样本提示 零样本提示(Zero-shot Prompting) 少量样本提示(Few-shot Prompting) 3.3 Prompt思维链提示 文本转化 Zero-shot CoT 零样本思维链 自洽性/自一致性(Self-Consistency) 3.4 Prompt生成知识提示 生成知识提示(Generate Knowledge Prompting) 4 Prompt工程之应用 4.1 Prompt文本总结 4.2 Prompt文本判断 4.3 Prompt文本转化 4.4 Prompt文本扩展AI大模型提示词工程师
1 Prompt工程之原理
1.1 AIGC的发展和产业前景
前言
什么是AI? 人工智能(Artificial Intelligence) 什么是AGI? 通用人工智能(Artificial General Intelligence) 什么是AI2.0? ChatGPT的横空出世代表着 AI2.0 时代,也就是通用人工智能时代 什么是大模型? 是大规模语言模型(Large Language Model)的简称。语言模型是一种人工智能模型,他被训练成理解和生成人类语言。“大”是指模型的参数量非常大,比如ChatGPT、文心一言等。AIGC时代的到来
出现了大量的内容生产工具,比如 ChatGPT、Midjourney、Stable Diffusion等。 PGC专业生成内容(Professional Generated Content) UGC用户生成内容(User Generated Content) AIGC人工智能生成内容(Artificial Intelligence Generated Content)发展趋势和应用展望
发展趋势: 更强大的模型 多模态的生成 个性化生成 应用展望: 内容创作和自动写作 娱乐和游戏 广告和营销 个性化组手和教育 自动化客服 会不会是泡沫? OpenAI创始人 Sam Altman:AI是少有的被严重炒作之后,还被严重低估的东西。1.2 大模型的类型和特点
大模型的对比
上手
特点
知识丰富 道德感强,法律边界清晰 有记忆力,可联系上下文 知错就改 知人晓事1.3 大模型技术原理和发展
成语接龙和暴力穷举
ChatGPT如何理解人类语言
计算机底层:二进制 将 现实问题 转化为 数学问题如何存储数据
图像存储
电脑存数字
如何让电脑知道存的什么?
向量化 信息压缩与特征提取向量化
将 东西 与 数字组合,比如 [0, 180, 75, 35] 分别表示 [性别, 身高, 体重, 年龄]为什么需要向量化
方便电脑处理 寻找规律向量可以计算
难点
坐标要多少维度? 每个维度代表什么?调整位置
通过计算距离,不断调整位置科学的方式
Word2vec算法
信息压缩与特征提取
谷歌论文-自注意力机制
解决了自然语言特征提取的问题TransFormer算法演进
通用人工智能模型
在此之前,都是一些细分领域:围棋、玩游戏、图像识别、设计模型、标注数据等 而通用人工智能,是利用自然语言,理解整个文明成果的能力,和人类无缝交流的能力2 Prompt工程之原则
2.1 设计Prompt的3个原则
相关性
提示词应该与当前话题或内容相关。确定焦点
提示词应该能够引起人们的注意力并帮助他们专注于重点。 避免用一些专业的术语,或者一些模糊的语言。清晰度
提示词应该能够明确传达出想要表达的意思。2.2 设计Prompt的1个万能公式
内容前提:让ChatGPT知道你是谁 角色设定:给ChatGPT赋予一个身份,让他知道他是谁 明确目标:明确的目标指令,指令一定要清晰 补充需求:回答需要注意什么,或者回答范围和形式等2.3 设计Prompt的5个技巧
优化表达式 用继续不断输出 由浅入深,提升问题质量 预设回答方案 给参考答案,让GPT更懂你2.4 设计Prompt高质量答案的2个窍门
加强 GPT 的思辨分析意识 给 GPT 划分范围3 Prompt工程之迭代
3.1 Prompt优化与迭代
通常情况下,Prompt很难一次性到位,就需要根据大模型给出的结果,然后不断迭代Prompt3.2 Prompt样本提示
零样本提示(Zero-shot Prompting)
也就是不需要微调,不需要提供任何示例样本就可以直接通过提问来让模型解决相应的任务。这是因为模型本身就通过了大量数据进行了训练。少量样本提示(Few-shot Prompting)
在需求比较复杂时,可以使用 few-shot 少量样本提示,相当于在 Prompt 中给问题提供一个 Context 上下文,在上下文里给模型提供示例。 这个示例的作用实际是引导,引导模型找到对应的回答方式,从而生成更准确的响应。3.3 Prompt思维链提示
文本转化
对于一些需要推理的复杂任务,few-shot就无能为力了。这个时候就引申出一个概念:思维链提示-CoT(Chain-of-Thought Prompting)通常涉及到推理的复杂任务,并不是一步直接得到答案,中间会有很多的计算和推理过程。在这些数字中,1,3,5,23,69,70,10,84,923,32 有多少个奇数,多少个偶数。
Zero-shot CoT 零样本思维链
让 AI 通过思维推理,分析出最终答案在这些数字中,1,3,5,23,69,70,10,84,923,32 有多少个奇数,多少个偶数。请一步一步思考
自洽性/自一致性(Self-Consistency)
让ChatGPT 产生多个思维链,也就是多个推理路径,最终选择一个一致性最高的答案。为一个问题,提供3个解决方案,最终结合3个解决方案给出与问题一致性最高的答案
从北京如何到大理?