找回密码
 立即注册
查看: 866|回复: 0

【进阶篇】ChatGPT提示手册——4类提示词提升AI逻辑推理能力

[复制链接]

2

主题

3

回帖

28

积分

新手上路

积分
28
发表于 2023-8-16 17:39:18 | 显示全部楼层 |阅读模式
写在前面

自从ChatGPT大火之后,各类提示工程(Prompt Engineering)的教学井喷式爆发,但是由于大大都所谓的教程都是从国外的教程翻译过来的,受到翻译人员翻译程度以及责任心的影响,各类教程的质量参差不齐。而我写这个专栏文章的目的就是但愿各位对大语言模型提示工程感兴趣的伴侣可以斗劲系统地展开学习,尽量不花冤枉钱,多捞干货,少当韭菜。  而通过阅读本专栏内的文章,你将会有如下收获:
1)大语言模型的基础提示工程以及提示案例;
2)大预言模型的进阶提示工程以及提示案例;
3)大语言模型以及提示工程的应用场景以及提示案例;
4)当前常用AI东西的清单。
友情提示:首先由于Prompt Engineering本身是一个会不竭迭代的东西,所以本专栏的文章也会不竭地更新;第二,由于文章傍边的常识点没有连贯性,专栏傍边的所有文章都可以按照目录当东西书查阅,所以请点赞保藏,便利后面食用~
如果没有看过基础篇的伴侣可以先看基础篇:

小概述:什么是提示工程(Prompt Engineering)

总体来说,你通过自然语言(英语、汉语或者其他什么语言)来给AI下指示,从而让AI完成你指定给他的工作的过程都可以称之为提示工程,你可以把提示工程看作某种意义上的自然语言编程。可能有人会好奇,既然都是用自然语言,那干嘛还要学,我说母语还用得着你来教吗?非也~

首先,自然语言本身是及其不严谨的,同样一句话在分歧语境下会表达出截然相反的意思;第二,目前的大语言模型的逻辑推理能力斗劲有限。这些就导致了当你用自然语言来给AI下指令的时候,AI会返还的成果是不成控的。而通过提示工程,AI所返还给你的成果就会变得可控得多。尤其对于复杂问题,一套精心设计的提示词甚至能解决代码都无法解决的问题,所以此刻已经有公司把提示词放在和代码同等的地位了,都是属于该公司的核心智力资产。
内容导读


  • 思维链提示(Chain of Thought Prompting):对于一些需要较为复杂的推理才能得出的答案很实用
  • 零样本思维链提示(Zero-Shot Chain of Thought Prompting):Let's think step by step~
  • 自我一致性提示(Self-Consistency Prompting):不确定成果?让模型本身投票吧
  • 常识生成提示(Generated Knowledge Prompting):AI可能比你懂得多,要善用AI已经具备的常识
<hr/>1. 思维链提示(Chain of Though Prompting)

1.1 思维链提示概要

在上一个章节傍边我们说过,Transformer模型本质上来说就是拟合一个条件概率函数,它要预测的就是给定当前字符串之后,下一个要呈现的文字是什么,理论上来说它是不具备逻辑推理的能力的。但是随着各个大厂纷纷开始搞AI军备竞赛之后,鼎力出奇迹,此刻的大模型涌现出了一种类似逻辑推理的能力。
只不外此刻大模型的这种所谓的推理能力是有限的。
举个例子:


这里我们给ChatGPT出了一道斗劲简单的逻辑推理题,但是很显然答案都不是正确错误的问题,的确不知所云。
那在这种情况下我们怎么来提升ChatGPT的逻辑推理能力呢?
这就要提到我们这个小节要说的思维链提示了(Chain of Thought).
本质上来说思维链提示也是一种少样例提示(Few-Shot Prompting),只不外我们提供的样例实际上包含了推理过程,这个推理过程可以是和我们真正想问的问题毫无关系的。这么说可能斗劲抽象,咱们还是以这个逻辑推理题为例来看看例子吧。
1.2 提示词案例

提示词:
Q: 小明已有5个乒乓球,之后他又买了2盒乒乓球,每盒乒乓球傍边有10个球,请问此时小明共有几个乒乓球? A: 小明一开始有5个乒乓球,之后又买2盒,已知每盒有10个球,那也就是一共2 * 10 = 20个乒乓球,再加上之前的5个,也就是20 + 5 = 25,此时小明一共有25个乒乓球。
Q: 假设有一个池塘,里面有无穷多的水。现有2个空水壶,容积分袂为5升和6升。请问如何只用这2个水壶从池塘里取得3升的水?
A:
其实可以看到,我们给的乒乓球的样例和我们真正想问的问题在推理过程上毫无关系,但是咱们来看一下通过这种方式ChatGPT给的回答。
ChatGPT回答:


虽然说在给出的第四步中有个语病(5升水倒满之后应该中此时其实有4升水),但了这个小瑕疵之外,这个答案已经非常接近正确答案了。
2. 零样本思维链提示(Zero-Shot CoT prompting)

在上面的思维链提示傍边,我们实际上是给ChatGPT一个推理过程的样例。但是在这篇论文傍边:

来自东京大学的作者偶然发现了一个魔法咒语:
Let&#39;s think step by step.
通过在提示词中插手上面这句话,大语言模型本身就会发生具有推理过程的答案。通过该方式在多种任务上便可获得精度的提升:



但是按照我本身的经验,这个方式其实并不是那么好用,我们还是用刚才的逻辑推理题来举例子:



ChatGPT给出的答案同样有些不知所云,所以各位读者记住这个方式就行,可能有用也可能没用,需要按照实际情况本身测验考试。
3. 自我一致性提示(Self-Consistency Prompting)

这个标题看起来斗劲唬人,但其实说白了就是投票~
当我们但愿用ChatGPT或者类似的大语言模型来措置较为复杂的文本的时候,为了确保措置成果的准确性,我们凡是会使用同一段提示词发生多个成果,然后取呈现次数最多的阿谁成果作为最终成果。
举个例子,你们团队此刻在做二级市场的投资,你们每天会从网上爬取大量的上市公司的相关文本,并通过AI来判断市场对这个公司的认知,从而来决定你们的投资动作,这种时候为了提高AI对文本内容判断的准确率,就可以使用投票的方式,让AI对文本内容进行多次判断,然后取呈现次数最高的判断成果。






4. 常识生成提示(Generated Knowledge Prompting)

4.1 常识生成提示概述

类似于像ChatGPT这样的大模型是用全网能获得的公共数据训练出来的,千亿级别甚至万亿级此外参数傍边储藏的常识是很恐怖的,所以当我们想要生成内容的时候,实际上可以明确且直接地借助模型已经具备的常识来生成我们想要的内容。
4.2 提示词案例

提示词:
请你列举出5条油性皮肤在选择洗面奶时的注意事项,并给出详细说明。然后基于你所列举的这些注意事项,以小红书的风格生成一篇爆款笔记。
ChatGPT回答:







最后

以上便是ChatGPT提示手册进阶篇的内容,相较于基础篇傍边的提示词,在进阶篇傍边更强调使用大语言模型进行逻辑推理的操作。由于本手册会持续更新,各位读者伴侣点赞保藏加存眷哦~
参考阅读:

[1]https://uxplanet.org/use-chatgpt-like-a-pro-discover-parameters-and-unlock-ai-writing-secrets-8f68a342bdea#:~:text=What%20are%20parameters%3F,style%2C%20tone%2C%20and%20creativity
[2]Basic Applications | Learn Prompting: Your Guide to Communicating with AI
[3]Prompt Engineering Guide
[4]https://medium.com/@basics.mach

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-12-22 01:56 , Processed in 0.055684 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表