DeepSeek虽然是推理类大模型,对结构化prompt的要求没有那么训练类模型(如Kimi、Claude)那么高。 但是依然需要用户擅长和它对话,而这就是AI时代最值钱的技能之一:指令调教。
一 为什么需要调教指令
AI输出任务的难度不同,对指令的质量要求截然不同,调教难度千差万别。
如果只是一个不需要任何背景信息的客观单任务,比如明天杭州天气,比如小米15和iphone 15性能对比,也就是说和用户没关系,答案非常稳定,就不需要什么指令学问,随便问,甚至搜索就能直接解决。
但如果这个任务,个性化+多变量,那就需要好的指令。
如果对这2个关键词不好理解,我们一个个来说。
第一,非常个性化,也就是和执行人的背景信息高度相关,比如去杭州旅行2天的攻略,1000个人有1000种玩法,预算上可以花100,也可以花10万,景点安排上,酒店安排上,到处都是差异。
第二,是多变量复杂任务。 也就是说需要拆分为各种元素的,比如你让AI帮你写篇文章,但你知道,一篇文章由太多元素组合而成,标题、开头、正文、结构、表达、语句、金句、结尾等等。 不做每个元素的限定指令,你心里想要的和AI实际生成的就会差之毫厘谬以千里。
二 指令调教的底层逻辑
所以指令调教,就像是给AI先教会,再让它完成任务。
这个和人的学习非常像,比如我们每个人开车是手动眼动脚动脑动,基本上都已经形成机械记忆了。
但是我们学驾照的时候,教练是怎么教我们的,是把一个个动作拆分给我们的,怎么换档位,怎么踩刹车,怎么调灯光,怎么打方向盘等等。
那有人会问了,AI不是特别强大嘛,为什么我们还要去教他?
它确实很强大,但它强大的是它背后有海量的知识,比如GPT 4他被喂养了几千万本书了,DeepSeek也已经被喂养了海量的中英文知识库。
但是他是一个书呆子,他动手能力还不行,没办法执行你的任务,但好在他学习能力很强,而且是真学,这就需要你,先把任务做细化的拆分,先教会它。
这就像是一个老板和一个中高层给下面的同事布置任务,是不是要根据这个人的身份,任务的目标,这个人的能力资源需求,还有具体要做的事情来布置。
这就是目前所有的高质量的指令的底层逻辑,这是我开发并命名的CHAT模型,也是元指令。
这个元指令,我把它命名为CHAT模型,不是瞎编,瞎往ChatGPT上凑,是Character(角色), History(背景), Ambition(目标), Task(行动)的首字母缩写。
1 给它一个角色身份,告诉它它是谁。2 给它充分的上下文背景信息。3 告诉它你要实现什么目标。4 明确告诉它帮你做什么。
三 AI指令的5个层次
不同层次的指令会带来截然不同的生成结果。
这也是为什么AI在有些人手中是人工智障,但在高手手中是人工智能。
我调教过无数个指令,也看过很多别人调的指令,更看过海量的AI生成的指令。
根据生成质量的不同,我把他们分为五个层次。
第一层,逻辑层,简单的问是什么,为什么,怎么样,答案类似搜索引擎,常常结果不让人满意。
比如你问AI,如何每天早起,得到的就是和搜索一样的无用的废话或道理。
他不知道你的背景信息,也不知道为什么要早起,更不知道你愿意为早起付出什么等等。
第二层,案例层,用一个例子投喂给AI,让它模仿,结果超过第一层,但是模仿痕迹太过,创意不足。
这个方法其实很多人在用,比如给AI一个文案例子,然后让他直接模仿,生成新的文案。
但是,通常情况下,质量很不行。
这个质量不行,来自于两个原因,因为你不够专业,你喂养他的这个案例根本质量就不行,第二,AI的学习模仿能力还没有这么强。
而且很多时候因为你喂给AI的只是一两个例子,他的输出结果是很不稳定的。
它在这个产品可以模仿,换别的产品呢,换别的品类呢,换别的行业呢。
第三层,模板层,用各种限制元素确定好的模板,直接套用。
这个模板层,有一个词大家可能很熟悉,特别是有知识体系的人,就叫思维模型,或者叫方法论。
比如讲故事,写文章,就有SCQA模型,STORY模型、故事7步公式法模型等等。
那你用这些模型框架去给AI做限定,比如让AI写一篇1000字左右的讲书稿,和让AI用SCQA模型写一篇讲书稿,质量就完全不一样,而且有了框架支撑,就像人的骨架一样,他的输出结果是非常稳定的。
比如目标管理和教练技术,就有GROW模型。 比如复盘总结,就有PDCA模型。 比如做演讲,就有黄金圈模型3W。
第四层,角色层,赋予它一个身份,让它执行你的任务。
听过OpenAi首席的开发专家分享,再结合我自己的调教经历,我就发现给他一个身份,特别是专家身份,它的输出结果就好很多。
这真的有跟人很像。
我还记得在十几年前,我高考前的百日誓师大会上,一个学长就跟我们分享。 他说我之前也是一个很讨厌学习的人,但自从有一天用了一个方法就是自我催眠,自我欺骗,说,我很爱学习,就真的每天会多学一点,慢慢的有进步了,他就真的相信自己很爱学习。
这种心理暗示,其实是有科学来源的,在心理学要安慰剂效应。 我在育儿的时候也很有体会,多表扬闺女,多夸闺女,他就会表现的更好。
比如我们在指令里说,你是一个爆款文章写作专家,就比直接说你帮我完成什么什么任务,生成质量要好很多。
但是如果我们给他下指令,说你是一个备受读者吹捧的爆款文章写作专家,你的粉丝像追小说连载一样,追你的文章,生成的质量效果就更好。
第五层,混合层,把前四层综合运用。
第五层就是混合层,我几乎每个高质量的指令都是用混合层来调整完成的。
有专业的角色身份,有优质的案例,有科学的思维模型框架,再加上具体的目标和任务。
在这里举个例子,完整的呈现一下我调教一个高质量指令的全过程。
比如我在调教爆款标题指令的时候。
第一步,找到大量非常优质的爆款标题,特别是咪蒙的标题。
这第一步非常关键,如果你没有判断爆款标题的能力,你喂养给AI的标题语料都是很劣质的,你自己不是行业内的细分专家,你不可能调教出高质量指令。
就像人吃的食物很劣质,就不可能有健康的身体,也不可能有很好的工作表现。
第二步,让AI总结出爆款标题的特点。
第三步,把自己的爆款标题方法改造成AI懂的。
用你自己的爆款标题方法论和这些特点做一个结合。
有人可能会问了,为什么不直接把自己的爆款标题方法给到AI让他直接去生成。
因为很多时候你的爆款标题方法论,他之前没有学习过,但是没有创造能力的。
还记得我们始终要坚持的一点吗,先把AI教会再让它来帮助我们完成高难度的任务。
我们前面几步的把标题语料喂养给他,并让他总结,其实就是他的一个模仿学习过程。
第四步,用CHAT模型和模型框架+案例
给Ai下任务,这一步是测试我们的爆款标题指令是否能够生成高质量的标题。
第五步,大面积推理测试
第五步是测试它的稳定性,看这个指令是否能够高质量的生成不同场景的高质量标题。 不同类型的文章,不同类型的视频,不同类型的文案,不同类型的书籍。
哪个类型发挥失常,就需要继续加限制。
比如我前段时间用得到AI来生成书籍的金句,就发现如果我不限定这个金句的来源,他就会胡编乱造。
第一版本是帮我给《活着》这本书找十个金句,第二个版本结果就好很多,帮我给《活着》这本书找十个金句,并说明在书中哪里。
第六步,用打分指令,给这个终极指令再打个分优化一下。
|