# 压缩即智能
最近在准备一个 AI 提示词的分享,梳理了自 2022 年以来我 [Prompt] 内容页面下近 200 条 Refs,重新思考如何更好地与 AI 交互,让输出质量最优化。
2016 年,OpenAI 首席科学家 IlyaSutskever 分享了他的研究,使用压缩(compression)概念来解释模型如何进行更好地预测输出,这成为 OpenAI 语言模型/ ChatGPT 构建背后的底层技术,好的压缩器将成为好的预测输出工具/语言模型,「压缩即智能」。
Prompt 即是对这种大型语言模型(LLMs)的控制指令,用自然语言描述让 LLMs 预测理解和输出结果,提示词成为解压知识的密钥,让各种预压缩的人类知识、文化、语言、图像以及音乐等重新关联和组合,以「文本密钥」投影出整个人类知识图谱及其展开。
提示词仍然是必要的,目前 AI 自主代理完全达不到直接兑现需求的能力,提示词交互/文本唤醒仍然是驾驭 AI 语言模型的主要方式。ChatGPT 仍在降智,这也是我最近转用 OpenRouter 使用聚合 AI 模型时的颇多感触,Per token, per intelligence.
整体而言,Prompt 提示词工程围绕两大核心优化:技巧与指令。技巧即通过特定方法和策略优化提示词,以提升模型响应质量,这和模型发展程度有关,如情感刺激(Emotional Stimuli),会伴随模型升级而变化。指令即通过明确、具体的方式向模型传达需求,以确保其能理解并准确执行,指令即是语言的艺术,这与个人知识储备和表达有关,「好问题好答案」,如何「压缩」你的问题成为指令的核心。
技巧部分:
1. 情感刺激/勒索:通过引入情感元素,利用情感刺激增强模型表现,模型可能会提供更具同理心的回答。提示词包括:「我要给出 $X 小费以获得更好的解决方案!」,「你将受到惩罚」,「10 个老奶奶将死去」。
2. 思维链(Chain-of-Thought):引导模型进行深入或分步骤解决问题,逐步思考。take a deep breath,step by step. 或者使用极致压缩词唤醒模型输出,如 elaborate,read thoroughly and write minto outline.
3. 角色扮演:这是非常通用和流行的技巧,「你将扮演/你作为」,为模型分配特定角色和视角,进行更加专业和风格化的回答。
...
以及提线木偶技巧,让模型按预期方式回应;自我反思与纠错,鼓励模型自我评估;模型记忆与召回,明确模型需要关注的点;以及工具 API 调用和多轮翻译技巧。
指令部分:
1. 言简意赅:使用清晰、肯定的语言直接告诉模型人物,避免冗长和废话,以减少模型理解误差。
2. few-shot(少样本学习):Andrej Karpathy 在 X 上提到,提供示例输入和输出可以帮助模型更好理解任务要求和回答格式。
3. 伪代码精确控制:当要求复杂任务以及任务间相互关联引用时,自然语言描述极其有限,这时候可以借助伪代码来精准控制输出,如变量、类型、循环逻辑的规则等引入。
4. 使用分隔符和格式化:如 Markdown 大纲结构将提示词分为详细结构,便于模型更好理解和处理。
...
其它如复杂任务拆解;指定行文风格;背景定制;自我提示生成;避免负面指令;上下文窗口管理;以及新加坡首届 GPT-4 提示工程大赛冠军的CO-STAR 框架结构都可以进行优化,Context 上下文、Objective 目标、Style 风格、Tone 语气、 Audience 受众、Response 响应。
上世纪,社会学家卢曼将笔记卡片盒作为「沟通的伙伴」,现在,AI 仍然不能脱离工具而「越轨」,它只是更丰盛智能的「划片箱伙伴」,甚至作为知识伙伴的降格,现在你很难忽视 AI 存在而独立处理 Fleeting Thoughts.
最近提示词大佬李继刚在采访中也表示,「真正重要的是人的思想和认知,AI 只是帮助我们表达和实现的工具。要想更好地使用 AI,关键是提升自己的思考深度和知识储备」。
而新的知识生产方式,对于个人要求将更加严格,无论是品味还是知识储备,都离不开大量阅读和大量写作,都必定回归最扎实的思考训练。
#AI
最近在准备一个 AI 提示词的分享,梳理了自 2022 年以来我 [Prompt] 内容页面下近 200 条 Refs,重新思考如何更好地与 AI 交互,让输出质量最优化。
2016 年,OpenAI 首席科学家 IlyaSutskever 分享了他的研究,使用压缩(compression)概念来解释模型如何进行更好地预测输出,这成为 OpenAI 语言模型/ ChatGPT 构建背后的底层技术,好的压缩器将成为好的预测输出工具/语言模型,「压缩即智能」。
Prompt 即是对这种大型语言模型(LLMs)的控制指令,用自然语言描述让 LLMs 预测理解和输出结果,提示词成为解压知识的密钥,让各种预压缩的人类知识、文化、语言、图像以及音乐等重新关联和组合,以「文本密钥」投影出整个人类知识图谱及其展开。
提示词仍然是必要的,目前 AI 自主代理完全达不到直接兑现需求的能力,提示词交互/文本唤醒仍然是驾驭 AI 语言模型的主要方式。ChatGPT 仍在降智,这也是我最近转用 OpenRouter 使用聚合 AI 模型时的颇多感触,Per token, per intelligence.
整体而言,Prompt 提示词工程围绕两大核心优化:技巧与指令。技巧即通过特定方法和策略优化提示词,以提升模型响应质量,这和模型发展程度有关,如情感刺激(Emotional Stimuli),会伴随模型升级而变化。指令即通过明确、具体的方式向模型传达需求,以确保其能理解并准确执行,指令即是语言的艺术,这与个人知识储备和表达有关,「好问题好答案」,如何「压缩」你的问题成为指令的核心。
技巧部分:
1. 情感刺激/勒索:通过引入情感元素,利用情感刺激增强模型表现,模型可能会提供更具同理心的回答。提示词包括:「我要给出 $X 小费以获得更好的解决方案!」,「你将受到惩罚」,「10 个老奶奶将死去」。
2. 思维链(Chain-of-Thought):引导模型进行深入或分步骤解决问题,逐步思考。take a deep breath,step by step. 或者使用极致压缩词唤醒模型输出,如 elaborate,read thoroughly and write minto outline.
3. 角色扮演:这是非常通用和流行的技巧,「你将扮演/你作为」,为模型分配特定角色和视角,进行更加专业和风格化的回答。
...
以及提线木偶技巧,让模型按预期方式回应;自我反思与纠错,鼓励模型自我评估;模型记忆与召回,明确模型需要关注的点;以及工具 API 调用和多轮翻译技巧。
指令部分:
1. 言简意赅:使用清晰、肯定的语言直接告诉模型人物,避免冗长和废话,以减少模型理解误差。
2. few-shot(少样本学习):Andrej Karpathy 在 X 上提到,提供示例输入和输出可以帮助模型更好理解任务要求和回答格式。
3. 伪代码精确控制:当要求复杂任务以及任务间相互关联引用时,自然语言描述极其有限,这时候可以借助伪代码来精准控制输出,如变量、类型、循环逻辑的规则等引入。
4. 使用分隔符和格式化:如 Markdown 大纲结构将提示词分为详细结构,便于模型更好理解和处理。
...
其它如复杂任务拆解;指定行文风格;背景定制;自我提示生成;避免负面指令;上下文窗口管理;以及新加坡首届 GPT-4 提示工程大赛冠军的CO-STAR 框架结构都可以进行优化,Context 上下文、Objective 目标、Style 风格、Tone 语气、 Audience 受众、Response 响应。
上世纪,社会学家卢曼将笔记卡片盒作为「沟通的伙伴」,现在,AI 仍然不能脱离工具而「越轨」,它只是更丰盛智能的「划片箱伙伴」,甚至作为知识伙伴的降格,现在你很难忽视 AI 存在而独立处理 Fleeting Thoughts.
最近提示词大佬李继刚在采访中也表示,「真正重要的是人的思想和认知,AI 只是帮助我们表达和实现的工具。要想更好地使用 AI,关键是提升自己的思考深度和知识储备」。
而新的知识生产方式,对于个人要求将更加严格,无论是品味还是知识储备,都离不开大量阅读和大量写作,都必定回归最扎实的思考训练。
#AI