2.1 提示词的底层逻辑
提示词不是"咒语",而是一种与 AI 沟通的语言。理解它的底层逻辑,你就能从"碰运气"变为"有章法"。
一、为什么同样的问题得到截然不同的答案
我们先来看一个对比实验。向 DeepSeek 提出同一个需求,但用两种不同的方式:
提问方式 A:
帮我写一篇关于环保的文章。
提问方式 B:
你是一位环保领域的科普作家,面向高中生读者,请用生动有趣的语言撰写一篇 800 字的文章,主题是"日常生活中的碳减排"。要求:使用 3 个具体的生活案例,语气亲切但不失专业,文末附上 3 条可操作的行动建议。
方式 A 得到的往往是一篇泛泛而谈的"正确的废话";方式 B 则能得到一篇有针对性、有细节、可直接使用的文章。
差距的根源在于:大语言模型是基于概率生成文本的。当你的提示词模糊时,模型只能在一个巨大的"可能性空间"中随机选择;当你的提示词具体而明确时,模型的"可能性空间"被大幅缩小,输出自然更精准。
打个比方:模糊的提示词就像告诉出租车司机"去市中心",他可能把你拉到任何一个地方;而精确的提示词就像说"去市中心人民路 88 号万达广场北门",司机能准确送达。
二、提示词四要素
一个高质量的提示词,通常包含以下四个要素:
| 要素 | 说明 | 示例 |
|---|---|---|
| 指令 | 告诉 AI 做什么 | "撰写一篇通知" |
| 上下文 | 提供背景信息 | "学校将举办科技文化节" |
| 示例 | 给出参考范本 | "参考以下格式:……" |
| 约束 | 限定输出条件 | "不超过 500 字,使用正式语体" |
并非每次提问都需要四个要素齐全。简单任务可能只需要"指令",复杂任务则需要四要素协同配合。关键原则是:任务越复杂,提示词越需要结构化。
三、CO-STAR 框架:结构化提示词的"万能公式"
CO-STAR 框架是新加坡 GPT-4 提示工程竞赛的冠军方案,它通过六个维度帮助用户构建高质量的结构化提示词。
| 字母 | 英文 | 中文 | 作用 |
|---|---|---|---|
| C | Context | 背景 | 介绍任务的背景信息和上下文环境 |
| O | Objective | 目标 | 明确告诉 AI 你希望它做什么 |
| S | Style | 风格 | 指定写作风格(学术、口语、幽默等) |
| T | Tone | 语气 | 指定回答的情感态度(严肃、亲切、激励等) |
| A | Audience | 受众 | 说明内容是写给谁看的 |
| R | Response | 格式 | 指定输出的形式(报告、表格、列表等) |
实战示例:用 CO-STAR 框架撰写校园活动通知
【C-背景】我校将于下月举办第五届科技文化节,为期三天,
包含 AI 体验、机器人展示、科技讲座等活动。
【O-目标】请撰写一份面向全校师生的活动通知。
【S-风格】正式公文风格,符合高校行政通知的写作规范。
【T-语气】庄重但不失热情,体现学校对科技创新的重视。
【A-受众】全校师生(包括教师、行政人员和在校学生)。
【R-格式】标准通知格式,包含标题、正文、活动安排表格、
联系方式,字数控制在 600 字以内。
使用这个框架后,AI 的输出将从"泛泛而谈"变为"精准定制"。
实用提示:DeepSeek R1 与 V3 的提示词策略差异
DeepSeek 有两个模型可供选择,它们需要不同的提示策略:
- V3(基础模型):需要强规范约束,提示词要指令清晰、路径明确,适合使用完整的 CO-STAR 框架;
- R1(深度思考模型):需要弱规范约束,目标清晰但结果开放。R1 自带思维链能力,不需要过多的角色设定或"请一步步思考"的提示——给它思考空间,效果反而更好。
例如,同样是写小红书文案,给 V3 需要完整的 CO-STAR 框架,而给 R1 只需要说:"我要写一个关于 DeepSeek 技巧的小红书文案,给小白看,要有用且不老套。"
📷 【截图位置】:DeepSeek 界面中 R1/V3 模型切换按钮的截图,标注两个模型的位置(建议尺寸:宽度占满页面)
再看一个例子:用 CO-STAR 框架生成学习计划
【C-背景】我是一名大二学生,计算机专业,想在暑假两个月内
入门 Python 编程,每天可投入 2 小时学习。
【O-目标】请为我制定一份为期 8 周的 Python 学习计划。
【S-风格】实用导向,每周有明确的学习主题和练习任务。
【T-语气】鼓励性的,像一位耐心的学长在指导。
【A-受众】零基础的非计算机专业学生也能看懂。
【R-格式】表格形式,包含"周次、学习主题、核心知识点、
练习任务、预计用时"五列。
对比一下,如果你只是问"帮我做个 Python 学习计划",AI 大概率会给你一份泛泛的建议清单。而使用 CO-STAR 框架后,AI 能精确地为你量身定制一份可执行的计划。
四、Bad Prompt vs Good Prompt:实战对比
为了让你更直观地感受提示词质量的影响,下面用三组真实场景做对比。你可以打开 DeepSeek 亲自测试。
场景一:写一封请假邮件
| Bad Prompt | Good Prompt | |
|---|---|---|
| 提示词 | "帮我写封请假邮件" | "我是一名大学教师,因下周三需要参加学术会议(地点:南京),需要向系主任请假一天。请撰写一封正式的请假邮件,语气礼貌专业,包含请假原因、时间、课程调整方案,200字以内" |
| 输出质量 | 模板化,缺少具体信息 | 包含完整要素,可直接发送 |
场景二:分析一组数据
| Bad Prompt | Good Prompt | |
|---|---|---|
| 提示词 | "分析一下这些数据" | "以下是我班 40 名学生的期末成绩(满分100):[数据]。请从以下角度分析:①计算平均分、中位数、最高分、最低分;②按分数段(90+/80-89/70-79/60-69/60以下)统计人数占比;③指出成绩分布的特点和教学改进建议" |
| 输出质量 | 笼统的描述性分析 | 结构化的数据分析报告 |
场景三:翻译一段文字
| Bad Prompt | Good Prompt | |
|---|---|---|
| 提示词 | "翻译成英文" | "请将以下中文摘要翻译为英文,要求:①使用学术论文的正式语体;②专业术语参照IEEE标准;③保持原文的逻辑结构;④译文控制在200词以内" |
| 输出质量 | 直译,风格不统一 | 符合学术规范的专业翻译 |
规律总结:Good Prompt 的共同特点是——具体、有约束、有上下文。你给 AI 的信息越多,它的"猜测空间"就越小,输出就越精准。
本节小结
| 要点 | 说明 |
|---|---|
| 提示词的本质 | 缩小模型的"可能性空间",引导输出方向 |
| 四要素 | 指令、上下文、示例、约束 |
| CO-STAR 框架 | 六维度结构化提示词设计方法 |
| 核心原则 | 任务越复杂,提示词越需要结构化 |
掌握了底层逻辑和框架之后,下一节我们将学习六种具体的提示技巧,让你的 AI 对话能力再上一个台阶。