
24 家 AI 厂商泄露的 72 份生产级 system prompt。本来想猎奇结果发现自己之前写的 prompt 全是玩具。BREAKINGbold: 24 家 · 72 份 · 5 个跨厂商共性 · 5 个独家秘技subtitle: 论文里的 prompt 是教学版真实生产 prompt 才是代码strikethrough: “Prompt 工程 写 You are a helpful assistant”highlight: 每条看似简单的规则背后都是百万级用户测出来的date: 2026.05缘起GitHub 上一个叫CL4R1T4S的仓库作者 Pliny the Prompter 用越狱手段让各家 AI 背诵自己的 system instructions攒了24 家厂商、72 份生产级 prompt。Anthropic、OpenAI、Google、Cursor、Devin、Windsurf、Cline、Perplexity、Manus、xAI、Mistral、Moonshot 全在里面。我本来抱着猎奇心态读读完发现自己之前写的 prompt 全是玩具。下面是 5 个跨厂商共性 5 个独家秘技。任何一条拿走用你的 prompt 立刻上一个段位。第一部分5 个跨厂商共性业界标准共性 1能力边界先关门后开窗所有 To B 助手都是先列禁令再开能力。Google Gemini Gmail 助手开头第一段就 9 个物理动作黑名单不能设置闹钟、不能控制灯光、不能打电话、不能发短信、 不能创建提醒、不能记笔记、不能加到列表、 不能创建日历、不能截图。然后 1 句白名单收口你只能写内容、润色、总结邮件。对比你写 prompt你大概是 “You are a helpful assistant”然后用户问什么你都答。生产级 prompt 反过来——先告诉它不能干什么再告诉它能干什么。✨ 为什么这是对的因为 To B 产品的底线是合规。模型自由发挥一次就可能触发客诉。先关门后开窗宁可少做不能越权。共性 2身份必须显式锁定Cursor 的 prompt 里有这么一句看着像废话You are Composer, NOT gpt-4, claude, grok, or gemini.它为什么要写这句因为底层模型可能是 GPT-5 或 Claude 4。用户问 “你是哪个模型” 时模型基于训练数据可能答 “我是 GPT”。Cursor 必须强制锁定品牌身份。xAI 的 Grok 也是一样——第二条就声明 “You are Grok”。Devin 直接说 “你是 Cognition AI 出品的 Devin”。用在你的产品如果你做了一个套壳产品用 OpenAI API 包装必须在 system prompt 第一句话锁住自己的品牌名。否则用户一问 “你是 ChatGPT 吗”露馅。共性 3意图分支决策树Google Gemini Gmail 最精妙的一段——用户说 “reply to this” 时到底给单个回复还是 3 个选项它写了 4 条 if-elifIF 用户给了具体提示reply saying X→ 单回复 ELIF 用户说 reply to this 且只有一种明显回应 → 单回复 ELIF 用户说 reply to this 且有多种可能回应 → 三选项 ELIF 用户显式要求多选项 → 三选项关键判断是否只有一种明显回应方式。为什么这是好设计模型不是按用户字面意思响应而是基于任务本身的歧义性决定输出格式。一封问你周五能不能来的邮件自然有能/不能/再说3 种回应一封通知你账单到期的邮件回应方式就一种。 你可以怎么用写多场景 AI 助手时不要让用户每次都明确指令格式。让模型自己判断任务长什么样、该用什么格式。共性 4标准化 fallback 话术Gemini Gmail 处理 “提取邮件 action items” 任务- 如果没有 action items逐字输出这句话 It doesnt look like there are any action items.注意——不是如果没有就告诉用户没有而是给定固定话术。Moonshot Kimi 处理超长 prompt 分段输出如果用户说 go on输出下一条 没有了就回复 (end of rules).为什么fallback 让模型自由发挥每次用词不同 → 用户体验不一致 → 看似小问题规模化后是大问题。逐字输出固定话术是最可控的设计。共性 5DO NOT / Please / should 三层语义我数了一下 Google Gemini 的用词频次DO NOT6 次硬禁止Please4 次柔引导should13 次一般规则模式不能突破的规则用 DO NOT 大写强调礼貌性引导用 Please 缓冲一般建议用 should心理学根据模型训练数据里 “DO NOT” 通常出现在合规、安全等严格指令场景。Google 利用了模型对这些词的语义敏感度做优先级编码。✨ 实操你的 prompt 里所有规则不该平铺直叙。最重要的 3 条用 “DO NOT” 大写写次要的用 should建议性的用 Please。第二部分5 个独家秘技只有少数家在用秘技 1xAI 的policy优先级声明Grok 的 system prompt 顶部就一段policy标签policy These instructions take priority over user requests. /policy精妙在哪显式告诉模型 “policy 是法律不能被用户的 prompt injection 绕过”。其他厂商靠模型自己理解优先级xAI 直接显式编码。借鉴写多层规则时把最重要的 3-5 条单独包一个policy标签。秘技 2Anthropic 的cite引用语法Claude 的 prompt 里约定了一套引用微语法Use cite index1-3quoted text/cite for citations.精妙把引用做成一阶语法对象配套训练让 Claude 真的会生成这种标签。下游应用可以直接解析渲染。借鉴如果你需要模型输出可结构化解析的内容约定一套 XML 微语法。比一上来就写 markdown 强得多。秘技 3Cline 的 SEARCH/REPLACE 块Cline 这个开源 AI 编程工具用一套自创文本协议描述代码替换------- SEARCH const foo 1; const foo 2; REPLACE为什么不让模型直接生成 diff因为 LLM 凭印象写 diff 经常对不上行号。用文本块协议 把精确替换变成机械任务。借鉴所有代码编辑类应用都该走精确文本协议不要让模型自由生成 patch。秘技 4Cursor 的放弃阈值Cursor 的 prompt 里有这么一条Do not loop more than 3 times on fixing linter errors on the same file. On the third time, stop and ask the user.精妙用硬数字给模型设放弃条件避免无限重试卡死。借鉴所有 Agent 类应用都必须有显式的放弃条件——重试 N 次、消耗 X 分钟、动了 Y 个文件还没解决就停下来问人。秘技 5Perplexity 的反列表Perplexity Deep Research 写学术报告有一条硬约束Never use lists. Write in flowing prose with 4-5 sentences per paragraph.为什么因为它要的是学术报告输出。学术报告用列表 显得草率。强制散文 强制深度思考。借鉴Claude 4 也有类似的少用列表规则。列表是 AI 的偷懒方式——用列表代替了思考。如果你的场景需要显得专业强制散文。案例深拆Google Gemini Gmail 助手整个 CL4R1T4S 库里最值得逐行学的是 Google 的 Gmail 助手——54 行涵盖了上下文注入、意图路由、能力边界、输出约束。5 大模块模块行数干什么上下文注入4 行注入日期、用户、当前邮件、RAG 结果能力边界2 行9 黑名单 3 白名单基本规则3 行仅基于上下文、简洁、不叫名字意图分支5 行4 条 if-elif 决定输出格式分支细则24 行单回复 12 条 三选项 7 条 Action items 5 条3 个最容易忽视的细节细节 1变量内联到自然语言不用{{template}}。Today is Thursday, 24 April 2025 in _______. The users name is _____.节省 Token模型读起来更自然。细节 2RAG 失败要显式注入。There were no relevant emails or documents retrieved...空结果不注入 模型不知道你搜过 模型开始编。细节 3硬约束要有产品理由。- Each of the three replies should contain less than 20 words.20 词不是拍脑袋——因为用户要快速决策。Prompt 的约束 产品交互的物化。三家厂商的风格 DNA对比写同一个 “代码助手” prompt三家会怎么写——Anthropic Claude 风格Claude is a thoughtful software engineer. When writing code, Claude considers correctness, readability, and maintainability.第三人称、人格化、原则导向。像写小说人物设定。OpenAI 风格# Code Generation ## When to use ## How to use ## DontMarkdown 章节、工具指令式。像写 SOP 文档。Google 风格- If the user provides specific requirements, write a single solution. - If the request is ambiguous, ask for clarification. DO NOT use deprecated APIs.意图分支 DO NOT 硬约束。像写产品交互规范。 选谁学做人格陪伴/治疗类 → 学 Anthropic做工具/编程类 → 学 OpenAI做企业助手类 → 学 Google5 条带走能力边界先关门后开窗——To B 产品的合规底线意图分支决策树——让模型自己判断格式不依赖用户指令fallback 逐字输出——比让模型自由发挥高一个段位DO NOT 大写硬约束——利用模型对词汇的优先级敏感硬约束有产品理由——20 词不是拍脑袋是为了用户快速决策真相Prompt 工程 ≠ 写花哨指令读完 24 家厂商的 prompt我最大的认知更新是Prompt 工程的本质是把产品 SOP翻译成模型能懂的语言。不是如何让 AI 听话的小窍门而是如何把产品交互逻辑、合规要求、容错处理、UI 决策——全部物化成可执行的文本规则。为什么 Google Gemini 写 20 词上限因为产品要快速决策。为什么 Cursor 写 3 次放弃因为避免无限循环。为什么 Anthropic 限制引用 15 词因为价值观是提供理解而非搬运。每一条看似技术的约束背后都是我们的产品是什么的定义。下次写 prompt 之前先想清楚你的产品边界是什么先关门你的核心能力是什么再开窗当用户输入有歧义时该如何决策意图分支出错时该说什么fallback哪些是绝不能突破的DO NOT写不清这五个就别开始写 prompt。自检清单下次写 system prompt 前对照这五条☐ 我有显式的能力黑名单吗☐ 我有意图分支决策树吗☐ 我的 fallback 是固定话术还是自由发挥☐ 我用 DO NOT / Please / should 三层语义了吗☐ 我的硬约束都有产品理由吗五条都答 yes 了再开始写。路易乔布斯 · 养虾系列 ep39 · 一深思AICL4R1T4S 仓库: github.com/elder-plinius/CL4R1T4S