所有文章
AI 实操2026-04-1015 分钟

别再让 AI「扮演乔布斯」了——真正有效的是这两个结构化工具

角色扮演提示词正在贬值。取而代之的是两个正交的结构化思维工具:横向多视角扫描(把脉)和纵向层层追因(Deep Why)。附 Claude Code 实操配置。

提示词Claude Code思维工具把脉追因Skills

有一个争论最近又热起来了:用 AI 的时候,要不要给它一个角色?

一派说很重要。「你是顶级产品经理」「你是乔布斯」「你是十年经验的全栈工程师」——加了这句话,模型输出质量明显不一样。另一派说过时了。现在的前沿模型已经足够强,不需要这种角色扮演的拐杖。

两边都对了一半,但都没说到点子上。

角色扮演为什么曾经有用

2023 年,GPT-3.5 时代,模型的默认输出质量参差不齐。给它一个「你是资深工程师」的身份,本质上是在帮模型做分布选择——从平庸语料切换到专业语料的输出分布上。效果确实明显。

但这个机制有个前提:模型的 baseline 不够高

Claude 4.x、GPT-5 这一代模型,专业知识已经是默认调用的。你不说「你是资深工程师」,它也会按资深工程师的水平回答。Anthropic 自己的 prompting 文档里明确说过:与其给 Claude 戴帽子,不如直接说清楚任务和约束。

更关键的是,名人角色扮演往往是负作用。「你是乔布斯」会让模型去模仿乔布斯的传记式语气——武断、金句、扭曲现实力场——而不是真的产出更好的产品判断。你拿到的是表演,不是分析。

真正在贬值的 vs 真正在升值的

很多人把两件完全不同的事混为一谈了:

在贬值在升值
做法「你是乔布斯/顶级 PM」「从 retention 而非 acquisition 的视角分析」
本质身份标签(风格暗示)功能性约束(结构脚手架)
机制帮模型选输出分布强制模型走特定分析路径
与模型能力的关系模型越强越没用模型越强越能吃下来

身份标签是给模型戴帽子,结构化约束是给模型搭脚手架。前者随模型变强而贬值,后者随模型变强而升值——因为更强的模型才能真正执行复杂的结构化指令。

明白了这个区分,我接下来要分享的两个工具就好理解了。它们都不是角色扮演,都是结构化脚手架。一个管横向,一个管纵向。

工具一:把脉——横向多视角扫描

解决什么问题

当你让 AI 帮你做产品决策时,它会给你 A/B/C 三个选项,附上各自的优缺点,然后问你「选哪个?」

问题是:你被锚定在这个选项空间里了。 也许真正的最优解是一个 AI 没列出来的选项 D,而你永远不会知道。

怎么做

「把脉」是我在 Claude Code 里做的一个 Skill。它的核心机制不是让模型扮演某个专家,而是强制模型从 3-5 个跨学科视角同时切入同一个问题

比如你在做产品定位决策,它会从这些维度分析:

  • Jobs-to-be-done 理论:用户雇佣你的产品来完成什么任务?
  • 平台经济学:这个决策对网络效应有什么影响?
  • 品类设计(Play Bigger):你是在已有品类里竞争,还是在创造新品类?
  • 行为心理学:用户的默认行为模式是什么?你在顺应还是对抗?
  • 标杆产品参考:Stripe/Notion/Linear 在类似决策点上选了什么,为什么?

注意,这里面没有一个视角是「扮演 XX 专家」。每个视角都是一个具体的分析框架,带着明确的名字和方法论。「Andrew Chen 的冷启动理论」比「你是增长专家」有用十倍——前者是知识检索锚点,后者只是风格暗示。

关键设计:不只给答案,给判断标准

把脉的输出不是「推荐选 B」就完了。它还会输出一个 3-5 条的评估框架——让你自己用这个框架去校验推荐是否适合你的具体情况。

比如:

标准说明
冷启动新用户没有历史数据时,这个方案是否仍然有价值?
用户感知用户觉得这个功能「懂我」还是「监视我」?
实现复杂度当前团队能否在两周内上线?

大多数人用 AI 做决策时,缺的不是答案,是判断答案好坏的标准。把脉把这个标准也交给你了。

使用方式

在 Claude Code 对话中说「把脉」两个字,自动进入多视角分析模式。不需要写长 prompt,不需要角色扮演,两个字。

工具二:追因——纵向层层穿透

解决什么问题

AI 有一个根本倾向:给出第一个「听起来合理」的原因就停下来。

你问「为什么注册转化率低?」它说「因为 onboarding 流程太长」。听起来合理,你点头了。但真正的原因可能是——用户根本不理解你的产品是什么品类,onboarding 流程长短根本不是瓶颈。

5Why 法则(反复问「为什么」直到触及根因)本应解决这个问题。但现代 AI 有一个新的退化模式:它很会表演深度。 它会流畅地写出 5 层 why,每一层看起来都在深化,但实际上是在同一个层面上换词复述。

怎么判断?看第 3 层和第 5 层之间有没有发生归因维度的跳跃。比如从「产品功能问题」跳到「市场结构问题」再跳到「用户认知模型问题」。如果 5 层都还在产品功能层面打转,那就是表演。

三道反表演约束

为了阻断这种「深度幻觉」,我给追因加了三个硬约束:

1. 维度锁定检测。 每层 why 必须从不同的归因维度切入。维度池包括:产品/功能层、用户行为/心理层、市场/竞争结构层、技术/架构层、组织/资源层、认知/心智模型层。连续两层同维度?强制跳转。

2. 新证据门槛。 每层 why 必须引入至少一个前文没出现过的事实、数据或可验证的观察。不接受「通常来说」「一般认为」这类模糊表述。找不到新证据?必须标注「此层为推测,需验证」,而不是编造。

3. 自适应深度。 不固定 5 层或 10 层。触及不可控因素(市场规律、人性特征)时停止,回溯到你实际能干预的最深层。那才是可行动的根因。

使用方式

这个我没有做成独立 Skill。原因是:追因的最大优势就是——你随时可以在对话中触发,不应该有额外的仪式。

我把它写进了 Claude Code 的系统配置(CLAUDE.md),作为一条行为规则。当我说「追因」或者连续追问「为什么」时,模型自动带上这三个约束。零启动成本。

横向和纵向是正交的

这两个工具解决的不是同一个问题:

把脉 = CT 扫描(多个切面看同一个器官)
追因 = 钻井(一个点往下打到基岩)
把脉追因
方向横向铺开纵向穿透
对治什么视角盲区归因浅层化
输出形态并列的、扇形的链条的、垂直的
适用场景战略分叉点、要做重大决策反复出现的现象、说不清的直觉

最高 ROI 的组合是串联使用

  1. 先用把脉横向扫描 5 个视角
  2. 挑出最关键的那个视角
  3. 用追因在那个视角里纵向穿透到根因

把脉给你地图,追因给你某条路的地质剖面

实操:三层防御体系

光有把脉和追因还不够。日常使用 AI 时,还有一类更基础的问题:模型理解错了你的意图,或者没做功课就随便给答案。

我现在用的是一个三层防御体系,全部配置在 Claude Code 的 CLAUDE.md 里:

Layer 0:上下文锚定(拦截意图误解)

## 术语黑话映射
- 龙虾/小龙虾 → Claude Code
- 爱马仕 → Hermes
- (随时补充你的项目黑话)

## 模糊意图规则
遇到非标准术语或多义表达时,优先结合项目上下文理解。
仍不确定时必须先问,不准猜。

这层解决的是「我说龙虾,AI 理解成了食物」这种幼稚错误。写进 CLAUDE.md 后,模型在每轮对话开始时就加载这些规则,不需要你每次手动提醒。

Layer 1:深度触发词(拦截偷懒)

## 深度触发词
当用户说以下任何一句时,切换到深度模式:
"再深一点" / "别偷懒" / "认真点" / "你确定吗" / "追因"

深度模式要求:
1. 先搜索/验证,再回答(不准凭记忆猜)
2. 每个主张必须有具体依据,不接受"通常来说"
3. 如果之前的回答有误,先明确纠正再继续
4. 追因场景:每层 why 必须切换归因维度,引入新证据

这层解决的是「AI 没搜索没验证就给了个浅答案」。关键设计是触发词必须是你自然会说的话——你发现 AI 在偷懒时,本能反应就是骂一句「认真点」,而不是去想「我应该触发哪个 Skill」。

Layer 2:把脉 Skill(战略决策)

遇到重大产品/战略决策时,说「把脉」进入多视角深度分析。这个频率低但价值高,值得做成完整的 Skill。

判断一个方法论该不该做成 Skill

最后分享一个判断标准,因为我在做追因工具时纠结过这个问题:

如果去掉 Skill 的结构强制,你用自然语言能在 3 句话内触发同等效果 → 不需要 Skill,写进系统指令即可。

把脉做不到这一点——你不可能用 3 句话让模型做 5 个 lens 的交叉分析。所以它值得做成 Skill。

追因可以——「追因,每层换维度,给新证据」这一句话就够了。所以它只需要写进 CLAUDE.md 作为行为规则。

省下来的不只是 Skill 的管理成本。更重要的是,轻量的东西你才会高频使用。追因的最大优势就是随手就用。做成 Skill 反而会加一层仪式感,让你从「随手就问」变成「算了懒得触发」。

总结

别再让 AI 扮演乔布斯了。不是因为 AI 不需要引导,恰恰相反——省下来的 prompt 预算应该重新投到结构和约束上,而不是省掉。

角色扮演是给模型戴帽子,结构化工具是给模型搭脚手架。前者随模型变强而贬值,后者随模型变强而升值。

两个工具:把脉给你横向的地图,追因给你纵向的剖面。它们不重叠,正交互补。串联使用时效果最强。

三层防御:术语锚定拦截误解,触发词拦截偷懒,把脉 Skill 拦截决策盲区。

如果你正在用 Claude Code,这些都可以直接配置。不需要任何插件,不需要任何第三方工具。一个 CLAUDE.md 文件 + 一个 Skill 目录,就是你的整个 AI 思维基础设施。


开源

把脉 Skill 已开源,MIT 协议,一行命令安装:

git clone https://github.com/YIING99/expert-pulse.git ~/.claude/skills/expert-pulse

仓库里包含完整的 SKILL.md(skill 定义)+ 推荐的 Deep Why CLAUDE.md 配置片段。

GitHub: YIING99/expert-pulse

开始构建你的 AI 原生知识库

免费开始使用,连接 Claude、ChatGPT 等多种 AI

免费开始
别再让 AI「扮演乔布斯」了——真正有效的是这两个结构化工具 - KnowMine Blog