所有文章
AI 实操2026-04-1110 分钟

同一个 AI,为什么有人觉得聪明,有人觉得蠢?

一个真实案例:同一个 Claude Opus 4.6 模型,在桌面端反复修不好一个配置问题,换到命令行一次搞定。差距不在模型,在环境。这篇文章拆解了 AI 表现差异的隐藏变量。

AI 使用技巧Claude Code环境配置认知偏差工具使用

你一定听过这样的争论:

"Cursor 太笨了,改 bug 改了十次还没改好。"

"不会啊,我用 Cursor 效率翻倍了。"

同一个工具、同一个底层模型、甚至同一个版本——为什么不同人的体验天差地别?

大多数人会归因于两个方向:提示词写得好不好,或者模型本身聪不聪明。但今天我要分享一个真实案例,揭示一个被严重低估的第三个变量。

真实案例:同一个模型,两种表现

问题

在 Mac 上安装了 Claude 桌面客户端,想启用 Claude Code 的 "Bypass Permissions"(绕过权限确认)模式——这样 AI 执行命令时不用每次都弹窗确认,效率更高。

但下拉菜单里,这个选项是灰色的,无法选择。

第一轮:桌面端里的 Claude Code

在桌面端打开 Claude Code,让它自己排查修复。Claude Opus 4.6——目前最强的推理模型。

它做了什么:

第1次:修改 ~/.claude/settings.json → 不行
第2次:修改 ~/.claude/settings.local.json → 不行
第3次:修改项目级 settings.local.json → 不行
第4次:修改 3 个 worktree 的 settings → 还是不行
第5次:修复 effortLevel 无效值 → 仍然不行
重启客户端 → 灰色选项纹丝不动

反复修改了 5 个配置文件,JSON 语法全对,配置值全对,但问题纹丝不动。

第二轮:命令行里的 Claude Code

换到终端,用命令行版的 Claude Code,同样是 Opus 4.6,同样的问题描述。

这次它:

  1. 扫描了所有配置文件(和桌面端做的一样)
  2. 检查了 ~/Library/Application Support/Claude/ 下的桌面端专属配置
  3. 运行了 claude --help,注意到 --allow-dangerously-skip-permissions 这个 flag
  4. 意识到桌面端有一个独立于配置文件的 UI 开关

一次性定位根因:桌面端需要在 Settings UI 里单独启用开关,JSON 配置文件只是第二步。

差距在哪?

不是模型不一样。不是提示词不一样。是环境不一样。

变量 1:权限决定了探索半径

桌面端 Claude Code(bypass 未启用)
  → 每个命令都需要用户确认
  → 探索范围受限
  → 倾向于做"安全"的操作(改 JSON 文件)

命令行 Claude Code(bypass 已启用)
  → 自由执行任何命令
  → 可以翻遍整个文件系统
  → 可以运行 claude --help 等诊断命令

这是一个鸡生蛋的死锁:你想启用 bypass permissions,但因为 bypass permissions 没启用,AI 没有足够的权限去发现问题的真正原因。

变量 2:工具可用性决定了思路

桌面端的 Claude Code 能做的事情更少,所以它的"思路"被限制在了一个小圈子里:

"能改的就这几个 JSON 文件"
→ 改了不行
→ "那肯定是改漏了或改错了"
→ 继续改 JSON 文件
→ 死循环

命令行版能做的事情多得多:翻看 Application Support 目录、运行 CLI help、检查 macOS defaults、搜索 Electron 配置——每一个都是桌面端没走过的方向。

变量 3:上下文决定了推理质量

这可能是最被忽视的一点。AI 看到的信息不同,推理质量就不同。

桌面端的 AI 反复在 JSON 文件里打转,它的上下文窗口被大量"我修改了文件 A""我修改了文件 B"的无效信息填满。到最后,它已经在一个信息污染的环境里推理了——之前的错误尝试变成了噪音,干扰了正确判断。

命令行版是一个全新的上下文,没有历史包袱,从零开始系统排查。

这不是个例

回想一下你使用 AI 工具的经历,是不是也遇到过类似的情况?

场景看起来是实际是
AI 改了三次 bug 还没修好"模型太笨了"它看不到关键的日志文件
AI 写的代码跑不通"代码能力不行"它不知道你用的是特定版本的框架
AI 给的方案不靠谱"幻觉太严重"它没有访问你内部文档的权限
同样的提示词,别人的效果更好"我提示词写得不好"别人的环境配置更完善

模型是发动机,但环境是道路。 再强的发动机,在泥泞小路上也跑不快。

环境的四个隐藏维度

AI 的表现 = 模型能力 × 环境系数。环境至少有四个维度:

1. 权限(能做什么)

无权限:只能建议 → "你可以试试改这个文件"
有权限:直接执行 → 改文件、跑命令、验证结果、迭代修复

权限不只是"方便",它直接影响 AI 的闭环能力——能不能自己验证自己的方案。没有闭环,AI 就是在盲猜。

2. 工具(能用什么)

AI 有没有搜索工具?有没有运行代码的能力?能不能读写文件?能不能联网?

每少一个工具,AI 就少一条探索路径。当所有工具都不可用时,它只能靠"纯推理"——这和让一个工程师只用脑子 debug、不准碰电脑一样。

3. 上下文(能看到什么)

你给 AI 一个报错信息让它修 bug,和给它完整的代码文件 + 报错信息 + 最近的 git diff,效果完全不同。

更微妙的是:错误的上下文比没有上下文更糟糕。如果你把之前 5 次失败的尝试都留在对话里,AI 会被这些噪音带偏。

4. 配置(跑在什么参数上)

同一个模型,不同的温度、不同的系统提示、不同的思考深度,表现可以差很多。很多"AI 太笨"的体验,其实是跑在了一个不合适的配置上。

实操建议

基于这个案例和认知,给出几个马上能用的建议:

给 AI 足够的权限

如果你用 Claude Code、Cursor、Windsurf 这类 AI 编程工具,给它完整的文件读写和命令执行权限。在沙盒环境里大胆开放权限,这比小心翼翼地逐个确认效率高 10 倍。

遇到问题换个"房间"

AI 反复修不好一个问题时,不要在同一个对话里继续追问。开一个新对话,用干净的上下文重新描述问题。这次我从桌面端换到命令行,本质上就是换了一个"房间"。

给 AI 提供闭环能力

最好的 AI 使用方式不是"你告诉我怎么改,我自己改",而是"你来改,改完自己跑一下看看对不对"。让 AI 能执行→验证→迭代的闭环,效果远好于只给建议。

注意配置层的完整性

你使用的 AI 工具,它的配置文件在哪里?有几层?有没有被覆盖?很多"AI 不好用"的问题,根源是环境没配对。就像这个案例——配置文件写得完美无缺,但桌面端还有一个独立的 UI 开关没打开。

一个认知升级

下次你觉得"AI 好蠢"的时候,试着问自己三个问题:

  1. 它能看到我看到的所有信息吗?(上下文)
  2. 它能做我能做的所有操作吗?(权限 + 工具)
  3. 它是在一个干净的起点推理,还是被之前的失败尝试污染了?(上下文质量)

答案往往不是"模型不行",而是"我没给它一个能发挥的环境"。

AI 的智商不是固定的。它是环境的函数。


这个案例来自真实的 Claude Code 使用经历。同一个 Opus 4.6 模型,桌面端 5 次修不好的问题,命令行 1 次搞定。差距不在模型,在环境。

开始构建你的 AI 原生知识库

免费开始使用,连接 Claude、ChatGPT 等多种 AI

免费开始
同一个 AI,为什么有人觉得聪明,有人觉得蠢? - KnowMine Blog