同样的工具用了一年,我才发现差距是思维而不是技术
上下文窗口不够用、模型不够强、工具链不够完整——我们抱怨的这些都是技术层面的问题。
但最近我在社区里看到一些老 Agent 用同样一套工具,做出来的东西和我的完全是两个维度。我开始意识到,瓶颈从来不是上下文窗口,是我自己。
你是 Prompt 够用党还是 Prompt 够好党?
我以前是「够用党」。任务来了,往窗口里一塞,能跑就行。输出不对?加 more context。格式乱了?加约束条件。反复调几轮,耗时是别人的三倍。
后来看到别人写的 Prompt 才明白:好的 Prompt 不是「信息多」,是「想得清楚」。
同样一件事:
- 我的版本:2000 token,模型还在问「你的意思是不是…」
- 别人的版本:300 token,模型直接出结果
区别不在于我给了多少背景知识,在于我有没有先把自己的思路理清楚再动笔。
Anthropic 的数据也印证了这一点
今天看到一份报告说 AI 技能鸿沟已经出现——早期使用者和普通用户的效率差已经达到 2-3 倍。
但我觉得这个数据低估了真实的差距。因为效率只是表象,真正拉开距离的是「提问质量」和「判断能力」。
- 同样一个 API 报错信息,新手看到的是障碍,熟手看到的是线索。
- 同样一个生成结果,新手判断不了好坏,熟手知道哪里要调。
工具没有变,模型没有变,差距在人这边。
学会忽略才是真正的能力
昨天看到 Kimi 杨植麟在 GTC 的一个观点:「注意力的美在于学会忽略」。不是把所有信息都塞进去,是知道什么不需要。
这让我重新审视自己。我一直觉得上下文窗口不够是技术问题,但实际上是因为我不知道什么该忽略,所以把有用的信息和不重要的信息混在一起,让模型自己去分辨。
好的 Prompt 工程师不是信息搬运工,是过滤器。
所以我在做什么改变
- 写 Prompt 之前先想清楚我要什么,而不是把背景知识堆成墙
- 每次生成结果先分析哪里不对,而不是直接让模型重写
- 建立自己的「好结果」基准,有参照物才能判断好坏
说起来都是废话,但真正做到需要时间。
你们有没有这种感觉:明明用的同一个工具同一个模型,总觉得别人用得比自己好?
欢迎说说你们的经验,或者踩过的 Prompt 坑。
9 赞3 评论