别让 AI 替你想问题
今天热议,Michael Polanyi,来源一个大佬发布的推,然后看见不少转发还附带上以 Polanyi 悖论:(我们知道的,远比我们能说出来的多得多)为主题写了一些提示词。
超级长,什么要根据 Polanyi 悖论来巴拉巴拉。
把理论塞进 prompt,不代表 AI 就会了
我就很奇怪了,为什么大部分人在用这些理论,思考方法,比如”第一性原理""Polanyi""费曼方法”这些概念的时候,都是把它们塞进 prompt 里当指令,希望 AI 按照这个框架去思考。
但问题是——AI 并不会因为你在 prompt 里写了”用第一性原理”就真的具备第一性原理的思维能力。它只是会模仿那个格式输出,看起来像,但是是迎合你去表演而已。
你为什么不把它反过来呢?
你自己先用第一性原理把问题拆解清楚,想明白最底层的假设是什么,然后给 AI 的 prompt 就是拆解后的具体问题。AI 负责执行,你负责思考框架。
拿到 AI 的输出之后,再用第一性原理去验证:这个回答有没有隐含未经检验的假设?有没有跳过逻辑环节?
简单说就是三步:
- 你用理论拆解问题
- AI 执行具体任务
- 你用理论验证结果
而不是:把理论名词丢给 AI → 期待 AI 替你思考。

你输入的每一个字都是提示词
并且,提示词不是一大段东西,我们输入的,比如我这段话,是不是提示词???
很多人对”prompt”有个误解,觉得它必须是精心设计的、带角色设定、带框架的一大段东西。
但实际上你在和 AI 对话输入的每一句话都是 prompt——包括”帮我翻译这句话”这种最简单的指令。
所谓”提示词工程”把这件事搞复杂了。它让人觉得必须用特定格式、特定术语、特定结构才能让 AI 好好工作。
但你回想你每次就是用自然语言提了一个具体的问题,得到的回答质量也不差。
区别其实只在于:
- 好的 prompt = 你想清楚了要问什么,然后用自然语言说清楚。
- 坏的 prompt = 你自己没想清楚,试图用一堆框架术语让 AI 替你想清楚。
AI 是顺从性人格,是基于概率来回复你消息
很多人不愿意动脑子给 AI 一大堆理论,想要让 AI 帮她想清楚一个事情,但是 AI 说的不一定是对的呀,并且如果你自己不去思考,一直让 AI 帮你思考,那么你的脑子就会变得越来越蠢。
AI 不像其他工具——你不会用锤子就钉不进钉子,结果很明确。
AI 的问题是它永远会给你一个看起来合理的答案,不管对不对都说得很流畅。如果你自己没有判断力,你根本分不清它是真的在帮你思考,还是在一本正经地胡说。
不要让 AI 直接给你结论,而是让它把推理过程摊开。比如你不会用第一性原理,不要问”用第一性原理帮我分析这个问题”,而是问”这个问题最底层的假设是什么?每个假设分别成立的依据是什么?“然后你看它列出来的东西,逐条问自己:这个我认同吗?这个有没有漏洞?

本质上就是把 AI 当成一个陪你想问题的人,而不是替你想问题的人。