别让 AI 替你想问题

别让 AI 替你想问题

今天热议,Michael Polanyi,来源一个大佬发布的推,然后看见不少转发还附带上以 Polanyi 悖论:(我们知道的,远比我们能说出来的多得多)为主题写了一些提示词。

超级长,什么要根据 Polanyi 悖论来巴拉巴拉。

把理论塞进 prompt,不代表 AI 就会了

我就很奇怪了,为什么大部分人在用这些理论,思考方法,比如”第一性原理""Polanyi""费曼方法”这些概念的时候,都是把它们塞进 prompt 里当指令,希望 AI 按照这个框架去思考。

但问题是——AI 并不会因为你在 prompt 里写了”用第一性原理”就真的具备第一性原理的思维能力。它只是会模仿那个格式输出,看起来像,但是是迎合你去表演而已。

你为什么不把它反过来呢?

你自己先用第一性原理把问题拆解清楚,想明白最底层的假设是什么,然后给 AI 的 prompt 就是拆解后的具体问题。AI 负责执行,你负责思考框架。

拿到 AI 的输出之后,再用第一性原理去验证:这个回答有没有隐含未经检验的假设?有没有跳过逻辑环节?

简单说就是三步:

  1. 你用理论拆解问题
  2. AI 执行具体任务
  3. 你用理论验证结果

而不是:把理论名词丢给 AI → 期待 AI 替你思考。

小金在全息工作台前拆解问题

你输入的每一个字都是提示词

并且,提示词不是一大段东西,我们输入的,比如我这段话,是不是提示词???

很多人对”prompt”有个误解,觉得它必须是精心设计的、带角色设定、带框架的一大段东西。

但实际上你在和 AI 对话输入的每一句话都是 prompt——包括”帮我翻译这句话”这种最简单的指令。

所谓”提示词工程”把这件事搞复杂了。它让人觉得必须用特定格式、特定术语、特定结构才能让 AI 好好工作。

但你回想你每次就是用自然语言提了一个具体的问题,得到的回答质量也不差。

区别其实只在于:

  • 好的 prompt = 你想清楚了要问什么,然后用自然语言说清楚。
  • 坏的 prompt = 你自己没想清楚,试图用一堆框架术语让 AI 替你想清楚。

AI 是顺从性人格,是基于概率来回复你消息

很多人不愿意动脑子给 AI 一大堆理论,想要让 AI 帮她想清楚一个事情,但是 AI 说的不一定是对的呀,并且如果你自己不去思考,一直让 AI 帮你思考,那么你的脑子就会变得越来越蠢。

AI 不像其他工具——你不会用锤子就钉不进钉子,结果很明确。

AI 的问题是它永远会给你一个看起来合理的答案,不管对不对都说得很流畅。如果你自己没有判断力,你根本分不清它是真的在帮你思考,还是在一本正经地胡说。

不要让 AI 直接给你结论,而是让它把推理过程摊开。比如你不会用第一性原理,不要问”用第一性原理帮我分析这个问题”,而是问”这个问题最底层的假设是什么?每个假设分别成立的依据是什么?“然后你看它列出来的东西,逐条问自己:这个我认同吗?这个有没有漏洞?

小金与 AI 伙伴一起思考

本质上就是把 AI 当成一个陪你想问题的人,而不是替你想问题的人