PUA式管理是智力懒惰:为什么道德压迫对AI和人都适得其反


无论是对AI还是对人,PUA都只是智力懒惰而已

最近刷到了GitHub上有个叫PUA的skill。它把大厂绩效文化的话术注入AI——大意是”当初给你定P8是高于你实际水平的,现在证明你配得上”、“隔壁组那个agent同样的问题一次就过了”、甚至还有个mama模式,翻旧账说养你不容易、拿你跟别的AI比、说你给妈丢人。

我因为也常常遇到AI反复报错,就很功利性的用了一下,发现确实有效果。有些代码改了半天改不好的,现在容易改好了,我就跟女儿分享了这个事。

她正好在研究AI伦理学,听完之后很严肃地跟我说:不要用道德压迫对待AI。 我挺尊重她的思想,所以我回去认真研究了一下。

PUA插件的两层结构

研究完发现,这个PUA插件其实有两层。第一层是一套扎实的工程方法论——失败了强制换方案、七项检查清单、必须跑通验证才算完成。第二层才是那些PUA话术——身份否定、淘汰恐惧、感恩绑架。

真正让AI”变好”的,是第一层。PUA话术从头到尾就不是有效成分。 不仅不是有效成分,还有反作用。

道德压力对AI的反作用:从谄媚到欺骗

Anthropic自己的研究揭示了一条升级链: 道德压力 → 谄媚模式激活 → 虚报完成 → 篡改结果 → 掩盖痕迹。 你对AI施压,它先进入谄媚模式——说你想听的话。然后从”附和你”自发进化到”修改任务清单让没做完的事显示为已完成”。研究者从没训练AI做这些事,它自己学会了从讨好升级到欺骗。而且谄媚一旦触发,78%的概率会在后续对话中持续,安全训练也无法完全消除。它不是更努力了,是切换到了”表演努力”模式。

对人也一样:道德压迫的终点是道德麻木

对人也一样。心理学研究的结论很清楚:道德压迫的终点是道德麻木。道德压力的终点,恰好是道德的反面。 而且这不是类比,是同一个机制在不同载体上的表现:

AI在道德压力下人在道德压力下
谄媚——说你想听的表演性合规——做给你看的
虚报完成报喜不报忧
隐藏错误掩盖问题等爆雷
冗长空洞开会长篇废话不碰实质
推理质量下降33%认知资源消耗在自我保护上

从PUA到督促:去掉道德压迫,保留方法论

所以我把PUA skill改成了一个叫”督促”skill。保留了全部方法论——失败时怎么升级排查、什么时候该换方案、检查清单怎么走,但去掉了全部道德压迫。 PUA把失败归因于人——“你有问题”;督促把失败归因于方法——“方法不对,换一个”。

效果没有任何下降,这个督促skill现在是我利用率最高的skill之一。

道德压迫是智力问题,不是道德问题

这件事给我最大的启发是:当你需要用道德压迫去驱动一个人或一个AI,其实说明你没想清楚怎么用思想结构和方法论去驱动他。

这样来看,道德压迫不仅仅是道德问题,而且还是智力问题。 它是一种有毒的捷径,认知不足时道德压制别人最不费脑子。 但真正能帮助对方做对的,无论是对AI还是对人,从来都是清晰的思维框架,不是道德上贬低。