
旧金山有叫 Cluely 的初创公司,做的是给工人开会、面试、写代码时实时偷看 AI 答案的工具。他们有两条广告语,条是"你再也不用思考了" ( Stop thinking ) ,条直接叫"思考的终结" ( End of thinking ) 。
我看到这两句话的反应不是震惊,反倒觉得它们很诚实,而且抓住了这个时代的时代精。
诚实在哪?诚实在硅谷已经准确判断了,这个时代真正能出去的东西,已经不是"让你聪明"。那种话听上去,但产品做不到。
真正能出去的是"让你不用聪明"。这两件事不是程度差别,是向相反。前者要求你投入摩擦,后者承诺帮你绕过摩擦。
今天这篇文章,想说的是件比" AI 让人变笨"黑点的事:
AI 可能没有让你变蠢,它只是让你失去了变聪明的那段过程。
我下面会反复用个词来指称这种状态:伪智能。需要先把这个词的意思讲清楚,因为它的重音不在 AI 那边,在人这边。
伪智能不是 AI 输出的内容假。AI 大多数时候输出的内容是不假的,而且越来越不假。伪智能是个人借助 AI 呈现出种看似聪明的状态,却没有经历聪明背后需的那段训练。
学生交上来的论文、CEO 看到的市场分析、医生收到的诊断建议、政府收到的政策报告,都"看起来对"。"看起来对"和"是对的"之间,差着整个思考过程。"看起来聪明"和"真的聪明"之间,差着整段没人愿意走的训练。
聪明从来不是个状态,是种习惯。个人不是因为知道了答案就变得聪明,是因为反复经历了"自己摸到答案"的那个过程,才长出了下次还能摸到答案的能力。AI 把过程消掉之后,结果还在,能力没了。
这件事,在三个层次上同时展开。层是个体的认知投降,二层是组织和教育的法塌缩,三层是个不懂技术的政府,把整个文明的判断力外包给个三分之到九成时候出错的系统。
下面我们层层来。
不是 AI 使人变笨,而是大多数人被困在了不励"思考"的游戏和系统中
每个人都在靠 AI 作弊上大学,传统教育已死
、认知缴枪:当你不再是判断的来源
2015 年,赫尔辛基阿尔托大学 ( Aalto University ) 商学院的埃斯科 · 彭蒂宁 ( Esko Penttinen ) 教授注意到件怪事。芬兰顶金融公司里,款用来加速会计师工作的关键软件正面临被废弃。问题不是它运行得不好,问题是它运行得太好了。
这款软件负责自动化处理固定资产管理的会计工作,几乎没有出过错。但其中位会计师告诉彭蒂宁:"当这份工作被自动化之后,你就不会再开始入思考事物的本质了。"关键技能正在变成种"丢失的能力"。公司管震惊到,后的决定是把这款运行的软件停掉,重新教员工固定资产管理会计的原理。
为了让公司活下去,这款软件须死。
这个故事后来被收进彭蒂宁参与撰写的篇研究论文,题目就叫《技能侵蚀的恶循环:认知自动化的案例研究》 ( The Vicious Circles of Skill Erosion ) 。这篇论文是个很早期的预警:当机器开始接管那些原本由人来思考的环节,人不会自动转去思考重要的事,人会停止思考。
这个判断在 2024 年被组实验数据确认了。
宾夕法尼亚大学沃顿商学院的 Steven Shaw 和 Gideon Nave,设计了个非常巧的实验。他们让组志愿者在 AI 协助下回答有难度的问题,故意在 AI 的答案里随机插入错误。结果分两种情况:
当 AI 给出正确答案时,使用 AI 的志愿者表现优于靠自己的对照组。这是大预期的结果。
当 AI 给出错误答案时,使用 AI 的志愿者表现远远低于对照组。也就是说,他们没能识别出 AI 在胡说,他们直接采纳了。Shaw 和 Nave 给这种状态取了个名字:认知投降 ( cognitive surrender ) 。
这个名字很准。它和"认知卸载" ( cognitive offloading ) 区别很大。认知卸载是说"这件事我让工具去做"海西家具封边胶厂,前提是你还在判断"这件工具的输出靠不靠谱"。认知投降是说"判断这件事我也让工具去做"。前者你还是大脑,后者你只是个传声筒。
AI 越像个聪明人,人就越容易忘记它只是个概率系统。
危险的不是 AI 错,是 AI 错得很自信、很流畅、很有条理。个明知道自己可能错的工具会让人保持警惕,个看起来从不犯错的工具会让人松手。Cluely 那句广告语之所以能说出来,是因为他们已经看清楚:用户想要的不是聪明的助手,是个让自己可以松手的对象。
但真正让我觉得这件事须被写下来的,是另个层次的代价。代价不在于使用 AI 的人在某次任务中错得多,而在于他们正在失去未来某天立做对这件事的能力。
这就要谈件公众号读者很少有人提到的事:很多被认为是低价值的工作,其实是价值能力的训练场。
初律师查案例,不是为了找到那个案例,是为了在翻阅几百份案件中长出"哪些细节会决定胜负"的直觉。
年轻分析师整理资料,不是为了交份表格,是为了在数据里慢慢摸到"这个行业的真正机制是什么"。
程序员调 bug,不是为了让程序跑起来,是为了在反复定位错误中长出"代码在哪些地容易坏"的判断力。
编辑改稿,不是为了让句子顺,是为了在改别人的文字中长出自己写文字时不再犯同样错误的本能。
学生写作文,不是为了交篇作文,是为了在卡住、翻、重写的过程中,把模糊的感觉变成清楚的语言。
这些工作有个共同特征:它们看起来低,但它们提供的是适度困难 ( desirable difficulty ) 。这是 1990 年代加州大学洛杉矶分校的认知心理学罗伯特 · 比约克 ( Robert Bjork ) 提出的概念,后来被几百项研究验证:学习时如果没有摩擦,大脑不会留下的痕迹;只有在定程度的挣扎中,长期记忆和迁移能力才会形成。
AI 现在干的事,正好是把这类工作整段整段吞掉。它不是从工作链条的端开始替代,它是从底端、看起来不重要的环节开始替代。但被吞掉的恰恰是判断力赖以形成的那段路。
我之前在篇叫《AI 折叠》的文章里写过句话:法先拿走的,不是你的工作,是你工作里有成长的部分。
那篇文章当时是从分配角度讲的:谁在法上游,谁在法下游。今天再回头看,这件事比我当时写的。芬兰那批会计师没有被裁,他们只是不再思考了。Wharton 实验里那批志愿者没有失业,他们只是把判断这件事让出去了。AI 不是走了你的工作,是走了你工作里那个让你变厉害的环节。
工作还在,人还在,变厉害的可能没了。
奥力斯 万能胶厂家 联系人:王经理 手机:18231788377(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
判断力的产阶:AI 法下的批炮灰已经诞生
现在看清了:AI 不是平权,它是资本和劳动力的后战。越有钱跑得越快
二、法单文化:当所有人借同个外脑思考
英国保守派历史学尼尔 · 弗格森 ( Niall Ferguson ) 给当下这个时代起了个名字,叫"伪智能" ( pseudo intelligence ) 。他初用这个词,是描述大学里学生用 AI 代写论文造成的假智力表现:交上来的东西看起来很业,实际背后没有任何真正的认知工作。
弗格森用得很窄。我们这篇文章想把这个词的范围拉大,因为同样的现象正在从教室扩散到整个组织世界,而且在组织层产生的后果比在个体层难逆转。
先说组数据。
2024 年,Meta 联两所大学的研究团队发表了篇研究,扫描了当时市面上 21 个的大语言模型 ( 包括 GPT-4、Claude、Gemini 等 ) ,测试它们对常见问题的回答。结论是个让人沉默的词:法单文化 ( algorithmic monoculture ) 。
这 21 个模型在面对同个问题时,给出的答案在结构、立场、用词上呈现出强烈的趋同。
这不是巧。这些模型大量训练数据重叠,对齐流程相似海西家具封边胶厂,人类反馈来源接近。它们在底层是同种模型的不同变体。
那么问题来了:当全世界几亿人在用这 21 个模型问同类问题、改同类文档、写同类报告、做同类决策时,会发生什么?
麻省理工学院媒体实验室 ( MIT Media Lab ) 的纳塔利娅 · 科斯米纳 ( Nataliya Kosmyna ) 博士给了个具体回答。她带团队研究使用 ChatGPT 写论文的学生,对比只用搜索引擎的学生和靠自己写的学生。结论是,使用 AI 的小组写出的论文"非常同质化,它们都非常相似"。这些学生反复聚焦在狭窄的观点集上,创造显著降低。
科斯米纳还用脑机接口监测了这些学生的大脑活动。使用 ChatGPT 的学生,与研究主题之间形成的经连接浅,批判思维和长期记忆的形成都受到削弱,而且这种削弱程度甚至过了用谷歌搜索的学生。
这就是伪智能在组织层的形态:输出看起来多元,万能胶厂家实际是同个声音的回声。每个人都觉得自己用 AI 拿到了见解,实际上几亿人在拿到几乎样的见解,只是措辞略有差异。
谷歌今年出的 AI Mode 把这个过程做到了致。过去你搜索个问题,谷歌给你十条蓝链接,你自己点开几条,自己判断哪个可信、哪个值得读。现在你搜索同个问题,谷歌直接给你段 AI 生成的总结。你看到的是 AI 决定让你看到的内容。剩下的链接,你不会再点。
我以前写过篇文章叫《不是 AI 使人变笨》。当时的核心判断是:社会正系统地把励从"度思考"转向"煽动情绪"。
AI 出现之后,这个励机制完成了后块拼图:现在连"煽动情绪"都不用你自己干了,模型替你干。你只负责按下生成按钮。
这就引出了海德格尔在 1953 年那篇演讲《技术的追问》里讲过的个判断:技术真正的危险不是它本身,是它把整个世界揭示成可调度、可计、可优化的资源。在他看来,技术不是中工具,技术是种"看世界的式"。旦人类开始用这种式看世界,森林就不再是森林,只是木材储备;河流就不再是河流,只是水电潜力。
AI 是这条逻辑走到今天干净的样本。它把语言变成可调用资源,把知识变成可调用资源,把观点变成可调用资源,把品味、风格、创意变成可调用资源,后连"像个聪明人在思考"这件事本身,也变成了可调用资源。
当切都变成可调用,有件事会被悄悄消灭:停下来真正理解件事的意愿。
因为理解很慢、很不经济、很不能被复用。它在个崇拜率的系统里没有位置。
伪智能不是被强制接受的,是被率本身筛选出来的。当你周围每个人都用 AI 三十秒生成份报告、十分钟写完篇文章、小时做完份案,你坚持自己花三天去理解件事,你会被认为是浪费时间的人。系统不会励你,系统会淘汰你。
这就是伪智能的二层意思:它不只是种使用式,它正在变成种环境压力。当所有人都借同个外脑思考,世界不是变得聪明,是变得整齐。
底层:硅谷的 AI 从业者普遍认为,普通人已经"完蛋了"。
为什么懂 AI 的人在纷纷离职:"我凝视过尽的黑夜"
三、把文明外包给个半时间会犯错的系统
柏拉图在《斐德罗篇》 ( Phaedrus ) 里讲过个埃及话。
文字的发明者图特 ( Theuth ) 把这件礼物献给国塔穆斯 ( Thamus ) ,声称它可以增强人的记忆和智慧。塔穆斯回答:不,这只会让人依赖外部符号、削弱真正的记忆。人们将看起来知道很多,实际上只是拥有许多外部记录。
两千五百年之后,塔穆斯的预言每隔几代就被重新激活次。书写让人担忧记忆,印刷让人担忧注,广播让人担忧严肃,电视让人担忧度,搜索让人担忧理解。每次新工具出现,都有人重述塔穆斯那句话,而每次,这种担忧都被实践部分证伪、部分证实。
AI 让人担忧的是后件事:判断力本身。
而这次的特殊之处在于,前几次的工具替代的是某种能力,这次的工具替代的是判断。能力丢了可以重新练,判断让出去了,你连"这次让出去得对不对"都没法判断。
英国工党政府 2025 年公布了份《人工智能行动计划》。计划的核心是政府聘请的科技投资者马修 · 克利福德 ( Matthew Clifford ) 提出的:通过"全位数字化",在公共部门尽可能普及 AI,据称可以为国节省 460 亿英镑。
报告里有这样的语言:AI 将缩短等待时间、识别瓶颈、让公共服务"感觉具人情味",甚至可以在监狱暴乱发生之前就将其制止。
不过,英国小说伊万 · 莫里森 ( Ewan Morrison ) 则认为:政府在把个错误率在 33 到 90 之间的东西,引入医疗、军事、教育这些它不该被引入的域。
我们没有在拥抱技术。我们在让个错半时间的系统替我们做重要的判断。
荒诞的是,做出这个决定的人,大多数自己并不懂这个系统是怎么运作的。他们看到的是 PPT 上的省钱数字,是供应商演示里那些精挑细选的成功案例,是其他国正在做同样的事所制造的紧迫感。
他们没有能力问出基本的反问:这个系统在什么情况下会失败?失败的代价由谁承担?如果我们离不开它了再发现它有问题,有备份案吗?
当被理者懂技术、理者不懂技术,这件事会出现种奇特的反转:技术变得像魔法。个不懂魔法的人怎么理魔法?他只能信任那些自称懂魔法的人。
这种状态不是没有反例。前 Facebook 工程师格奥尔格 · 佐勒 ( Georg Zoeller ) 现在驻新加坡,担任新加坡政府的技术顾问。他观察到的新加坡是个不同的样本:技术决策由懂技术的人做,引入 AI 的姿态是工程的、计代价的、保留备份的,而不是宗教的、押注式的、不可逆的。
新加坡的样本意义在于:另种理姿态是可能的,个国可以认真使用 AI,同时拒相信 AI。这件事在英国、在美国、在欧洲大部分国,都没有成立。
我之前判断 AI 是资本和劳动力的后战。今天看下来,这件事在加速,但加速的式比我当初写的黑。劳动力还没来得及组织起反抗,已经先把自己的判断力交出去了。资本不需要剥夺工人的反抗能力,工人正在主动放弃。政府不需要压制公民的判断力,公民正在主动外包。
这让我想起 1909 年英国小说 E.M. 福斯特写过篇短篇小说,叫《机器休止》 ( The Machine Stops ) 。故事设定在个度依赖台巨大机器的未来社会,人们的衣食住行、社交、教育、娱乐都通过这台机器实现。久而久之,人们忘记了机器是怎么运作的,也忘记了它是怎么修理的,他们开始把它当作。
故事的潮是机器开始出故障。但人们不把这看作危机,而看作圣的智慧,他们已经把机器变成了不可质疑的对象。等他们终于意识到机器真的会停下来时,已经没有人记得怎么修了。
这本小说写于 1909 年。福斯特那时候没有计机、没有互联网、没有 AI。他描写的不是技术,是人和技术的种关系,种当人依赖个自己不再理解的系统时,会发生的事。
个不懂技术的政府,把决策外包给个不懂世界的模型。这不叫理,这叫。
你已经不再是地球上聪明的存在了
为什么聪明人正在纷纷逃离社交媒体?
四、把变聪明的机会留下来
有观察认为,"如果我们正在变得越来越笨,那我们几乎不能把责任给 AI。这都是我们自己造成的。"
读到这句话的时候我有点不同意。
把责任给自己听上去很有道德感,但这是另种偷懒。变笨从来不是个人选择,是整套励机制、政策向、商业模式、教育体制谋出来的结果。当你周围每个人都在用 AI 三十秒完成你需要三天才能完成的事,当你的老板拿着 AI 生成的案问你"为什么这周只交了个想法",当你的孩子告诉你他班上每个人都在用 ChatGPT 写作业,你自个人选择"亲自思考"是种,而不是种美德。
真正的问题不是"我们怎么变得不那么依赖 AI "。真正的问题是"我们怎么重新设计个励思考的环境"。
这件事不能靠个人意志解决。学校能不能在某些课程里强制下线?公司能不能保留部分须人工完成的环节?政府能不能在敏感的决策域立法限制 AI 介入?这些都是制度问题,不是道德问题。
但在制度回应到来之前,每个人能做的有限的件事是:把判断权留在自己这里。不是不用 AI,是用了之后还要再过自己遍。不是抗拒率,是知道有些事情慢点是值得的。不是回到没有 AI 的过去,是在有 AI 的世界里,守住块不让 AI 进来的地。
正如麦克卢汉所指出的,每种新工具都会让某些东西过时,让某些东西复活。AI 让"知道答案"过时了。它复活的应该是什么?
应该是提出问题的能力。判断答案是否值得相信的能力。在没有答案的地继续往前走的能力。这些是 AI 永远不能代替的能力。
但前提是,你得还留着它们。
伪智能时代真正稀缺的,不是答案,是还在思考的人。【懂】
相关词条:管道保温 塑料管材生产线 锚索 玻璃棉毡 PVC管道管件粘结胶1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
