摘要:AI 本身不会让人心智变弱,但它正在创造让这件事更可能发生的条件——一份发给 AI 用户、而不是 AI 本身的信号。

原文:《We Need More Time to Think》
发布:2026-04-20
作者:Robert Brooks — Foundry Mag 内容总监
授权:未获明确授权,仅作学习交流,如有异议请联系删除

foundrymag_we-need-more-time-to-think_1

核心要点

  • AI 作为一种精巧聚合器的角色,影响了我们处理与保留信息的方式,可能削弱内部认知功能。
  • 对 AI 给出快速答案的依赖一旦加深,可能侵蚀耐心、对模糊的耐受、以及问题求解中的韧性。
  • 与 AI 系统的互动可能减少有意义的人际对话机会,影响沟通和推理能力。
  • 看重工具使用、忽视对底层过程的理解,可能滋长依赖、削弱思想独立。
  • 自动化与 AI 驱动的任务可能减少有目的的工作机会,影响动力与个人成长。

算法现在源源不断地给我推送各种警告人工智能负面影响的报道。大概是把我标成 AI 怀疑论者了。这不算完全错——但也不完全对。我的怀疑不在于 AI 能做什么,它的能力已经越来越清晰;我担心的是它对我们做了什么——对它的用户、以及在很多意义上,它的原料。

连「人工智能」这个名字本身可能都用得稍微早了点。对大多数人来说,AI 是通过一小套工具体验到的:虚拟助理、推荐系统、按需生成回答的大语言模型。这些系统从已有信息的庞大池子里汲取内容,以惊人的速度和流畅度交出答案。它们实质上是一种精巧的聚合形式,有点像规模化的众包式智能。它们的便利毋庸置疑,可靠性也常常令人印象深刻。但它们对人类思考、行为和目的的影响,引出了关于长期认知后果的更深的问题。

其中一个后果是认知外包。AI 随时可用来回答问题、总结信息、提供想法,那些原本需要个人努力和反思的任务,被外包出去就变得容易。这种效率有吸引力,把我们解放出来,去做更复杂或更有创造性的工作。但代价是有的。记忆、问题求解、持续注意力,都靠经常使用来维系。大脑会按照被使用的方式来适应,当这些功能被例行外包出去,它们的锋利度就会衰减。久而久之,这可能助长对外部系统越来越深的依赖,代价是内部推理的退化。

这种转变和另一个隐忧紧密相连:即时满足被进一步强化。那些以前需要查资料、讨论、反复试错才能回答的问题,现在几秒钟就能给出答案。这种加速在很多方面是明显的优势,但它可能侵蚀我们对困难和模糊的耐受。挣扎、不确定、甚至失败,一直是培育心智韧性所必需的。如果这些体验被最小化或绕过,那些支撑坚持和应变的习惯可能就会变弱。

影响超出个体认知,延伸到社会行为。随着我们和 AI 系统的互动越来越常见——不只是为了协助,也为了娱乐、甚至陪伴——人际交流的性质开始发生变化。AI 对话通常高效、有响应、按用户偏好量身定制。它们恰恰是在这些方面好用。但它们缺少人类对话里的不可预测和摩擦。和别人打交道——同事、同行,甚至陌生人——常常要求我们去为自己的观点辩护、直面分歧、打磨自己的思考。这些时刻并不总是让人舒服,但它们对心智是有价值的。如果 AI 把这类互动减到最少,那些磨练推理和沟通能力的机会可能就会减少。

还有一个更宽的问题,关于技能价值本身的变化。在一个由 AI 驱动的环境里,「能高效使用工具」可能开始压过「理解工具底下的过程」。AI 的拥护者会说,这种转变让知识获取更民主化,让更多人能完成复杂任务。这可能是对的。但它也带来了一种依赖。当认知工作持续地被 AI 中介,独立完成这些工作的能力就会下降。这就引出一个根本问题:智能是由我们知道什么、能做什么来定义的,还是由我们能多有效地调用外部系统来定义的?过度依赖 AI 有可能削弱那种长久以来定义了人类能力的思想独立。

影响也许还会再走远一点。从历史上看,工作不只提供经济价值,也提供一个让人投入心智、找到个人意义的框架。AI 自动化的任务越多,个人把自己技能用得有目的的机会就可能越少。一旦如此,学习、批判性思考、培养专长的动力,也可能跟着这些机会一起退化。

人工智能本身并不会让人变得心智更弱。但它创造出让这一结果变得更可能发生的条件。这不是技术的失败,也不是建造它的人的过错。它毋宁说是一个信号,发给使用它的人。问题不在于 AI 会变成什么,而在于面对 AI,我们会变成什么:当付出努力不再被要求时,我们将如何选择去思考、去学习、去参与。