尼尔·斯蒂芬森:真正的威胁不是AI,而是我们自己

📅 2026-04-27 · 📁 opinion · 👁 0 阅读 · 🏷️ 尼尔·斯蒂芬森AI威胁论AI治理
💡 科幻巨匠尼尔·斯蒂芬森在最新访谈中指出,人类社会面临的真正威胁并非人工智能本身,而是人类如何选择使用和放任这项技术。这一观点引发科技界广泛讨论。

科幻预言家再度发声:AI不是敌人,人类才是

「元宇宙」概念的缔造者、科幻文学巨匠尼尔·斯蒂芬森(Neal Stephenson)近日在一段引发广泛关注的视频访谈中,抛出了一个与当下主流AI恐慌论截然不同的观点——真正的威胁不是人工智能,而是我们人类自己。

这位凭借《雪崩》《钻石时代》《密码宝典》等作品精准预言了互联网、加密货币和虚拟世界发展方向的作家,再次以其深邃的洞察力,将公众的注意力从「AI末日论」的喧嚣中拉回到一个更根本的问题上来。

核心观点:技术中立,人心叵测

斯蒂芬森的核心论点并不复杂,但却振聋发聩。他认为,当前围绕AI的恐惧和焦虑在很大程度上被错误地投射到了技术本身,而忽视了真正的风险来源——人类的决策、贪婪、短视以及对权力的渴望。

在他看来,AI作为一种工具,其「善恶」完全取决于使用者的意图和社会的治理框架。真正令人担忧的不是某个大语言模型突然产生自我意识并决定毁灭人类,而是掌握这些技术的个人、企业和政府如何利用它来操纵信息、加剧不平等、侵蚀隐私,甚至制造新型武器。

斯蒂芬森强调,历史上每一次重大技术革命——从印刷术到核能——都遵循着同样的规律:技术本身是中立的,真正决定其影响的是人类社会的制度设计和道德选择。AI也不例外。将AI「拟人化」并赋予它「威胁」的主体地位,反而可能让真正应该承担责任的人逃脱审视。

深层分析:为什么这个观点如此重要

斯蒂芬森的这番言论之所以引发科技界的广泛共鸣,是因为它触及了当前AI讨论中几个被严重忽视的盲区。

第一,「AI威胁论」可能正在被工具化。 部分科技巨头一边大力投资AI,一边高调呼吁「AI监管」,这种看似矛盾的行为背后,可能隐藏着利用监管壁垒巩固市场地位的商业算计。当公众的恐惧被导向「AI本身很危险」时,真正需要被追问的问题——谁在开发AI、为谁开发、数据从哪里来、利润流向何处——反而被淡化了。

第二,过度聚焦「存在性风险」会分散对现实危害的关注。 当学术界和媒体热衷于讨论「超级智能」和「人类灭绝」等遥远的假设性场景时,AI在当下已经造成的实际伤害——深度伪造对个人名誉的损害、算法偏见对弱势群体的歧视、自动化对就业市场的冲击——却得不到足够的重视和应对资源。

第三,责任归属的模糊化是一个严峻问题。 当一个AI系统做出了有害的决策,「是AI的错」这种说法实际上为背后的开发者、部署者和监管者提供了一个便捷的「挡箭牌」。斯蒂芬森的观点实质上是在呼吁:无论技术如何发展,人类始终不能放弃自己的主体责任。

作为一位长期关注技术与社会交互关系的作家,斯蒂芬森的视角也与不少AI领域研究者的立场不谋而合。包括知名AI学者在内的许多专家都曾指出,与其担心「通用人工智能觉醒」,不如把精力放在治理当下AI系统中已经存在的偏见、不透明和滥用问题上。

行业回响:一场关于「谁该负责」的辩论

斯蒂芬森的观点在社交媒体和技术社区中迅速发酵。支持者认为,这一视角有助于将AI治理的讨论从「技术恐惧」重新拉回到「制度建设」的正轨上来。他们指出,与其为尚未出现的「超级智能」设立层层限制,不如先建立起有效的数据保护法规、算法审计机制和AI责任追溯体系。

也有反对声音认为,斯蒂芬森的观点虽然有道理,但低估了AI技术自身发展速度带来的不可控性。随着模型规模和能力的指数级增长,即便是善意的开发者,也可能无法完全预见和控制其系统的行为。因此,对技术本身的警惕仍然是必要的。

这场辩论的本质,实际上反映了AI治理领域长期存在的两种路径之争:一种是「以技术为中心」的风险管控思路,侧重于限制AI系统的能力边界;另一种是「以人为中心」的治理思路,侧重于规范使用AI的人和机构的行为。斯蒂芬森显然站在后者一边。

展望:人类需要一面镜子,而非一个替罪羊

斯蒂芬森的警示或许可以用一句话来概括:AI是一面镜子,它映照出的是人类社会自身的问题。将AI塑造为「威胁」的叙事,本质上是一种逃避——逃避对自身贪婪、偏见和治理失败的反思。

展望未来,随着AI技术继续以惊人的速度渗透到社会的每一个角落,斯蒂芬森所倡导的「向内审视」可能比「向外防御」更为迫切。我们需要追问的不是「AI会不会毁灭人类」,而是「我们是否有足够的智慧和勇气来善用这项技术」。

正如这位预言了元宇宙的作家所暗示的那样:如果人类最终在AI时代走向衰败,那么罪魁祸首不会是某个失控的算法,而是我们自己在关键时刻的选择——或者,是我们选择不去做选择。