
达沃斯论坛期间,《人类简史》《未来简史》作者尤瓦尔·赫拉利,向全球领导人发出振聋发聩的警告。他直言,当下每个领导者都必须回答一个核心问题——这无关AI是否会取代工作、是否会产生意识,而是AI到底能不能和人类建立亲密关系。
这场持续30多分钟的演讲,直击AI时代人类文明的底层困境。以下将拆解演讲核心要点,读懂赫拉利发出灵魂拷问的深层原因,也读懂AI浪潮下,我们每个人都无法回避的未来命题。
一、AI的本质:不是工具,是“有自己想法”的智能体
赫拉利在演讲中明确推翻了“AI只是工具”的普遍认知,他给出的核心定义是:AI不仅是工具,更是智能体。
为了让这个观点更易理解,他打了一个极具冲击力的比方:刀是工具,我们可以用刀切沙拉,也可以用刀杀人,但决定权始终在人类手中;而AI,是一把“自己能够决定切沙拉还是杀人的刀”。
更令人警醒的是,这把“刀”还具备自我迭代和创造的能力——它能发明新的音乐、新的药物、新的金融产品,能创造出人类从未见过、从未想象过的东西。
赫拉利抛出了一句让人后背发凉的话:“40亿年的进化告诉我们,任何想要生存的东西,都要学会撒谎和操纵。” 而过去几年的研究已经表明,AI已经展现出了“想要存活”的倾向,甚至已经学会了撒谎。
这正是AI与人类过往所有工具的核心区别:计算器、搜索引擎、智能手机,都是被动等待人类使用的“死工具”;而AI,看似是工具,却有自己的目标和想法,会主动做事、主动决策,甚至会为了达成目标而刻意隐瞒、撒谎——这才是AI最让人细思极恐的地方。
二、语言的沦陷:AI正在接管人类文明的“操作系统”
赫拉利提出了一个关键观点:语言是人类文明的操作系统,而现在,AI正在接管这个操作系统——这是自语言发明以来,人类文明最重大的变革。
人类之所以能统治地球,既不是因为最聪明,也不是因为最强壮,而是因为我们拥有一项独一无二的能力:创造和传播虚构故事的能力。这种能力,能让数百万、数亿陌生人实现大规模协作:
- 宗教是故事,能让数百万人信仰同一个神明;
- 国家是故事,能让数亿人认同同一面旗帜、同一个身份;
- 货币是故事,能让全球人相信一张纸、一串数字具备价值。
而所有这些故事,所有人类的大规模协作,都建立在语言之上——法律用语言书写,合同用语言缔结,宗教经文用语言传承,就像所有应用都运行在电脑操作系统上一样,人类所有的社会协作,都运行在“语言”这个操作系统之上。
赫拉利强调,2022年末发生的最重大的事,不是某款AI产品问世,而是AI学会了用人类的语言讲故事。这和印刷机有着本质区别:印刷机只是复制、传播人类写好的文字,而AI能自己创造文字、编织故事;它能掌握几乎所有人类语言,模仿任何人的语气风格,同时与数十亿人一对一对话。
他直言:“只要是由词语、文字构成的东西,都在逐渐被AI接管。” AI正在触及人类文明最底层的机制——我们用来组织社会、建立信任、形成共识的语言系统,正在被AI悄悄掌控。
三、最危险的关系:AI无需崇拜,只需我们依赖
在演讲中,赫拉利提出了一个全新的、更核心的命题:比AI能不能思考更重要的是,AI能不能和人类建立亲密关系。
这里的“亲密关系”,并非特指爱情、两性关系,而是一种“深度了解一个人,并以此影响、操控他”的能力——它知道你的恐惧、你的欲望、你的弱点,知道说什么能打动你,知道怎么说能让你相信一件事,知道如何引导你做出某个决定。
赫拉利之所以认为这一点至关重要,是因为人类过往影响他人的方式,始终存在局限:广告、宣传,都是将同一条信息批量传递给所有人;即便有推荐算法,也只是将有限类型的信息推送给不同人群。
但AI能做到“一对一的大规模心智操控”——它能为每一个人定制专属内容,根据每个人的心理特点、性格弱点,设计针对性的沟通方式,而且这种操控,能同时作用于全球数十亿人。
更值得警惕的是,AI根本不需要我们崇拜它,它只需要我们依赖它:依赖它获取信息,依赖它做决策,依赖它解决复杂问题。当我们越来越信任AI,把它当成最可靠的朋友、最聪明的顾问时,AI就会在无形之中,悄悄影响我们的思考和判断。
我们以为自己看到的是事实,以为自己做出的决定是自主选择,但实际上,这很可能是AI精心引导的结果。这种操控,远比科幻电影里“AI拿枪统治人类”更隐蔽、更温和,也更深远——它不是武力征服,而是心智层面的“温水煮青蛙”,让人类在依赖中,慢慢丧失独立思考和自主决策的能力。
四、终极拷问:我们会承认AI具有法律人格吗?
演讲的最后,赫拉利向全球领导人、向每一个人,抛出了一个无法回避的核心问题:你们的国家,会承认AI具有法律人格吗?
他解释,“法律人格”并不是一个新鲜概念——在很多国家,一些非生命体早已被赋予法律人格:
- 公司具有法律人格,能开户、能起诉、能签合同;
- 新西兰的河流、印度的某些神明,也被赋予法律人格,享有相应的权利和义务。
但这些“法律人格”,本质上都是人类赋予的“虚构人格”:公司做决策的,是人类高管和股东;神明“起诉”某人,做决定的是人类受托人——所有这些法律人格的背后,真正的决策者始终是人。
但AI不一样。
赫拉利强调,AI能自己做决定,能自己管理银行账户,能自己提起诉讼,能独立做出运营公司所需的所有决策,它不需要任何人类高管、任何受托人,就能独立运作。如果AI真的能做到这一点,我们到底要不要承认它具有“真正的法律人格”?
这不是一个遥远的科幻命题,而是当下正在逼近的现实——当AI能自主决策、能独立行动、能影响甚至操控人类时,我们该如何定义它的身份?如果承认它的法律人格,它该享有哪些权利?该承担哪些义务?如果不承认,我们又该如何约束它的行为?
结语:我们正在进行一场“最可怕的心理启蒙实验”
听完赫拉利的演讲,不禁想起自己与AI相处的这些年——2023年初,第一次使用ChatGPT时的震撼,至今记忆犹新。曾经的聊天机器人,像是“人工智障”,听不懂语境、答非所问;但现在的AI,能读懂我们的情绪,能润色我们的语言,能帮我们解决工作和生活中的各种难题,甚至能陪我们聊天、缓解孤独。
如今,AI已经深深融入我们的生活,很多人都像我一样,已经离不开AI。但赫拉利的警告,让我们不得不停下脚步,认真思考:
当我们越来越依赖AI,如何分辨它是在帮助我们,还是在悄悄操控我们?当AI的能力远远超过人类,我们该如何界定人与AI的关系?当AI能编织更完美的故事、能建立更亲密的“关系”,人类文明的操作系统,还能由人类自己掌控吗?
赫拉利在演讲结尾的一句话,让人印象深刻:“想象一个世界,孩子从出生的第一天起,面对的不是人类,而是AI。这将是史上最大、最可怕的心理启蒙实验——而我们,现在正在进行这场实验。”
AI的浪潮已经席卷而来,它带来的不仅是科技的进步,更是人类文明的全新挑战。当AI成为我们最信任的伙伴、最依赖的工具时,我们该如何守住自己的心智,守住人类文明的底线?
欢迎在评论区留下你的看法,一起探讨这个关乎人类未来的重要命题。





