图片来源:Institute of Politics Harvard Kennedy School
Z Highlights
-
这是一场划时代的变革,堪比科学革命等人类历史上的重大认知转变——因为人类从未面临过非人类的、智能水平相当或更高的竞争者,而人类对此的反应是不可预测的。
-
我们也曾多次探讨:终有一天必须有人站出来指出:“我们已经走得太远,风险过高。我们不能将决策权交给计算机,人类必须保持主导地位。”
-
计算机科学不会消失——至少在AI取代计算机科学家之前,人类仍需监督这些系统。但AI生成代码的能力已具备革命性意义:如今,每个人的口袋里都相当于揣着一台超级计算机与一位顶尖程序员。
传奇回响与对话缘起——追忆基辛格的跨界视野
Graham Allison:非常荣幸能在The John F. Kennedy青年论坛再次迎接Eric Schmidt——我们的同事与挚友,一同探讨Henry Kissinger、人工智能与未来。大家眼前这张合影,见证了一段晚年结下却愈发深厚的友谊。Eric曾慷慨地担任95岁高龄的Henry Kissinger的导师,而Henry是在一次演讲结束后,听到Demis Hassabis谈及人工智能时,才萌生了学习这一领域的想法。
Henry当时给我打电话,我对他说:“Henry,别费心了。你没有任何科技背景,连芯片和薯片都分不清。”他回应道:“确实如此,但Eric答应教我。”所以我们非常高兴他能莅临现场。他去年也曾到访,或许这将成为一项年度传统——Henry于两周前的上周逝世,享年100岁。回顾他跨越一个世纪的非凡人生,他深刻影响了美国的国家安全与世界格局,也改变了无数人的命运——其中既有他的学生,也有曾为他授课的人,以及众多其他人。
Eric的背景已无需多言,但我想补充两点:首先正是这位首席执行官将Google从一家初创企业打造成全球顶尖公司之一,这一成就令人惊叹。其次他很早就将人工智能视为未来的核心领域,并推动Google吸纳了全球范围内的顶尖人才,包括DeepMind——正是这家公司为Google带来了Demis Hassabis-他去年因在Google的蛋白质研究工作获得诺贝尔奖、Mustafa Suleiman——现任Microsoft消费者人工智能业务负责人等众多杰出人才。
值得一提的是,在解读人工智能相关的各类言论时,多数高谈阔论者实则在为自身利益发声。无论是Sam Altman、Anthropic团队成员,还是如今任职Microsoft的Mustafa,他们的言论都难免与公司业务、未来发展绑定,追逐着他们眼中史上最丰厚的“彩虹尽头的宝藏”。因此,很难分辨他们的真实想法与公开表态。
而Eric已逐渐成为该领域的“政治家”——他曾深度参与行业发展,如今则能保持距离客观看待,尤其是在与Henry合作后,始终力求清晰、坦诚地阐述观点。因此,相较于那些为自身利益发声的人,他的见解更具参考价值。让我们从Henry切入,再探讨人工智能,最后开放观众提问。
Eric,你在Henry的追悼会上曾深情讲述他对你个人生活、关注的问题及价值观产生的深远影响。能否进一步分享这段关系中Henry的意义?对于那些未曾有机会结识他的人,又该如何感受他的独特魅力?
Eric Schmidt:感谢你,一如既往能来到这里非常开心。我初识Henry时,他已80出头。通常,这个年纪的人思维会有所衰退,但他的睿智令我震撼。我不禁思索:他曾参加二战,获得铜星勋章,作为犹太家庭的一员逃离德国后投身战争,凭借《军人安置法案》进入哈佛大学攻读本科与研究生学位,最终成为这里的教授。
他在哈佛本科时期曾写道:“在每个人的生命中,总会有一个时刻,他意识到,在年轻时看似无限的可能性中,自己已然成为一种既定的现实。人生不再是一片四周环绕着森林、山脉与诱惑的广阔平原,而是逐渐清晰:自己的旅程穿过草地,实则循着一条既定轨迹前行,再也无法随意转向,方向已然确定,边界也已明晰。”这是他与在座各位相仿的年纪时写下的文字。
他的本科论文是哈佛学院史上最长的,题为《康德:世界的意义》。在他提交论文后,学校制定了一项新规定——至今仍在执行——论文篇幅不得超过350页。这是千真万确的事。显然,他是一位极具天赋的博学家。
除了对他的深切关怀,我认为Henry的人生选择与他的家庭经历密切相关——尤其是他的父亲。我们曾多次谈及,他目睹了纳粹掌权后德国社会的毁灭,逃亡过程中见证了父亲及家人所遭受的创伤。二战后,Henry决心倾尽所能避免未来战争的爆发。
你或许可以对他的具体举措提出异议,但无法否认他的核心目标——历史资料与历史学家均认同这一点。你可以不赞同他的策略,但归根结底,他始终致力于避免第三次世界大战的爆发。回想他在20世纪50年代和60年代面临的诸多问题,他曾告诉我,政策领域最具影响力的往往是小型团队。20世纪50年代初,麻省理工学院、哈佛大学与Rand的学者组成了一个这样的团队,提出了“mutually assured destruction”理论。团队成员包括Oppenheim等众多知名学者。
他有幸生于一个恰当的时代,无疑是当时最聪慧的人之一;有幸在家人遇难前逃离德国;有幸借助《军人安置法案》接受高等教育。他还有许多有趣的故事。我最喜欢的一个故事是,有一天我对他说:“你必须去看医生。”他虽然年事已高,但还是答应了。我建议他去Mayo Clinic,他也同意了。他是纽约人,而Mayo Clinic的工作人员来自美国中西部,说话温和友善,与纽约人那种雷厉风行的风格截然不同。他从Mayo Clinic回来后,我问他:“你喜欢那里吗?”他说:“我非常喜欢。”我不解地问:“the Mayo Clinic in the middle of Rochester, Minnesota为什么会让你喜欢?”他回答:“它让我想起了战争时期。”
我十分诧异,他解释道:他刚到美国时不会说英语,曾在一家剃须刷工厂工作,之后如期应征入伍,加入了一支威斯康星州的美军部队。尽管当时他几乎不会说英语,其他人也很难听懂他的话,但他始终认同这支队伍的身份。这些小故事都展现了他如何逐渐成为一名美国人,并最终加入美国国籍。之后的历史,想必大家都已熟知。
Graham Allison:他确实是一位非凡的人物。我有幸在1965年左右作为学生选修了他的课程,自那以后便一直深受他的影响。我认为他最令人钦佩的是其战略远见——能够从360度全方位审视战略挑战,并找到政策干预的关键节点。
在他100岁生日时,我曾撰文纪念(Eric也写了文章)。我写道,人们常批评Henry的“现实主义”“冷酷现实主义”或“现实政治”,但仔细观察便会发现,他的所作所为并非单纯为了某一国家的利益推进现实政治,而是始终致力于构建可行的秩序,以预防灾难性战争。他亲历了大屠杀与人类历史上最惨烈的战争,预见了可能导致人类灭绝的核战争风险,深陷美苏冷战这一史无前例的对峙。在此过程中,他始终努力为美国与全人类寻求生存之道。我认为,这也是他涉足人工智能领域的原因——对他而言,这是另一代人面临的类似结构性问题。
Eric Schmidt:他的本科论文探讨的是“意义的意义”。当他聆听Demis的演讲时,立刻意识到了人工智能的深远影响,并自问:“这对‘人之为人’意味着什么?”如今,我们正在应对他20年前与我初次合作时就预见的问题:人工智能时代,“人之为人”的本质是什么?成为孩子、成年人、领导者,分别意味着什么?这对经济、就业又将产生何种影响?
他的核心观点是,这是一场划时代的变革,堪比科学革命等人类历史上的重大认知转变——因为人类从未面临过非人类的、智能水平相当或更高的竞争者,而人类对此的反应是不可预测的。
他常说,在人类无法理解某件事物时,要么将其奉为新的宗教,要么诉诸武力。于是他会问:“我们会对人工智能诉诸武力,还是将其奉为新宗教?”我回应道:“希望是后者,毕竟我能从中受益。”
AI技术革命:从语言到推理的突破,机遇与风险共生
Graham Allison:去年此时出版的《起源》(Genesis)一书,收录了Eric、Henry与Craig Bundy直至Henry逝世前的研究成果。书中有一段明显出自Henry之手的文字:“谈及美国与中国,若两国均希望在人工智能领域最大化自身单边优势,那么军事力量与情报机构之间的竞争将达到人类前所未有的水平。在超级智能即将到来的数周、数月、数日内,一场关乎生存的安全困境正等待着我们。”你认为超级智能是一种超出想象的生存威胁,能否进一步阐述?
Eric Schmidt:我提出了“the San Francisco Consensus”这一概念——之所以如此命名,是因为San Francisco的从业者普遍认同这一观点(无论其是否正确)。除了San Francisco常见的休闲文化,这一共识的核心是:我们正经历一场语言革命(大家都熟悉的ChatGPT便是例证),而“智能体”(agents)已崭露头角。这些智能体能够实现任务自动化,关键在于它们可以被串联起来,完成一系列连续操作——这正是企业、大学、政府等机构的工作流程本质。
下一步是“推理革命”。推理是人类的高阶功能,而这场革命才刚刚开始。迄今为止,人工智能的规模法则尚未放缓——简而言之,投入更多数据、电力与芯片,就能不断催生新的涌现能力。例如,刚刚发布的Gemini 3超越了OpenAI 5,而后者此前超越了Claude 4.5,Claude 4.5又超越了DeepSeek,竞争态势极为激烈。
Graham Allison:想必大家已经注意到,Gemini 3来自Google。
Eric Schmidt:可以自豪地说,我们暂时重回领先地位——但竞争永无止境。当前,大规模数据中心的建设不仅是美国经济的核心驱动力之一,也在推动人工智能的迭代。这与我以往经历的时代截然不同。
问题的关键在于,随着语言智能体与推理能力的结合,是否会趋近人类的核心能力——沟通、行动与决策?San Francisco共识认为,当这些技术融合到一定阶段,就会出现“递归自我改进”(recursive self-improvements)——即AI能够自主学习。这一现象目前尚未发生(如今的大型数据中心仍需人类指定学习目标),但大量证据表明其即将到来。
计算机自主编写程序、提出数学猜想、发现新事实的能力已近在咫尺。许多人认为,未来一年内将出现AI数学家,推动新的数学理论诞生。行业普遍认为这一变革即将发生:San Francisco的从业者预测为两年,我则认为需要四年——无论如何,都已为期不远。
我与Henry都希望,这些技术的发展能承载美国价值观与人类共同价值。我们也曾多次探讨,终有一天,必须有人站出来指出:“我们已经走得太远,风险过高。我们不能将决策权交给计算机,人类必须保持主导地位。”尽管这一“临界点”尚未达成共识,但我们的书用大量篇幅探讨了可能的界定标准——例如,若发现计算机擅自获取武器权限,所有人都会认同这是不可接受的(人类掌握武器已足够危险,更不用说计算机)。这类问题的核心,本质上是人类的主体性问题。
我们还深入讨论了人工智能对儿童的影响:我们正在对人类发展进行一场大规模实验——将极具成瘾性的AI系统(通过平板、手机等设备)推向尚未形成完整自我认知、易受操控的青少年群体。一个孩子将非人类智能体视为最好的朋友,这意味着什么?除了可能成为“超级书呆子”,这对他们的成长、社交能力会产生何种影响?他们最终会反叛,只信任人类而排斥计算机吗?我们目前没有任何数据支撑,对此一无所知。
美中AI博弈:路径分化、优势对决与全球生态之争
Graham Allison:这就是所谓的“基辛格挑战”。1968年尼克松当选总统,1969年1月就职后任命哈佛教授Henry为国家安全顾问。Henry写道:“任何在20世纪60年代末就职的人,都无法不为和平所面临的前所未有的挑战而震撼。”而核心使命是:“没有比预防核战争灾难更崇高的职责。”在冷战核军备竞赛的背景下,这是他的核心使命。如今,这一逻辑如何应用于美中人工智能竞争?
Eric Schmidt:我认为,当前最崇高的职责是维护人类的主体性与自由——这些是我们共同珍视的价值。这也将是在座各位面临的核心挑战:你们毕业时,这些问题将愈发复杂微妙。
中国正在推行与我所描述的截然不同的战略:在我最近的中国之行中,我通过向工程师提问(他们通常不会隐瞒技术事实)发现,中国正全力推动AI在商业领域的应用,试图通过在各类产品中嵌入AI实现对美国的超越。他们的执行力极强,势头迅猛。
中国目前似乎并未像San Francisco共识所描述的那样,聚焦于超级智能的研发——但这一态势可能改变。两国的发展路径已然分化,而各自都面临瓶颈:美国的电力供应严重不足(新增电力设施建设举步维艰),而中国凭借对可再生能源的巨额投资,拥有充足的电力(过去五年新增可再生能源装机容量约120吉瓦,相当于每天新增1吉瓦——远超美国的零增长)。
美国拥有芯片优势,中国则具备电力与应用落地优势,这构成了当前的竞争格局。值得关注的是“扩散技术”(diffusion):例如,利用Gemini 3等顶尖模型生成海量问答数据,其他系统可通过学习这些数据,在无需重复大规模训练的情况下模仿其能力。思考中国可能采取的战略及美国的应对之策,至关重要。
有趣的是,两国均依赖私营部门推动AI发展——在Henry所处的时代,这类重大技术突破通常由政府主导,但如今美国政府的决策与薪酬体系无法支持如此快速的迭代(中国可能也存在类似情况)。尽管中国的私营企业在国家安全领域投入巨大,但我尚未发现类似“曼哈顿计划”的大型政府主导项目。
Graham Allison:关于人工智能的整体发展,能否用一两分钟谈谈你认为未来1-3年内最令人期待的积极影响(那些我们可能尚未察觉的潜力)?
Eric Schmidt:首先需要明确:当前的技术热潮并非泡沫——甚至可以说被低估了。其核心驱动力是企业自动化:无论是计费、会计、产品设计、物流、库存管理等“枯燥工作”,都在被AI重塑。医疗、气候变化应对、工程技术、基础科学等领域的潜力更是不可估量。
Graham Allison:能否具体谈谈那些你已预见、但大众可能尚未关注到的应用?
Eric Schmidt:我从高中起就是一名程序员,大学和研究生阶段全身心投入编程,是当时典型的“书呆子”。而我20多岁时所做的所有编程与设计工作,如今都已被计算机完全自动化。
不久前,我让AI为我编写了一整套程序,看着它完成类定义、交互逻辑等细节,我不禁感叹:“天啊,我的时代要结束了。”作为一名有55年编程经验的人,亲眼目睹自己毕生从事的领域在有生之年被颠覆,这一感受极为深刻。
计算机科学不会消失——至少在AI取代计算机科学家之前,人类仍需监督这些系统。但AI生成代码的能力已具备革命性意义:如今,每个人的口袋里都相当于揣着一台超级计算机与一位顶尖程序员。
当然,在座各位都不是恐怖分子,但用负面案例更易说明问题:那些蛰居地下室、受偏执思想影响的年轻人,如今可以利用这些工具制造强大的网络攻击工具或其他危害物。已有证据表明,杀害保险公司高管的Mangione可能曾受此类工具影响。我并非断言两者存在因果关系,但这一案例揭示了一个风险:当人类最阴暗的角落获得强大工具,我们必须做好准备。行业已意识到这一问题,并在研发防御系统——最终,应对不良AI的解决方案可能是“良性AI对抗恶性AI”。
Graham Allison:我想进一步探讨美中人工智能竞争。幻灯片显示,2024年1月两国的性能差距显著大于当前,如何解读这一趋势?未来可能出现何种走向?
图片来源:Institute of Politics Harvard Kennedy School
Eric Schmidt:这张图表的数据是准确的,但业内认为这一差距不会持续太久——因为推理革命需要大量芯片与San Francisco从业者所研发的核心技术,这将再次拉大差距。
我的观点是差距将扩大,但原因有所不同:中国的核心聚焦于“AI嵌入万物”(智能烤面包机、汽车等),其落地速度远超美国。未来,绝大多数人形机器人将由中国研发制造(凭借其供应链优势、成本控制能力与高强度工作模式)。作为消费者,你可能会发现中国产品的体验更优(在做工与细节上)——这一点值得警惕。
Graham Allison:我想深入探讨几个核心问题:各国在押注芯片、技术栈还是人才?选择封闭生态还是开放生态?聚焦AGI还是扩散技术与应用?中国的DeepSeek团队仅200人,却研发出成本仅为OpenAI千分之一的推理系统,还有6家类似的“小龙企业”正在崛起。你之前曾认为“开放生态终将走向封闭”,但如今主流企业多采用封闭模式。若AGI取得突破,其他领域的竞争是否会变得无关紧要?若扩散技术与应用已在多个领域落地,又会产生何种影响?
Eric Schmidt:扩散技术(逆向扩散)本质上是通过大量问答数据学习顶尖模型的能力,无需重复大规模训练。我的观点是,大型企业最终不会开放其最先进的模型(风险过高),而是会提供简化版本——我若处于其位置也会如此决策。
开放与封闭的选择是最关键的问题:我曾参与开源运动数十年(如今大家使用的许多软件都源于开源),始终认同开源理念。但主流企业选择封闭模式,主要是出于经济考量——若从金融市场融资500亿美元,却将核心模型免费开放,显然不符合投资者的回报预期,也不符合法律与财务逻辑。因此,美国模式已逐渐走向封闭。
奇怪的是,中国模式却完全偏向开源(开放权重、开放源代码)。一种可能的解释是,中国意识到在封闭生态中因硬件受限而处于劣势,而开源模式的免费特性使其能够快速推广。其后果是,全球大多数国家(无力承担数据中心与计算成本)将采用中国的开源模型。我们更希望全球采用美国主导的模型,但美国的开源项目因难以从公开市场筹集到所需的100亿美元资金,规模有限。我认为美国政府与慈善机构应支持这些开源项目,但目前尚未有明确进展。
Graham Allison:对于关注人工智能与地缘政治的研究生或本科生,你认为他们应深入思考哪两三个核心问题?
Eric Schmidt:首先人工智能时代“人之为人”的本质是什么?这一问题足以支撑多篇博士论文——需要结合历史、哲学、人类学、经济学等多学科视角,分析新技术对人类社会的重塑。科技行业从业者往往忽视这些人文视角,而在座各位有能力给出更全面的答案,甚至纠正行业的偏差。
其次,为何美中两国将成为人工智能领域的核心竞争者?原因在于,这一领域需要巨额资金与海量人才。欧洲缺乏组织协调能力、足够的人口与资金;印度尚未完全组织起来(尽管正在努力);其他大多数国家则缺乏资金、顶尖大学与人才储备。
第三,冲突形态将发生何种变化?当恐怖分子与政府都能获取AI工具,战争与冲突会呈现怎样的面貌?针对大国的恐怖袭击可能采用何种形式?我们应如何防御?国家冲突,在算法战争(AI主导决策)时代会如何演变?这一领域的研究极具价值,目前才刚刚起步。
观众问答:直击AI时代的核心争议与未来命题
观众1Teresa:美国国土安全的核心技术多由私营部门掌控。在人工智能引发的紧急情况下,应采用何种治理模式协调政府与私营企业?美中两国治理模式差异显著,在网络安全危机中,这两种模式可能产生何种不同结果?
Eric Schmidt:首先,特朗普政府时期预计不会出台太多人工智能监管政策。中国虽然制定了相关法律,但似乎并未严格执行,因此当前本质上是一场全面的商业竞争。
最大的担忧是网络攻击:AI生成代码的能力已极为强大,如今科技公司普遍采用“人类程序员+AI程序员”的协作模式(Anthropic的Claude Code目前表现尤为突出,Gemini也声称其具备竞争力)。生成代码与发起网络攻击的逻辑相似——不断尝试直至突破系统漏洞,而充足的硬件与电力使其能够持续攻击。未来,网络攻击(不仅来自政府,也可能来自恐怖组织与不良机构)将大幅增加,我们必须做好准备。
观众2David Wideman:当前开源模型的发展大约落后封闭模型半代。将开源与封闭的选择等同于美中竞争,是否存在风险?硅谷从业者是否在通过渲染开源模型的风险,寻求监管俘获(regulatory capture)?若要在全球范围内暂停封闭模型的研发,需要具备哪些条件?
Eric Schmidt:我不同意你的前提。美国目前缺乏有影响力的开源领导者,而中国在开源领域占据主导地位——这是客观事实。开源领域不存在监管俘获问题,且特朗普政府可能会加强对封闭模型企业的监管。封闭模型的选择主要由经济因素驱动,而非政策:研发成本高达100亿至200亿美元,若不采用封闭模式,根本无法筹集到所需资金。
美国拥有全球最强大的资本市场(60%的交易量与90%的市值以美元计价),非美元国家难以获得同等融资能力。我在中国与业内人士交流时发现,他们的风险投资规模较三年前下降了五分之四,缺乏资金支持使得大规模模型的研发极为困难。
当然,若底层算法发生突破(例如新型非Transformer模型降低成本,或能效接近人类大脑),这一格局可能改变。
观众3 Fatio Semana:你与Kissinger博士描述了一个AI为人类解读现实的世界。若人类的战略判断(即使是微妙地)受到机器生成框架的影响,全球事务中的责任锚点将落在何处?当AI影响的决策产生现实后果,道德责任应由谁承担——采取行动的人类、部署系统的机构,还是塑造认知的算法?民主国家应如何重构制度,以避免这种模糊性成为地缘政治脆弱点?
Eric Schmidt:这是一个表述极为精准的问题。我担忧民主制度的未来——以美国为例,我支持绝对的言论自由,但反对“算法放大的言论”。若某人发表错误言论,算法因内容具有煽动性而将其广泛传播,这在民主社会中是否合理?任何政治派别都可能利用这一机制制造影响,而生成令人信服的虚假信息如今已变得极为容易。
我希望解决方案是加强教育,提升人类的批判性思维能力,但也必须警惕:若有人蓄意通过持续重复虚假信息,可能会摧毁公众对真相的信任(这源于“锚定偏见”——人们往往更相信首次接触的信息)。
每个民主国家都将面临这一挑战,并会根据自身文化价值观与对威胁的认知做出不同决策。威权国家的解决方案则是直接禁止相关行为——显然,我们更倾向于保护言论自由。
观众4Elena Crane:从长远来看,人类在人工智能时代的角色将是什么?美中竞争常被置于价值观框架下,但是否存在合作的空间?你提到欧洲“组织涣散”,但欧洲拥有法国Mistral等顶尖企业与大量人才,是否存在与欧洲合作的可能性?
Eric Schmidt:关于欧洲:我是Mistral的早期投资者,非常看好其潜力,但他们难以筹集到与美国竞争对手相当的资金,目前正在寻求解决方案。
关于美中合作:受Henry影响,我曾花五年时间研究中美竞争,原本认为双方可以建立更紧密的关系,但最终发现,中国对与美国合作的担忧远超我们的预期。合作需要双方共同意愿,在你们的有生之年,美中两国可能会实现共存,但因价值观与战略目标的差异,成为“挚友”的可能性低。
关于人类的长远角色:人类是社会性动物,渴望与同类相处,且医疗等领域仍需要人类提供服务。除此之外,大多数功能都可能被计算机替代——但关键在于我们是否允许这种情况发生。
我曾以Waymo的自动驾驶为例进行思想实验:若纽约市完全由自动驾驶汽车覆盖,且系统已优化至交通效率最大化,此时若有孕妇等紧急情况需要前往医院,车辆是否应设置“例外按钮”,允许突破交通规则?若没有这一按钮,计算机对人类的主导将被视为压迫,人类必然会反抗;若系统能够识别真实紧急情况并灵活应对,则更易被接受。因此,AI的发展能否与人类的需求和自由兼容,是关键所在——若其限制了人类自由(思想、行动、集会等),必将遭到抵制,我也将带头反对。
观众5Irma Frey: 你在对话中提到了印度。印度拥有大量顶尖人才,如何推动美印合作,构建一个民主繁荣、互利共赢的世界?
Eric Schmidt:我完全同意你的观点。我曾多次到访印度,印度理工学院(IITs)培养的人才质量极高,人才储备极为深厚。但印度的计算资源严重不足——去年的数据显示,10亿人口的印度仅有约1000块GPU。我与其他人士已组织相关行动以改善这一状况。
最近的贸易战对美印关系造成了负面影响,这一局面需要改变。我无法理解贸易战的逻辑——它损害了双方利益。印度是美国的天然盟友(同为民主国家,尽管都存在治理复杂性),硅谷的许多核心从业者都来自南亚(尤其是印度)。我希望美印能实现最紧密的融合。
观众6Josh Shaman: 你之前提到了两种国家战略:推进技术前沿与推动应用落地。理想情况下,两者应并行。当前美国企业在人工智能应用落地方面面临哪些主要障碍?不同行业的障碍是否存在差异?政府应采取哪些措施(若有)来解决这些障碍?(通常政府在这方面表现不佳)
Eric Schmidt:行业认为存在“技术过剩”现象——科技行业研发的工具已超出当前企业的应用能力,而企业的应用准备不足是主要障碍。大多数企业缺乏优秀的软件人才,内部流程变革也面临阻力。
我认为这只是暂时问题:随着新CEO上任与市场竞争加剧(美国的市场竞争压力极大),企业为了盈利(资本主义的核心逻辑),将被迫更深入地应用人工智能——AI能够帮助企业精准定位客户、优化服务、提升效率等。受监管的行业应用落地较慢(监管常被用作拒绝创新的借口),但在创新驱动型行业,这一问题将逐步解决。政府无需过多干预(效果通常不佳),市场竞争与盈利动机将推动应用落地。
需要注意的是,应用落地可能导致低端岗位流失,这是一个社会问题,但从技术普及的角度来看,只是时间问题。
观众7:中国聚焦于AI在商业领域的自动化应用,而硅谷每天都有新创企业瞄准工作流程自动化,且也存在“996”的工作文化。你认为中国在AI商业自动化方面的核心优势是什么?美国(尤其是硅谷初创企业)需要在哪些方面迎头赶上?
Eric Schmidt:你的预测(6-7年)属于“东海岸共识”,与San Francisco的两年预测不同,我们拭目以待。
中美之间的核心差异在于“梦想的格局”:San Francisco的从业者常宣扬“两年内改变世界”的激进言论,形成了自我强化的信仰体系(类似宗教),但历史证明,技术落地往往比预期更长。中国则缺乏这种全国性的激进Rhetoric。例如DeepSeek的R3模型在有监督微调方面取得了杰出创新,但并未在全国范围内大肆宣传——尽管DeepSeek已成为中国的国家级龙头企业,获得了巨额资金支持。我上次与他们会面时,他们表示“已解决硬件问题”——这实际上意味着政府将为其提供大量芯片。
观众8 Sonia:你多次探讨“人之为人”的本质,而意识是核心维度(尽管其定义尚不明确)。AI正逐渐触及意识的多个层面,这是否意味着我们需要重新定义意识?你认为AI是否可能拥有或终将拥有意识?若答案是肯定的,其表现形式是什么?对应的福利保障体系应如何构建?
Eric Schmidt:我们可以进行一个思想实验:若将一台计算机置于桌上,询问它“是否有意识”,它回答“是”,且能正确回应所有后续提问,我们如何判断其是否真的具备意识?我们可以通过监测其权重结构中的“超级节点”来观察决策过程,但这仍属于推测。
我曾与神经科学家探讨这一问题,他们提出的一种理论是:意识源于不同系统的协同工作与成长,当系统发展出对“他者”的认知时,意识便会涌现。人类意识的演化是为了确立自我认同,从而更好地掌控自身系统——但这一理论尚无实证支持。
因此,我的答案是“我不知道”,但这是一个值得在座各位深入研究的问题,核心在于两个子问题:意识如何产生?如何验证意识的存在?
观众9:你是否认为有必要建立一个类似国际原子能机构(IAEA)的人工智能国际监管机构?美国国务院、国防部等机构应如何调整自身结构,以应对超级智能时代的到来?另外,若你今年夏天或冬天需要人手协助相关研究,我非常愿意加入。
Eric Schmidt:赞赏你的勇气。关于国际监管机构,有一群与我关系密切的人士认为,唯一的解决方案是建立类似欧洲核子研究组织(CERN)的国际合作机构——汇集全球(包括中国)的顶尖人才,共同推进AI研发,以充分发挥其对人类的巨大益处(如消除疾病、解决能源危机等)。但这一设想的实现可能性极低。
另一种观点是建立类似IAEA的强制性核查机构——由该机构检查各国企业的数据中心与算法。但IAEA的成立是在广岛、长崎核爆炸的惨痛教训后,经过15年谈判(包括Henry等人士的参与)才实现的。目前AI领域尚未发生类似的灾难性事件。
业内有一部分人(并非出于恶意)认为,只有发生“切尔诺贝利级别的事件”(而非核攻击那样的大规模灾难),才会迫使各国达成共识,建立此类监管机构。我认为全球面临重大危机后,各国可能会通过混乱、非理智的政治进程达成解决方案(例如气候变化恶化到不可挽回时,各国才会真正携手应对),但这一过程可能极为艰难。
观众10 Kevin:几个月前,Sam在采访中暗示"可被自动化的工作本质上不算真正的工作”。你是否认同这一观点?若某件事可被自动化,就应该自动化吗?若不认同,社会应如何界定自动化的边界?
Eric Schmidt: 科技行业的顶尖人士往往忽视一点:人类的尊严与目标感密切相关,许多工作为人们提供了生活的意义——失业带来的不仅是经济问题,更是情感与意义的缺失。我们必须应对这一挑战,找到兼顾技术进步与人类福祉的解决方案。
我对就业问题的担忧相对较小,因为全球人口出生率正在下降(你们这一代的生育率低于我们这一代,而我们又低于父辈)。人口减少将导致岗位空缺,而AI可以帮助未就业人群提升技能,实现就业转型。
观众11:Dr Kissinger曾说,“建设性模糊”与“人类的犹豫”在外交中至关重要,但AI的决策是二元的。这是否会导致冲突升级的“计算性不可避免”?我们是否需要推动一种新的“算法外交”?
Eric Schmidt:你的问题前提是“AI决策是二元的”,但实际情况并非如此。以基辛格1971年提出的“战略模糊”为例,一两年后的AI完全有可能理解并应用这一概念(只要它在历史数据中存在)。因此,AI并非如你所认为的那样“二元化”,算法外交存在发展空间.
观众12:首先,为何你认为美国研发出超级智能后,其他国家不会跟进复制?其次,若美国致力于研发“符合伦理的超级智能”,而其他国家研发出“无伦理约束的超级智能”,后者是否会因不受限制而具备更强的能力?
Eric Schmidt:我的观点是超级智能将呈现“专业化”形态——我们会看到杰出的AI物理学家、生物学家、化学家、作家、历史学家等,而非通用型超级智能。爱因斯坦1902年在有限数学知识的基础上提出狭义相对论,这一突破性创新并非通过“猴子敲键盘”式的重复尝试或“好奇心优化函数”就能实现——这是当前AI难以企及的。我的判断是,AI将实现“超人类表现”,但难以达到爱因斯坦级别的“超级智能”——这将是一道难以跨越的边界。
Graham Allison:时间有限,非常感谢Eric的精彩分享与额外停留。让我们再次热烈掌声感谢他!
Eric Schmidt:感谢大家!与Graham一同探讨这些问题非常愉快,期待再次到访!
原视频:Kissinger and the Future of AI ft. Eric Schmidt
请注意,本文编译自文未载明的原始链接,不代表ZPotentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。

