大数跨境

对话王勇:拨开AI的“万金油”迷雾,一场关于技术陷阱的冷思考

对话王勇:拨开AI的“万金油”迷雾,一场关于技术陷阱的冷思考 中信出版墨菲
2026-03-05
0
导读:AI是工具,是镜子,也是考验。

编者按:


“AI”二字如同万金油般,被涂抹在从金融风控到简历筛选、从气象预测到内容审核的每一个角落,我们是否已经习惯于接受这些涂抹带来的“疗效”,而忘记了追问:这罐“万金油”里,究竟装着什么?



[美]阿尔文德·纳拉亚南

[美]萨亚什·卡普尔 

王勇 王安心 

中信出版集团 出版


AI万金油:商业幻想与科技狂潮》,光是从书名,就足以提醒我们,在技术狂欢的时代,更需要一场冷思考。


2025年末,这个AI迎来大爆发的时间点,AI万金油:商业幻想与科技狂潮》译者之一王勇博士作为横跨金融与科技领域的资深从业者,坦诚地为大家拆解了那些被神化的承诺、被忽视的偏见,以及我们每个人在AI时代都将面临的困境。


* 以下内容来自吴晓波频道对谈直播全文


01

AI的“万金油”迷思:我们在谈论同一个东西吗?


 主持人:

书里提到一个观点:关于“什么算作AI,什么不算AI”,其实尚未达成共识。您看我们应该从什么角度去理解这个概念?


 王勇博士:


现在大众用“AI”这个词用得比较广。AI就是人工智能,指的是机器给人类带来某种智能的能力。从这个角度看,AI的范围确实很广,以至于我们现在说的大语言模型,和原来用的统计模型,某种意义上都是AI。


这就带来一个问题:我们把所有工具都叫作AI,就像把所有能从A点到B点的交通工具都叫作“交通工具”一样,会很混乱。你说的AI可能是汽车,也可能是火车或自行车。业界对这个词的用法,也存在一个比较宽泛、让人混淆的情况。


这本书最关键的一点是想告诉大家:如果有人声称AI可以预测你未来生活的一切,或者说5到10年内AI会取代人类、产生所谓的AGI(通用人工智能),这些观点可能都不太对。作者认为,我们既不能用特定的AI预测所有事,也不可能仅通过扩大模型参数就生成意识、实现AGI。


这本书的原名是“AI Snake Oil”,我们翻译时商量,中文叫什么呢?“Snake Oil”在美国文化里指的是蛇油,一种万金油式的东西,但又不完全是。中国的“万金油”好像代表什么作用都没有,但也不会有害的意思。而这本书里讲的“蛇油”,可能还有一些负面的东西在里头。所以,最后我们还是用了“万金油”这个概念,希望中国读者能更好理解。


 主持人:

书里主要讨论了预测式AI、生成式AI和内容审核式AI这三种类型,为什么会聚焦在这几种?


 王勇博士:


作者从用途来分:


一种是预测式,你给数据,我给你输出。


另一种是生成式,它通过学习人类知识,再生成内容,本质上是一个概率概念。


第三种是内容审核式AI,由本书第二作者提出。他曾在Facebook用AI检验平台内容,但他说,用AI来检测内容,从根本上讲是个体系问题,而非技术问题。


他举了扎克伯格在美国国会受质疑的例子。当时议员问,你的平台上经常出现助长仇恨、种族歧视的内容,你准备怎么办?扎克伯格回答:我用AI。议员们顿时哑口无言。但真正头脑清醒的人会指出其中的毛病——Facebook的流量跟读者的关注度有关,流量能带来利益。虽然没直接把仇恨内容加进去,但能带来仇恨的内容天然就吸引眼球、增加流量,这反而助长了仇恨。你的工具有没有效,是放在一个机制、一个体制里的,而不是简单的技术迭代问题。


02

AI发展到哪了?落地泡沫


 主持人:

从全球范围看,AI现在到底发展到哪一步了?哪些已经落地,哪些还在概念层面?


 王勇博士:


从时间轴上看,AI发展可以分三个阶段:20世纪80年代以前,是教机器学会一种规则;80、90年代以后转向机器学习;到后来,大语言模型可以理解语境。我认为现在到了“语境理解”的阶段,但这和真正的智能、有意识的智能,还有差距。


现在的AI已经到了军备竞赛的程度,普通人很难再参与AI的核心研究中。最直观的落地场景是文字编辑工作。以前我每年写工作总结要愁三五天,现在可能三小时甚至几分钟就能搞定。还有很多创造性工作,AI可以帮助你完成任务。自动驾驶也越来越可靠。


如果说AI无所不能,再过5到10年,很多重复性脑力工作确实可能被取代。以前认为AI取代的是体力型、重复性工作,现在发现它针对的是非常烧脑的工作。比如我从事多年的金融工程,现在AI可以给金融工程师赋能,至少提高50%的工作量。反过来理解,做重复性工作的人就可能被取代。


 主持人:

书里讲了很多需要警惕的风险。在您看来,我们最应该警惕的是什么?


 王勇博士:


这是一个很大的问题。现在很多孩子用AI完成老师布置的作业,这反映了过分依赖AI的现象。AI发展到现在,已经不是我们教它怎么做,而是它读懂了人类,学会了人类的心智、偏见、高明与愚蠢。最糟糕的情况是,人活得不像人了,什么都问AI,把学习能力外包出去。时间长了,你自己的肌肉会萎缩,成为一个不健康的个体。


AI一定要掌握一个“度”,要有自己的判断。我曾经用一个大模型咨询法律问题,让它找历史上类似的案例。它洋洋洒洒给我提供了十个案例,结论都跟我想要的一致。我当时很开心,但让专家判断后,发现这十个案子没有一个是真的,全是幻觉。所以,大事我现在仍然不放心交给大模型。年度总结让它做没关系,但战略性、方向性的决策,不能交给它。最终拿主意的,还是你自己。


 主持人:

资本市场对AI热情很高,很多企业拥抱甚至蹭AI热度。这种市场化驱动,会不会让AI发展脱离技术本身的现实基础?


 王勇博士:


现在AI的泡沫大多跟算力有关,核心是“规模法则”。我们可以通过增加算力、增加模型参数,无限地追求智能的出现。行业里很多人都在追求这个目标,但也不完全相信。


黄仁勋整天说这个故事,大家相信了,他的芯片就更值钱。但如果哪天有个聪明人发明了一个新方法,你把所有精力投到芯片上,可能会赔得很惨。我们的知识是有限的,数据是有限的。当大模型已经把人类所有知识都读完,你所期盼的智能仍未出现时,再这样推下去是否合理?杰弗里·辛顿可能一开始相信,现在不一定了;杨立昆是非常不相信的。而奥特曼、黄仁勋他们相信,其中也掺杂着利益。


 主持人:

对比全球AI发展,我们国内现在处于什么水平?


 王勇博士:


国内最好的土壤是我们的数字市场在全球非常领先。我们的支付体系因为信用体系不同,必须做得很好,这为AI提供了天然的训练场。我们的工程化、落地能力很强,对开源也比较包容。公众对AI技术的接受度相对较高,没有太多条款阻碍发展。


关键是,当美国对我们芯片进行围剿时,我们出了DeepSeek,从算法上把效率提高了。这说明美国人应该意识到,针对中国AI发展不能只是围剿,而要共同为人类谋利。当然,我们也有问题,比如对数据隐私、数据伦理的意识不是特别强。但随着社会进步,意识会越来越强。先发展起来,再考虑质量。


03

AI陷阱面面观:偏见、神话与“黑箱”


 主持人:

伦理问题频次很高。当下有没有全球范围内因AI伦理出现的有影响力的案例?


 王勇博士:


有个四五年前的案例:高盛和某大厂发信用卡时,给女性的额度相对较低。算法中并没有把“男女”单独标出来,但男性和女性的消费习惯不同,男性申请副卡的可能性比女性小。模型可能把副卡的分数打低,这本身就是人类的偏见。AI学人类知识时,很忠诚地把效率带来,也把偏见带来了。通过数据产生的智能,数据中的偏见自然会在结果中体现。


 主持人:

书里提到“科技竞赛”的说法,说要警惕。这其中有什么陷阱?


 王勇博士:


最核心的,是不要接受AI的“黑箱思维”。AI给你提供很多东西,一定要带着批判性观点去看。我发现大模型非常勤奋,但大部分时候不反驳你。包括你质疑它,它甚至会否定自己。我们不能把它所有的输出都当成对的。


还有一些误区,比如认为模型无限发展下去,自然会产生推理能力和智能突破。我不太认同。现在的模型并没有真正理解一件事,它只是在复读、预测可能性。


书里也列举了预测式AI的陷阱,尤其是跟人的决策联系在一起时。比如用AI筛选简历,甚至通过观察面试者几分钟的举止来预测其未来表现,这些都是误区。人有个弱点:面对不确定性,如果有人给我一个定性的预测,我倾向于接受,因为它给我安全感。但这种安全感往往就是误区。用到AI上也是一样。


 主持人:

关于“AI万金油”式的承诺或虚假宣传,市面上有吗?


 王勇博士:


有。我曾碰到一个做AI的年轻人,他说今后气象预报就不需要了,AI可以全部预测好。这个思路肯定是错的。气象系统是一个混沌系统,不可预测。把AI神化,这种可能性在行业里确实存在。怎么避免这种误区?应该把预测式、生成式AI的背景学一学,不一定真去写程序,但把原理了解了,就能理解这些模型的问题。


 主持人:

关于生成式AI,有没有需要警惕的陷阱?


 王勇博士:


陷阱在于,比如别人给我一个模型预测股价,我会保守看待。我会看模型的整体假设,不会全盘否认。另外,把生成式AI用到简历检测,或者通过几分钟举止预测职业生涯,肯定是错的。如果你看到一个模型说,因为一个人衣冠不整,三年后工作就不上路,这种说法肯定是迷信。


 主持人:

行业里对AI有两种极端认知:一种是乌托邦,认为AI什么都能解决,技术永远是善良的;另一种是反乌托邦,认为AI会消灭人类。您怎么看?


 王勇博士:


乌托邦是把AI当成宗教,无限信仰;反乌托邦是把AI当成怪物,两个都不可取。真理可能介于两者之间。我们不能盲目乐观,也不能忽视风险。伦理有问题,就要设定监管,系统总会出问题。


AI越极致、越先进,也会碰到“黑天鹅事件”(小概率大影响的事件)。应用的人越多,一旦出现不可预测事件,影响一定非常大。所以,人的介入一定要有。股市的极速下跌,往往就是AI算法在作怪。不过分信任AI,也不能阻断技术进步。不能淡化风险,也不能鼓吹技术万能。要保持理性,保持对问题认识的平衡。不神话行业,也不魔化它。


04

AI时代的生存法则:如何与“万金油”共处


 主持人:

对普通人来说,怎么缓解“被AI淘汰”的焦虑?


 王勇博士:


朋友圈里有人说碳基生命最终会被硅基生命取代,我觉得这一天离我很远。我面临的最大风险是:别人都进步了,我还在原地踏步。如果大家面临同类风险,我至少不认为自己处于非常危险的境地。所以,一定要跟着时代走。


该淘汰的东西就淘汰,掌握最先进的东西。意识到有些东西不是你赖以生存的工具时,就该多学新的。主动去忘掉一些事。人脑有限,学新东西自然就会挤压旧知识。


 主持人:

您自己的职业选择,有没有因为AI而发生变化?


 王勇博士:


周末我想学学Python,现在发现很多东西真不用学了。你用语言描述,让AI写程序,它写出来的东西真的能用。比如我让它写一个利率模型,原来在金融工程里非常难写,要花一年甚至更久。现在它几分钟写出来,放到程序里跑,全是对的。这时候发现,AI对我的认知冲击非常大。


我现在避免给我女儿提供建议,我发现很多建议可能真不对。但AI也有好处,它让技术权威去中心化,因为大家的竞争能力不会差太多。


 主持人:

未来5到10年,AI会对我们的工作、社会结构、法律制度带来哪些深刻影响?


 王勇博士:


这几乎是个回答不了的问题。AI一定会毫不留情地把一些腐朽的知识、技巧展示出来。如果你只会老东西,就可能面临淘汰,而且毫不留情,不看年纪大小。新的时代又验证了那句话:不停地学习,是你抵抗衰老、抵抗被淘汰的工具。


 主持人:

书里怎么讨论“社会不平等”这个问题?您认可书中所说,随着AI广泛应用,社会不平等、数据滥用、算法偏见等问题会加剧吗?


 王勇博士:


从某种意义上,我认为是有的。但这取决于我们今后对AI伦理的限定。社会发展到非常邪恶的地步,自然会有人去改变。“人机对齐”、让AI为善,非常有意义。贫富会不会更分化,也很难说,这取决于我们自己怎么看待。


 主持人:

请老师再为我们简单介绍一下这本书的核心内容和价值。


 王勇博士:


读这本书,可以从根本上理解一些关于AI的商业叙事和技术现实。警惕商业神话,可以避免陷入技术泡沫带来的失误。警惕叙事中的无限夸大,学会辨别概念故事和技术能力的差异。


这本书有很多案例,讲热潮、泡沫以及泡沫后的现象。读这本书可以提升知识,增强判断力。如果你懂点机器学习原理,读起来会更有共鸣。如果你对社会学、监管、伦理了解,也会有自己的收获。


它会让你更关注政策发展。最关键的是,它能让你学会跨学科学习。学文的可能对理科产生兴趣,学理的也会关注法律、道德伦理。AI属于每一个人。你对未来5到10年AI发展的前景会有个认识,会思考它如何影响生活,我们担心什么,期待什么。


 主持人:

除了书里这三种AI,还有哪些AI应用值得关注?


 王勇博士:


最值得关注的是AGI(通用人工智能)的发展趋势。关注它,不只是关心它能否取代人类,而是因为它会影响社会方方方面面的现象——投资、生活、娱乐方式、社会需求。比如,以后是不是大家更需要机器人陪伴,不需要人了?你老了,是不是有个机器人在身边,就不用担心养老了?关心AGI,关系到我们生活的方方面面。


 主持人:

您作为星耀科技董事长,目前关注哪些AI前沿趋势?


 王勇博士:


我比较关注AI在金融领域的应用。金融科技的应用一直有受欢迎和受排挤的两面。我会关注一些突破性的应用,不局限在客服,而是风险管理——金融行业最核心的东西。效率突破也是突破,省的钱跟挣的钱一样。


我们在新加坡成立这家公司,做的就是AI Agent,给金融工程师赋能,提高效率,取代低效的金融工程师。行业一定淘汰低效的人。AI的力量在增大,人类的责任也在增长。今后我们用AI一起创造未来,只有符合人类发展、跟人类利益保持一致的未来,才值得期待。


 主持人:

以金融工程师为例,现在对他们有什么新的技能要求?


 王勇博士:


每天都有的。金融工程师要懂数学、计算机、量化,甚至社会学。现在的新要求是懂得新的AI体系,懂得如何利用大模型这些工具,懂得它们在金融工程中如何应用。这才是每个金融工程师该思考的问题。关键不在于会不会推导公式,而在于把知识用于创造价值、风险管理。用工具的同时,要不忘初心,你做的还是跟人类金融问题联系在一起的。


 主持人:

除了读书,普通人还能通过哪些途径系统提升对AI的认知?


 王勇博士:


不要局限在某一方面,也不要总想着要花两万小时成为专家。关键是系统地把很多事了解起来、关注起来。


另外,不要担心碎片化学习。年龄上去后,除了碎片化,很难有整体化的学习时间。保持学习的连贯性,把碎片联系起来。看短视频,如果你老看一个话题,也能把碎片联系起来。学AI也一样,慢慢看。


 主持人:

这本书您推荐哪些人来读?


 王勇博士:


适合很多年龄段。当然,希望你对AI有一定基础,不一定很精,但至少对某些模型有简单了解,读起来感受会更深。这不是一本技术书,但如果你没技术背景,可能印象不深。有了技术背景再读,尤其是第五章,会有共鸣。所以,只要是关注AI的人都应该读,但方式要科学一些。


 主持人:

最后,对普通人的焦虑,您有什么办法缓解?


 王勇博士:


“AI消灭人类”这事不用想太多,天塌下来有个高的顶着。关注一些自己该关注的,关心AI对你行业影响大的事情。比如我关注金融,我就关心它怎么影响金融行业。关注跟你息息相关的,跟你谋生能力相关的事情。这样,读这本书也会更有效。



 整理者按


将近2个小时的分享,王勇博士反复提醒我们:AI是工具,是镜子,也是考验。


考验的是,当技术以“万金油”之名渗透生活,我们是否还能保持独立的判断;当无数声音宣称“AI将改变一切”,我们是否还能分辨哪些是真实的进步,哪些是商业的神话。


AI万金油》这本书的价值或许正在于此:它不是教你如何使用AI,而是教你如何思考AI。在技术狂奔的时代,这种思考本身,就是我们最后的“人”的阵地。



图片图片
RECOMMEND

推荐阅读
    ▼
扫描二维码,好书带回家
图片

把时间交给阅读

图片
图片部分图片来自网络,侵删

中信出版墨菲 | 尽情分享朋友圈

-近期好文推荐-


图片

图片

图片

↓↓↓点击阅读原文,收获《AI万金油:商业幻想与科技狂潮》

【声明】内容源于网络
0
0
中信出版墨菲
领先的专业知识服务提供商。我们提供专业图书与课程,以应对变化的从业环境。
内容 1594
粉丝 0
中信出版墨菲 领先的专业知识服务提供商。我们提供专业图书与课程,以应对变化的从业环境。
总阅读1.4k
粉丝0
内容1.6k