
点击文末 > 阅读原文 > 浏览下载
纽芬兰政府向私人咨询公司德勤支付了 160 万美元,用于制定一项包含捏造来源的卫生和人力资源计划——这让人联想到人工智能 (AI) 的幻觉。
如果这是初犯,那也足以令人震惊,但实际上,这已经是四大咨询公司之一第二次被指控存在此类行为。就在一个月前,德勤承认使用生成式人工智能技术制作了一份“充斥着虚假引文、虚构脚注,甚至还有捏造的联邦法院判决书引述” 的报告 ,之后被迫向澳大利亚政府退款。
虽然批评人士理所当然地利用这些事件呼吁加强对政府委托报告中人工智能使用的监管,但或许更重要的问题是,为什么政府一开始就被迫依赖像德勤这样的私人顾问来研究和制定公共政策。
克里斯·赫尔和莉亚·沃纳两位作者认为,各国政府正日益陷入“咨询陷阱”。数十年来,政府在私人咨询公司的建议下,不断缩减公共服务规模并将其外包,导致政府缺乏自主制定和实施公共政策所需的专业知识和能力。取而代之的是,这些职能被外包给了德勤等私人咨询公司。随着政府越来越依赖这些公司,甚至连政策研究等基本职能也依赖,它们可能会陷入一种依赖的恶性循环。
与我们空洞化的公务员体系相比,私营咨询巨头声称拥有政府根本无法复制的内部信息和专业知识。咨询顾问的专家建议通常基于一些精心保守的公式或指标,这些公式或指标绝不能向公众公开,否则这些公司就会失去相对于竞争对手的商业优势。然而,这些指标往往存在严重缺陷。
例如,咨询公司利用秘密的“风险评估”来计算政府应该向私营公司支付多少费用,以承担公私合作(PPP)项目中成本超支的风险。当这些评估结果通过政府审计公之于众时,人们发现它们不过是“天马行空”的空想,私营企业投标者只是凭空臆想各种可能的成本超支情况,完全不考虑任何证据,从而抬高了政府必须支付给私营合作伙伴的风险溢价。同样,咨询公司使用标准化的、千篇一律的报告 ,并将其推销给不同的市政当局,完全不考虑当地的具体情况和历史,这也再次表明,幕后往往缺乏实质性的研究或严谨的分析。
近期人工智能事件进一步证实,咨询公司尽管标榜拥有专业知识和技能,但实际上更关心的是如何以最便宜、最具成本效益的方式执行政府合同,而全然不顾最终产品的质量。极具讽刺意味的是,像德勤这样的咨询公司恰恰是政府人工智能应用的最大推动者之一,它们设有专门部门,提供付费咨询服务,旨在通过人工智能改造公共服务和政府运作。
然而,纽芬兰和澳大利亚最近发生的这些事件暴露出德勤对某些人工智能工具的功能和局限性存在根本性的误解。德勤承认在澳大利亚案例中使用的那种大型语言模型(Azure OpenAI GPT-40)旨在预测单词序列的概率,而不是区分事实和非事实。它的程序设定是即使没有强有力的证据支持正确答案,也要生成一个答案——因此它容易产生幻觉或捏造事实。
人们把 LLM(语言学习模型)当作万无一失的搜索引擎,指望它们从数据库中提取事实,而不是把它们看作是词语预测机器。虽然我们可以理解公众对这项新技术的无知,但对于一家将未来押注于自认为比我们更了解人工智能部署方式的跨国咨询公司,我们很难给予同样的同情。
从这些事件中我们只能得出以下两种结论:要么德勤不了解 LLM 的工作方式,未经事实核查就利用其成果撰写政府委托报告;要么德勤明知 LLM 有可能捏造报告部分内容,却置之不理。无论哪种结论,对这家咨询公司而言都同样具有毁灭性。
在应对充满技术不确定性的未来时,我们希望政府依赖的就是这种专业能力吗?或许这次事件能给政府敲响警钟,促使他们认真审视幕后运作,摆脱咨询行业的陷阱。
原文链接: https://www.chnmc.com/news/hynews/2025-12-05/22957.html
研究报告和咨询报告合集下载
| 麦肯锡 |
|
|
|
|
|
|
|
|
| 埃森哲 | 行业报告 |
|


