大数跨境
0
0

DeepSeek:欧洲的问题还是机会

DeepSeek:欧洲的问题还是机会 礼士蛮
2025-04-22
0
导读:问题还是机会?

引言

2025年1月20日,中国人工智能公司DeepSeek发布了其R1推理模型,这一事件促使美国政策制定者与技术专家对中国AI生态系统的现状进行了深刻的重新评估。美国总统唐纳德·特朗普表示:“这一发布……应该成为我们产业界的警钟,我们必须聚焦竞争并取得胜利,因为我们拥有世界上最优秀的科学家。”

R1模型及其基础模型DeepSeek V3,在多个重要方面展示了AI模型开发的创新路径,尤其体现在成本控制与算力效率方面。然而,这一成就并非毫无争议。白宫AI事务主管大卫·萨克斯(David Sacks)称,有“确凿证据”表明DeepSeek对OpenAI模型进行了知识蒸馏。与此同时,OpenAI指控DeepSeek在训练R1过程中使用了从其模型蒸馏而来的数据,违反了OpenAI的服务条款。

这场争议并不局限于美国。尽管欧洲领先的AI企业对DeepSeek的崛起表示兴奋,欧洲监管机构却对其表示担忧。

对欧洲初创企业的利好消息


欧洲初创公司普遍认为R1的发布是一次重大发展和机遇,因为它表明,尽管与美国公司相比存在资本不足、缺乏大型算力基础设施等劣势,欧盟初创企业仍有可能成功竞争。法国AI企业Mistral AI对此尤为积极,称R1的发布证明了新一波“小语言模型”具有可行性——这些模型参数更少、所需计算资源更低。

1月30日,Mistral发布了其最新AI模型,并在新闻稿中称赞R1是“一款出色且互补的开源技术!”2月10日,Mistral首席执行官阿图尔·门施(Arthur Mensch)在采访中更进一步,称DeepSeek是“与我们非常相似的参与者”,是“中国的Mistral”。在发布新品时公开称赞竞争对手在商业领域并不常见,Mistral之所以这样做,显示出他们认为DeepSeek已经显著改变了行业格局。尽管门施在同一次采访中也指出DeepSeek“广泛使用了我们在2023年开源的技术”。

德国AI企业Aleph Alpha早已退出模型开发的竞争,但迅速将DeepSeek的模型纳入其面向企业客户的AI服务组合中。与Mistral试图“搭乘DeepSeek热度”并试图强调自身对其影响不同,Aleph Alpha则将DeepSeek视为一种“技术赋能者”。

就在一个月前,外界还几乎不会预料到,欧盟企业会以如此积极的语气谈论中国AI模型开发者。

欧洲监管机构的担忧


欧洲监管机构则态度截然不同。DeepSeek将其模型在欧洲市场上开放下载,并提供在线应用使用。对AI模型而言,这本身并不构成问题,但DeepSeek模型中存在的某些特定特性,很可能违反了欧盟相关法律,尤其是《通用数据保护条例》(GDPR)和即将实施的《欧盟AI法案》,这两部法律分别覆盖隐私保护与AI安全问题。

隐私问题

R1的隐私政策显然不符合GDPR规定。比利时、法国、德国、爱尔兰、意大利和荷兰等多个国家的数据保护机构立即向DeepSeek发出了信息披露的正式请求。意大利甚至在R1发布仅数日后就封锁了该应用的访问权限。意大利隐私监管机构表示,DeepSeek所提供的信息“完全不足”。

实际上,DeepSeek的隐私政策明确写道,用户数据将被存储在中华人民共和国,政策中未提及GDPR,且表示个人数据处理的司法管辖区为中国大陆。以上每一项都可能被视为违反欧盟严格的数据保护规定,尤其是在该模型在欧盟范围内广泛可用的前提下。

颇具讽刺意味的是,当用户要求R1模型评估其自身的隐私政策是否符合GDPR时,模型本身直言不讳地指出其存在“多个漏洞”(见图1)。

(图1)

这些问题若不加以解决,极有可能在不久的将来导致DeepSeek在整个欧洲范围内被更广泛地限制访问。此类限制将可能适用于所有提供DeepSeek模型访问的渠道,无论是由谁提供。例如,目前已在其Azure云平台上提供DeepSeek模型接入的微软,也很可能受到影响。

安全性与保障问题


GDPR已对DeepSeek产生一定影响,但《欧盟人工智能法案》(EU AI Act)是否也将产生类似影响,尚不明朗。

美国专注于AI安全与合规的AI公司Enkrypt AI早期对R1模型进行的“红队测试”显示,该模型缺乏基本的安全防护措施,容易生成偏见、暴力、辱骂性内容,甚至是不安全的代码。Enkrypt指出,DeepSeek R1在生成有害内容方面的脆弱性是OpenAI o1模型的11倍,在生成不安全代码方面的脆弱性为4.5倍。其他测试者(包括Adversa和思科公司)也证实了类似结果。

在此背景下,欧洲官员对CSIS表示,监管机构担心DeepSeek的成功会引发行业“向下竞争”(race to the bottom):为了尽快发布类似的“小模型”,企业可能会削减在安全性与保障措施方面的投入。此外,另一个令人担忧的因素是中国政府可能将R1模型用于监控或军事用途

根据AI法案,自2025年8月起,法案将适用于通用目的AI模型(GPAI)。届时,所有在欧盟市场发布的GPAI模型必须:

  • 提供详尽的技术文档,

  • 建立版权政策,

  • 发布一份足够详细的训练数据中受版权保护内容的摘要。


若模型以开源许可证形式发布,将可豁免技术文档的要求,但版权相关要求仍须遵守。R1是否在法律上符合开源模型的定义,将在下文进一步讨论。

此外,若模型达到10²⁵次浮点运算(FLOPs)的门槛,无论是否开源,还需遵守更进一步的义务,包括:

  • 模型评估,

  • 风险评估与缓解,

  • 事件报告

  • 网络安全措施。


这些规则是否适用于如R1这样的模型尚有待确认,但极可能成为欧盟AI事务办公室在实施AI法案时所面对的首批关键解释性决策之一

DeepSeek R1是否在《欧盟AI法案》中属于“开源”模型?


由于《欧盟AI法案》为开源模型提供了透明度义务方面的豁免,因此有必要判断DeepSeek R1是否符合该法规中所指的“开源”定义。

AI法案正文并未给出“开源”明确定义,仅指出:若AI模型是在“允许访问、使用、修改和分发模型的免费开源许可证”下发布,且其模型参数(包括权重)、架构信息和使用方式信息公开可得,则可以享受不同程度的监管豁免。

从DeepSeek公开的许可证和信息来看,其似乎满足上述条件。然而,除法律条文外,AI法案还包含称为“序言(recitals)”的补充说明——这些内容虽然不具法律条文的约束力,但对法案执行具有指导意义。

有关“开源”定义的序言指出:

“在本法规范围内,凡通过收费或其他形式变现(包括提供技术支持、将个人数据用于提升安全性、兼容性或互操作性以外的目的)的AI组件,不应享受对免费开源AI组件所提供的豁免待遇。”

DeepSeek最有可能未满足“非商业化”这一要素,尤其体现在其对个人数据的使用上。如上文所述,DeepSeek的隐私政策存在合规问题。在“我们如何使用您的信息”一节中,最后一条明确写道,DeepSeek将使用个人数据以“履行法律义务,或在履行公共利益任务所需,或为保护用户和他人至关重要的利益”。

即便不详细讨论“履行法律义务”或“公共利益任务”对中国公司而言意味着什么,这一政策内容本身已超出了“仅用于提升软件安全性、兼容性或互操作性”的范围。因此,取决于欧盟AI事务办公室对序言内容(尽管非强制)赋予多大解释权重,也有可能认定DeepSeek不符合开源模型的标准

R1使用蒸馏技术是否属于AI法案中的“微调”(Fine-Tuning)范畴?


围绕R1的核心问题在于:如何界定DeepSeek通过应用程序及其他渠道提供的R1模型的本质。正如前文所述,OpenAI及白宫相关人士指控,DeepSeek很可能通过对OpenAI模型进行知识蒸馏的方式取得R1的卓越性能。

微软工程师Vishal Yadav与Nikhil Pandey对“蒸馏”技术的定义是:

“蒸馏是一种知识转移技术,旨在将大型预训练模型(即‘教师模型’)的知识迁移到小型模型(即‘学生模型’),使得学生模型可以达到接近教师模型的性能。通过这种方式,用户能够获得大型语言模型的高质量输出,并在生产环境中通过学生模型减少推理成本。”

然而,分析R1的研究者指出,蒸馏技术在R1中的应用并不完全成立,甚至可能只是部分适用。事实上,R1主要是通过强化学习(RLHF)在已有能力模型(DeepSeek V3)基础上强化训练而来,并辅以多个阶段的训练优化以提升可读性和性能。

目前,欧盟AI事务办公室正在制定关于“微调”问题的实施指南,以厘清AI法案如何适用于下游模型提供商。这一指南的走向将决定后续多种情形的处理方式,相关内容在本文后续以及图2中将有进一步探讨。

图2 欧盟《人工智能法案》下DeepSeek的R1模型的法律问题

欧盟AI法案将如何判定DeepSeek R1?监管走向的关键分歧

来自欧洲议会与欧洲理事会的消息人士告诉CSIS,在起草《欧盟AI法案》(EU AI Act)时,其初衷并非将“微调”(fine-tuning)模型一律纳入监管义务。事实上,GPAI(通用目的AI)模型的相关规定,理应主要适用于上游模型,即所有AI应用价值链起源的基准模型。

AI法案针对微调行为,仅触发所谓的“价值链条补充”条款,即微调者仅需在原始模型提供者的基础上补充信息。例如,若某律所基于GPT-4进行微调,使用上千份案例判决和法律意见书训练出一个“律所专用”的AI助手,该律所无须重新撰写技术文档、制定版权政策或总结训练数据的版权内容,而只需在现有文档上注明微调所用数据集和过程

第一步:R1是否属于“微调”?


若欧盟AI事务办公室确认“蒸馏”属于微调,且认为R1使用的其他训练技术也属于此类,那么DeepSeek只需像律所那样在价值链条中补充信息即可。目前DeepSeek公开的信息和研究论文似乎已经符合这一要求(尽管若OpenAI的指控属实,数据来源或存在不完整之处)。

相反,若AI事务办公室认为R1的蒸馏与后续精细化训练的技术手段足够复杂,构成了一个全新模型,那么R1将被认定为GPAI模型,自2025年8月2日起需遵守完整的AI法案义务。更准确地说,AI法案规定:所有在该日期之前投放市场的GPAI模型,必须在2027年8月2日之前完成合规改造。

第二步:若R1被视为“新模型”,是否会被指定为“具有系统性风险”的GPAI模型?


若R1被认定为新模型,下一步监管者需判定其是否构成“系统性风险”模型。尽管R1的算力远低于AI法案设定的10²⁵ FLOPs门槛,但监管机构仍可能基于其他因素作出该认定,例如:

  • 参数规模是否巨大,

  • 数据集是否庞大,

  • 商业用户数量是否众多。


AI法案确实允许在这些条件下,即使算力未达门槛,也可将模型指定为“系统性风险模型”。

一旦R1被认定为此类模型,DeepSeek将必须执行:

  • 模型评估,

  • 风险评估与缓解,

  • 安全事件报告,

  • 网络安全防护等义务。


此时,即便模型为开源,也无法通过“开源豁免”逃避这些义务。若不合规,DeepSeek将面临最高相当于其年度营业额3%的罚款,或被限制进入欧盟单一市场

当前,关于GPAI模型的操作细则正在《行为准则》(Code of Practice)中起草。由于DeepSeek并未参与起草过程,美国AI公司反而拥有话语权,能通过参与塑造规则,影响未来DeepSeek必须遵循的标准。

DeepSeek:是欧洲的新隐患,还是新机遇?——两种路径情境分析


AI事务办公室在制定微调指南和是否将R1列为GPAI系统性风险模型的问题上,需非常谨慎。一方面,DeepSeek及类似“轻量模型”的崛起,让欧洲企业看到即便在缺乏大型算力支持的情况下,仍有可能追赶甚至超越OpenAI等先进大模型,这意味着巨大的产业机遇。另一方面,AI事务办公室必须平衡好建立安全护栏与扶持欧洲AI生态之间的矛盾。

情境一:R1被视为“微调”


若如上所述,R1被认定为微调产物,那么欧洲企业使用相似方法开发模型将基本不受AI法案约束。这将为大量初创公司快速崛起并挑战OpenAI、Meta、Anthropic等美国巨头提供可能,而这些大公司则须履行GPAI模型的完整合规义务。

与此同时,DeepSeek的R1及类似模型也将避开监管,仅受GDPR的隐私法规约束。而GDPR本身可能足以导致R1在欧盟范围被全面限制,从而反而给予欧洲本土企业更多竞争空间,因为它们更熟悉并具备遵守欧盟隐私与安全规则的能力。

这一情景与欧盟当前重振竞争力的立法议程相符。2024年1月29日,欧盟委员会发布《竞争力指南针》(Competitiveness Compass),强调AI将成为推动欧盟工业复兴的核心引擎,并将推出一系列相关政策。正如欧盟“科技主权事务专员”Henna Virkkunen所言:“欧盟必须成为真正的AI大陆。”因此,这一情境对欧盟企业最为有利,但对美国公司或许最为不利。

情境二:R1被认定为完整的GPAI模型


若R1被视为完整的GPAI模型,并可能进一步被列为系统性风险模型,那么它将面临AI法案中最高级别的合规要求。尽管如此,类似模型在欧洲仍可发展,但也必须遵守至少透明度和版权方面的义务。

若R1被定为系统性风险模型,可能导致类似的“小模型”在欧洲层出不穷,并不断触发系统性风险门槛。这一局面在AI法案谈判过程中并未被充分预见——原本设想的系统性风险模型只由少数大型公司承担。

在该情境下,美国公司将受益最大,因为无论是R1还是欧盟公司,都必须与之“同台竞技”,遵守相似的高标准。此外,美国公司正参与《行为准则》的起草过程,对规则有较强影响力。像法国的Mistral AI等先发公司亦将受益,但绝大多数欧盟初创企业则难以获得平等的参与机会,从而在新一轮竞争中处于劣势。

结语

R1的推出为欧洲AI领域带来了前所未有的新挑战,也带来了令人振奋的新机遇。尽管目前尚不清楚《欧盟AI法案》(EU AI Act)是否以及在多大程度上将适用于R1,但它已经引发了关于隐私、安全与保障方面的广泛担忧

为缓解这些风险,欧洲最稳妥的做法可能是——如前述情境二所示——将R1认定为独立的通用目的AI(GPAI)模型。这不仅可以确保未来采用不同微调或压缩技术的小型模型也被纳入AI法案监管范围,至少需遵守透明度与版权方面的义务

目前,欧洲企业已须遵守GDPR,并通常在其AI产品中融合负责任AI治理原则与安全控制机制。因此,额外满足透明度与版权规定并不会对它们构成过大负担。事实上,R1所展现的成本与算力效率优势,恰恰为欧洲AI企业带来了意想不到的追赶乃至超越机会——甚至在欧盟本地市场有望超越R1本身

如果欧盟企业能开发出在性能与效率上与R1相当、但在隐私、安全与合规性方面更具用户信任度的模型,那么欧洲或许能够实现“双赢”——即兼顾创新竞争力与制度可信度。但要实现这一目标,欧盟的监管机构与企业仍需在一条复杂且变化迅速的道路上谨慎前行、灵活应对

【声明】内容源于网络
0
0
礼士蛮
只发干货
内容 88
粉丝 0
礼士蛮 只发干货
总阅读17
粉丝0
内容88