
中国对待LLM和类ChatGPT平台的方式将有所不同
OpenAI是一个人工智能(AI)研究实验室,由非盈利性OpenAI Inc.及其盈利性子公司OpenAI LP组成。由于OpenAI规模很小,类似一家初创公司,因此运营方面比美国一些大型AI公司更加灵活,所有这些公司都在开发类似的服务。但谷歌、AWS和Meta都有其他的业务和声誉需要顾及,因此在推出新一代生成式AI应用时更加谨慎,而OpenAI无需考虑这些。
在中国,与OpenAI角色相当的是北京人工智能研究院(BAAI)。BAAI开发了一个名为悟道的GPT平台,据称该平台经过了1.75万亿个参数的训练,能够模拟对话、写诗、理解图像,甚至生成食谱。
上个月,北京的一个区政府主办了一次大型会议,承诺支持LLM。包括百度、阿里巴巴和商汤科技在内的越来越多的中国公司表示,他们正在为通用和特定领域的应用开发类似ChatGPT的平台。自然,这种围绕生成性AI的讨论已经引起了监管机构的注意。
为了强调中国对LLM和生成式AI的态度将有所不同,中国国家互联网信息办公室(CAC)本周发布了针对这些平台的新规则草案。发布这些规则的目的是让平台开发者对用于训练算法的基础数据的合法性负责,并对平台生成的“不当内容”负责。此外,平台用户必须实名注册并提供其他相关信息。
新的CAC规则建立在一系列监管方法的基础上,以建立一个监管AI的工具集,并寻求一种不同于欧盟或美国的方法。CAC去年建立算法注册管理机构——互联网信息服务算法备案系统的举动,或许是最明显的迹象,表明中国希望在监管方面领先一步。尽管仍不清楚其实际审查算法技术细节的能力,但注册管理机构的规定显然是当前围绕生成式AI的拟议规则的前奏,因为它们要求将具有“民意特征”和“社会动员能力”的推荐算法向注册管理机构备案。虽然推出注册表的过程有时并不明晰,但它似乎旨在为管理机构提供一种方法,以追踪可能存在问题的算法。
“不当信息”问题是中国发展和部署LLM的核心特点。一般来说,最先进的LLM通常是在大量数据上“预先训练”出来的,这些数据主要是指互联网上尽可能多的公开可用的数据,这包括文本和图像,甚至音频。中国的LLM开发人员在这方面可能面临着挑战,因为对于中国公司来说,决定用哪些数据来训练他们的模型要比西方同行更加复杂。像ChatGPT这样的平台,其魔力不仅在于算法和训练数据,还在于所谓的人类反馈强化学习(RLHF),这就是如何训练模型以避免不当话题、偏见和充满仇恨的言论。
因此,中国的大语言模型可以在未经审核的数据上进行训练,然后通过RLHF使得输出内容与国家对特定类型对话的期望“保持一致”,即避免那些会在中国互联网上受到审核的不当话题。
在这里,内容和图像审查问题在某种程度上是更广泛的“对齐问题”的延伸,今天的AI圈围绕AI安全问题对“对齐问题”进行了大量讨论。“对齐”是指AI算法和应用程序的设计应与人类价值和利益保持一致的程度,通常被视为是系统设计者的预期目标和利益。作为当今AI的核心挑战之一,这个问题变得更加复杂,特别是对于现在加入ChatGPT浪潮的中国公司,如百度、阿里巴巴、腾讯和许多其他公司。
监管会影响中国的ChatGPT浪潮吗?
这些公司面临着大量的挑战:
选择数据以训练它们的算法;
鉴于美国新的出口管制,他们只能在云端访问用于训练的先进硬件;
避免在内容和数据问题上与监管机构发生冲突。
这一领域的所有公司都面临着财务挑战,因为要将先进的硬件芯片集群放在一起,并在相当长的时间内运行它们来训练算法,如果没有明确的商业战略和财力雄厚的支持者,就没有资格参与这场烧钱的游戏。
内容倾向问题
高级硬件获取问题
从中期来看,高级硬件获取问题将开始显现。美国正对先进的GPU进行控制,例如,从2022年10月7日出台一系列出口控制政策,限制中国获得英伟达最先进的GPU,A100和H100。这些先进的GPU以及使用它们构建的系统是训练LLM的理想选择。例如,ChatGPT就是在10000台A100上进行的训练。
GPU到GPU的数据传输速率是决定GPU是否受美国出口管制的关键指标,也是训练模型的重要因素。虽然英伟达很快推出了将GPU到GPU的数据传输速率降低到管制水平以下的A100和H100版本,但对于希望使用这种新硬件的中国公司来说仍将是个挑战。
海量语言模型可以在各种硬件配置上进行训练。例如,百度已经在平台上训练了Ernie 3.0和Ernie 3.0 Titan的版本,比如它自己的英伟达 V100 GPU集群,以及鹏城实验室的华为神经处理器(NPU)集群。在美国出口管制阻止华为公司继续在台湾台积电生产芯片之前,华为已经在2019年推出了NPU产品线,称其尖端版本是“世界上最强大的人工智能芯片”,是A100的竞争对手。百度也推出了自己的NPU,最新版本由台积电制造,下一代有望在2024年实现商业化生产。
美国的限制也可能导致使用不同硬件的中国公司进行更大的创新。例如,几乎可以肯定的是,中国的AI公司已经在探索通过软件优化方法和新颖的硬件配置,来应对硬件功能较弱的问题。由于先进的硬件对于LLM的训练至关重要,中国相关公司将探索更多方法来减少训练时间并优化训练流程。
美国的限制也刺激了中国国内人工智能GPU替代品的快速发展,近12家公司参与了数据中心和边缘应用的新硬件开发,其中包括壁仞、摩尔线程、兆信、天数智芯、芯动、象帝先。开发具有竞争力的GPU(尤其是AI应用)的主要制约因素是新硬件设计的成本,以及创建替代开发环境以与英伟达广泛使用的 CUDA系统竞争。
伦理、安全性和管理
美国和中国在AI领域竞争的想法推动了一种关于“AI竞赛”的说法,对ChapGPT的炒作也起到了作用。当生命未来研究所组织的数千名AI研究人员和AI伦理研究人员在3月底签署文件,呼吁暂停生成AI的发展时,许多AI资深人士承认,没有现实的方法来实施暂停。同样在本周,美国商务部也不甘示弱,就企业应如何看待“AI问责制”征求意见,为政策提供信息,以支持AI审计、风险和安全性评估、认证以及其他可以在AI系统中建立信任的工具。
太平洋两岸的国内力量似乎正在推动美国和中国在如何开发和监管AI方面产生更大的分歧。中国政府选择了一种更加积极主动的监管方法,这既不同于欧盟通过人工智能法案的方法,也不同于美国的方法,后者目前缺乏全面的立法或监管议程。
与信息技术堆栈的其他部分相比,生成式AI模型和应用程序可能会更快、更明确地出现分歧,特别是考虑到内容倾向、不同的监管压力以及硬件和软件开发等问题。由于LLM需要大量的计算能力,其开发优势将归于资金充足的大型科技公司,这些公司拥有开发和维护应用程序所需的财力和人力资本。因此尽管面临种种挑战,但可能会有更多的中国公司加入竞争。中国充满了AI软件开发人才,而美国对先进硬件的控制只可能被视为需要克服的挑战。
美国一直致力于控制AI相关硬件的使用,以维持其先进计算能力主导地位,这种做法其实表明,美国可能已经承认中国公司将在未来的中国国内和发展中国家主导生成式AI,形成优势局面。
作者:Sujai Shivakumar and Andrei Iancu
来源:www.thechinaproject.com 2023年4月
编译:《启迪观察》

