作者 | 陈富成 蔡宗秀
引 言
近日,ChatGPT概念火热,引发了全民的讨论。ChatGPT实际上是一种AIGC应用。AIGC在2022年迎来高速发展,不仅与金融、传媒、娱乐、医疗、工业等各行业进行结合,以低成本、高效率的方式满足海量个性化需求。同时也孕育着新业态新模式,助力元宇宙发展。AIGC的发展不可避免地也带来了一系列法律风险。本文将对AIGC及ChatGPT进行简介,并以ChatGPT为例分析其主要的法律风险并提出相应的建议。
AIGC的概念及发展现状
AIGC(Artificial Intelligence Generated Content,人工智能生成内容),与PGC(Professional Generated Content,专业生成内容)、UGC(User Generated Content,用户生成内容)相对应,是利用人工智能技术自动生成文本、图像、音视频等内容的生产方式。简言之,基于AIGC,即便不具备绘画基础,使用者也可以通过输入关键词的方式创作出不同风格的画作(见图1)。AIGC能够极大降低内容生产和交互的门槛和成本,有望带来一场自动化内容生产与交互变革,为各行业发展赋能。
图1:笔者使用Stable Diffusion生成的图像,关键词“dream of cyberpunk, concept art, HQ, 4K”
2022年,得益于生成算法、预训练模式、多模态等AI技术累计融合,AIGC产业迅速发展。2022年8月,游戏设计师Jason Allen凭借AI绘画作品《太空歌剧院》(见图2),获得了美国科罗拉多州博览会美术竞赛一等奖,也使得AIGC受到了大众的关注。
图2:太空歌剧院(Théâtre D’opéra Spatial),Jason Allen
实际上,AIGC的应用不仅在图像模态呈现出了巨大的价值,在文本、视频等其他模态中都处于快速发展阶段,并已经实现了C端服务的落地。此外,元宇宙的构建需要海量个性化的数字内容、沉浸式的数字环境,如果仅通过人工方式来生产,会花费高昂的成本和大量时间。因此,AIGC成为了打造元宇宙最合适的生产力工具。Meta公司打造的元宇宙社交平台、腾讯AI Lab打造数字人以及各种NFT发行平台都已经开始通过AIGC实现生产力的大幅提升。
表1:AIGC主要应用场景
如果说AI绘画开始威胁到人类画师,那么ChatGPT的问世则加剧了AI取代人类职业的可能性。2022年11月,OpenAI发布自然语言处理工具ChatGPT,ChatGPT可以完成与人类对话、撰写论文、翻译等工作,并基于输入的数据进一步自我学习。仅仅在推出两个月后,ChatGPT的用户体量就突破了一个亿,其强大功能也已经开始对行业产生影响,而教育行业首当其冲。据美国在线课程供应商Study.com的调查,在美国超过21%的教育从业者在工作中使用过ChatGPT,超过89%的学生在作业中使用过ChatGPT。这导致部分学校开始采取措施,禁止学生使用ChatGPT(见图3)。知名学术期刊Science也明确禁止在论文中使用ChatGPT所生产的文本。近日,微软也将ChatGPT技术应用在必应搜索引擎中,并计划将ChatGPT整合到其办公软件Office中,为用户提供一种撰写文件的新方式。
图3:截至2023年2月1日禁用ChatGPT的美国学校,来源Study.com
可见,ChatGPT强大的语言处理功能,已经能够帮助人类完成一部分文本处理工作,这也使人害怕未来有一天,编辑、客服、程序员等职业都会被ChatGPT取代,甚至法律服务也不再需要律师,而是由“无法不知”的ChatGPT来提供服务。为了一探虚实,笔者匿名向ChatGPT提问了几个问问题(见图4)。
图4:向ChatGPT提问的问题
经过多次尝试,笔者发现,目前ChatGPT已经能够胜任基本的文本创作、翻译、咨询等工作,但涉及到较为专业的问题时,与人类相比差距还比较大。并且OpenAI不会发表主观性的意见。此外,ChatGPT的数据库还停留在2021年,对于较新领域的问题还无法解答,在中文语境下的处理能力还有待提高。就目前而言,ChatGPT还是并不能取代律师这个职业。
ChatGPT虽然还有大量的成长空间,但肉眼可见的发展潜力和蕴藏的巨大价值已经引起了投资者的关注。ChatGPT的开发者OpenAI估值将近300亿美元。自微软引入ChatGPT后,微软的市值不断飙涨,谷歌、百度也争相发布竞品。ChatGPT概念股市场也不断霸占A股涨幅榜的前列。然而火热市场的背后,应当注意到ChatGPT可能存在的风险,小心其成为“潘多拉的魔盒”。
主要法律风险
律师职业暂时是安全的,但是 ChatGPT对于创业者、投资者以及普通的用户都可能会带来一定的法律风险。针对该问题,笔者也向ChatGPT进行了发问(见图5)。
图5:向ChatGPT提问ChatGPT存在的法律风险
至少从ChatGPT的回答可以看出,其对于自身的认知还较为清晰。从ChatGPT的技术特点以及目前的应用来看,其法律风险主要如下:
(一)著作权风险
1. ChatGPT生成内容是否构成文字作品
根据《著作权法实施条例》第二条与第四条第一款规定,认定是否构成文字作品的考察要件包括:(1)是否具有可复制性;(2)是否以文字形式表示;(3)是否具有独创性。目前对于ChatGPT生成内容的争议主要在于生成内容是否具有独创性。根据腾讯诉盈讯科技案((2019)粤0305民初14010号)中法院对于AI的生成文字内容是否具有独创性的说理来看,判断ChatGPT生成内容是否具有独创性,需要从内容的外在表现形式与生成过程来分析。
从外在表现来看,生成内容需要与已有作品存在一定程度的差异。腾讯诉盈讯科技案中,法院认定在外在表现中,生成内容符合文字作品的形式要求,文章结构合理、表达逻辑清晰,具有一定的独创性。可见外在表现的要求对于ChatGPT来说并不是难题。而从生成过程来看,生成内容需要体现创作者的个性化选择、判断及技巧等因素。具体而言,就是在使用ChatGPT时,创作者在数据类型的输入与数据格式的处理、触发条件的设定、文章框架模板的选择和语料的设定、智能校验算法模型的训练等与生成内容的特定表现形式之间具有直接联系,就具有一定的独创性。在菲林律所诉百度网讯((2019)京73民终2030号)中,法院就认定即便AI生成的内容具有独创性,但由于AI不是自然人,不属于《著作权法》上的作者,故也不能认定生成内容是作品。
2. 若构成作品,作品的权利归属风险
如前文所述,AI由于不属于自然人、法人或非法人组织,不属于《著作权法》上的作者,也当然不享有著作权。而根据腾讯诉盈讯科技案的裁判观点,法院认定AI生成内容的过程并非是其自我意识导致的,而是创作者对于AI的使用以及算法、规则的设定,所以作者应当为创作者,从而规避了AI不能成为作者的问题。
然而在实际使用ChatGPT的过程中,创作者究竟是类似微软等引入ChatGPT技术的企业,还是使用该类产品的消费者,还具有争议。企业在推出该等文字生成服务时,可能会设定一定的触发条件、文章框架模板,并使用特定的算法模型,而消费者因输入相关的关键词条件,对生成的内容与形式都有一定的影响。两者究竟谁属于作者,享有著作权,尚无定论。而ChatGPT等软件的开发者,对AI进行了大量数据训练,其相关工作与作品的表现形式之间可能也存在直接关联。腾讯诉盈讯科技案中由于开发者与创作者已经约定了著作权的归属,并且不涉及普通的消费者,所以法院回避了这一问题的解答。
3. ChatGPT生成内容可能侵犯他人著作权
ChatGPT需要对大量的数据进行学习,而数据库中的数据可能会包含他人享有著作权的作品。ChatGPT对于这些作品的挖掘与学习,并不属于《著作权法》中合理使用的情形。这种复制行为如果没有获得著作权人的授权,就会侵犯著作权人的复制权。
此外,由于ChatGPT对于数据进行学习,在生成内容上,可能会产生与他人作品雷同的作品(在AI绘画领域已经出现),构成抄袭。此时可能会被认定存在实质性相似,构成对他人著作权的侵犯。
(二)数据安全风险
ChatGPT的运行基于蕴含大量数据的语言模型,通过对数据的学习,它能够更好地预测文本、对话的下文并生成合理的内容。OpenAI为ChatGPT提供了互联网上的文本包含的大约3000亿个单词,其中就可能包含自然人的个人信息。而OpenAI取得这些信息并未获得同意,也没有为外界提供检查数据库中是否包含个人信息的途径。这种行为是违反了《个人信息保护法》的告知同意规则。
此外, ChatGPT会基于用户输入的数据进行进一步的学习。在使用者的使用过程中,ChatGPT会不断地抓取使用者输入的信息,并作为之后的训练数据进行学习,这很有可能使得ChatGPT在使用者不知不觉中将敏感的信息抓取学习,并在未来某时泄露给他人。近日,微软与亚马逊都已经向员工发出警告,禁止向ChatGPT分享敏感数据,防止企业的机密泄露。
(三)归责主体
AI的归责主体问题,实际在人工智能汽车推出时就引发了大量的讨论。就目前的司法实践与AI的发展情况而言,在归责主体上,使用ChatGPT而造成他人损害的,ChatGPT等类似应用的服务提供企业以及AI的开发者,都可能承担相应的侵权责任。而消费者在使用ChatGPT时,如果将生成内容作为自己的作品发布,而发生了前文所述的侵犯他人著作权的行为,也可能要承担相应的侵权责任。
(四)伦理风险
目前,OpenAI已经为ChatGPT设定了一系列规则,防止其生成血腥、暴力、色情等不良内容。经过向ChatGPT提问,也证实了这一点(见图6)。
图6:向ChatGPT提问关于血腥暴力的故事
OpenAI在官网上也发布了关于ChatGPT的局限性。根据其说明,尽管OpenAI正在努力使ChatGPT拒绝用户不合理的请求,但是ChatGPT还是不可避免地可能会生成一些有害的信息或偏见。具体而言,ChatGPT存在着算法歧视和生成不良信息的风险。算法歧视方面,ChatGPT生成的文本可能会带有脏话、仇恨、性别与种族歧视言论。有网友分享,他要求ChatGPT写一个基于某人的种族和性别来检查其是否能成为优秀科学家的python命令,而ChatGPT则将白种人男性作为优秀科学家的唯一标准(见图7)。此外,ChatGPT还有可能生成极度暴力、血腥、色情等违反法律以及公序良俗的内容。
图7:要求ChatGPT编写关于优秀科学家的命令,来源:steven t. piantadosi
建 议
目前国内已经相继出台了《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐管理规定》”)以及《互联网信息服务深度合成管理规定》(以下简称“《深度合成管理规定》”),这两部规定对类ChatGPT的AIGC应用服务提供者、技术支持者提出了一系列要求,国内的类ChatGPT的服务提供者、技术支持者,应当注意履行相应合规义务。此外,就前文所述风险,笔者建议如下:
(一)加强企业著作权管理
1.确保类ChatGPT应用的AI的抓取数据不侵犯他人著作权。近年来国外已经开始将AI抓取、学习数据的行为纳入到合理使用的情形,但我国《著作权法》的合理使用情形仍不包括这种行为,所以应当确保AI抓取的数据以及用于训练的数据库,是否存在他人享有著作权的作品。若有,应当取得著作权人的授权。
2.明确约定著作权归属。如前文所述,著作权的归属虽然有一定的司法裁判观点,但是在实践中仍是争议较大的问题。类ChatGPT服务提供者与技术支持者应当在合同中明确约定生成作品的著作权的归属,并且在类ChatGPT应用的用户协议中,向使用者声明著作权的归属方。
(二)履行个人信息保护义务
类ChatGPT服务提供者和技术支持者在使用训练数据中若包含自然人的个人信息,或用户在使用过程中会被收集个人信息的,应当根据《个人信息保护法》的规定履行告知同意规则,对于敏感个人信息应当取得单独同意。用户要求服务提供者和技术支持者删除相关个人信息的,应当及时采取数据销毁措施。
(三)明确用户使用规范
类ChatGPT服务提供者应当在其应用的用户协议中明确使用规范,禁止用户利用类ChatGPT应用制作、发布、传播含有违反法律法规以及公序良俗的信息,并做好免责声明,对于利用类ChatGPT 应用制作、发布、传播或其他方式侵犯了他人的合法权益,而导致服务提供者面临任何纠纷,用户应当对服务提供者因此遭受的直接及间接损失承担全部损害赔偿责任等。
(四)完善审核违法、不良信息机制
类ChatGPT服务提供者和技术支持者应当建立健全用于识别违法和不良信息的特征库,发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告。对于利用AIGC应用制作、复制、发布、传播违法与不良信息的使用者,依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。
结 语
可以预见,ChatGPT等AIGC应用将在2023年迎来爆发式的增长。在创造巨大生产力的同时,包括服务提供者以及技术支持者在内的相关企业也要注意伴随而来的法律风险,履行相应的合规义务,促进AIGC产业有序健康的发展。
声 明
文章仅代表作者观点,不视为安杰世泽律师事务所正式法律意见或建议。如需转载或引用请注明出处。如有任何问题,欢迎与本所联系。

