大数跨境

AIGC的未来

AIGC的未来 数组智控产业发展科技院
2023-03-07
2
导读:文章来源《AIGC:智能创作时代》如何从技术、创业、投资、监管等方面看待AIGC的未来?我从来不想未来,因为

文章来源《AIGC:智能创作时代》

如何从技术、创业、投资、监管等方面看待AIGC的未来?

我从来不想未来,因为它来得太快。

——阿尔伯特·爱因斯坦(Albert Einstein)

得益于AIGC相关技术的迅猛发展,智能创作时代正在缓缓拉开序幕。

当我们能够或多或少窥见人类与人工智能携手创作的美好未来时,我们也需要保有一份对未来的思考,这份思考将帮助我们更好地前行。

本章将从技术趋势、参与主体、风险与监管三个角度展望智能创作时代的未来。

第一节 AIGC的技术趋势

AIGC起源于技术,也因为技术的高速演进得到了迅猛的发展,迎来了全面商业化落地的今天。

忆古而思今,回望AIGC的技术演进脉络,发掘其中潜藏的未来趋势,可以让我们更好地建设明天。

一 大模型的广泛应用

人工智能的发展经历过多次春天与寒冬,每一次春天与寒冬的交织都与“通用化”和“专用化”的分歧息息相关。

一方面,“通用化”人工智能代表着人类对于未来的美好畅想,但在每个阶段都会遇到不可跨越的瓶颈;

另一方面,“专业化”人工智能可以带来更好的应用落地,但从技术演进的发展周期来看,它只是帮助科技开枝散叶的加速器,并非科技应该奔赴的未来。

在“通用化”与“专业化”矛盾交织的过程中,人工智能的技术一直进步着。

而当我们将眼光收束到20世纪的前二十年,我们不难发现相似的演进趋势。

为了推动人工智能快速落地,各类人工智能企业都遵循着类似的应用范式:基于特定的应用场景收集特定的数据,再利用这些数据训练算法模型,最终解决特定的任务。

诚然,这样的应用范式在初期确实取得了显著的应用效果,但随着越来越多复杂场景的出现,尤其是与生成内容相关的应用场景,这种范式就会显得力不从心。

在这种情况下,人工智能陷入了“手工作坊式”的应用怪圈,针对什么任务训练什么模型,复杂的任务就拆分成多个简单任务进行拼合连接。

这虽然符合一般的工程思想,但也越来越偏离人工智能的初衷,这种专业化、碎片化的下游应用严重阻碍了人工智能产业化的步伐。

在这样的情况下,主打“通用化”的大模型在时代的浪潮下孕育而生。

通过“预训练大模型+下游任务微调”的方式,人们可以让模型从大量标记和未标记的数据中捕获知识,并在微调后将模型的能力迁移到各类任务场景中,极大地扩展了模型的通用能力。

如果说这种“预训练+微调”的模型训练方式使大模型的广泛使用成为可能,那模型规模的增长则让这些大模型变得强大无比。

现在,这些大模型通常都有着数以百万乃至数千亿为单位的参数量,这些模型在接受了海量数据的训练后,能够捕获数据中更加深层次的复杂规则和关系,从而能够胜任各种类型的复杂任务。

有三大因素促使了这类大模型的产生:

·计算机硬件的改进,以及GPU等处理器算力的增加令如此规模的大模型训练成为可能。


·Transformer等重要模型架构的出现让人们可以利用硬件的并行性去训练比以前更具表现力的模型。


·互联网与大数据的高速发展提供了丰富的数据,可以支撑大模型的规模化训练。

如今,正是这些大模型的快速发展让AIGC变成现实,并且逐渐深入我们的日常生活。

正如前文所言,大模型通过在数据中捕捉更广泛、更精细的规律和关系,生成更多样化且更真实的输出。

这种技术的应用使得AIGC在很多情况下能够生成与人类相媲美且无法辨别出不同的优质内容,也使得本书中所谈到的众多行业应用成为可能。

大模型使得AIGC变成现实的例子比比皆是。由OpenAI所发布的GPT-3就是一个1 750亿参数量的大模型,能够生成大量被广泛应用的文本内容,可以用于创作文章、诗歌和代码等。

除此之外,国内不少公司也纷纷推出了自己研制的各类大模型。

百度文心大模型系列就是典型的例子,这类由百度研发的产业级知识增强大模型,涵盖自然语言处理、机器视觉、跨模块任务、生物计算、行业应用等多种AI应用场景,不少模型参数量可以达到百亿乃至数千亿规模,得到了许多企业的广泛应用。

大模型之“大”除了体现在参数规模上,同样也体现在数据量上。

过去,数据一直是机器学习模型的重要瓶颈,因为针对特定的任务场景,需要人工进行大量数据的标注才能让机器完成学习,许多业内专家将这种现象戏称为“人工智能就是大量人工才能换来的智能”。

但人力终有穷时,依靠人工的数据标注难以支撑大模型的训练,许多大模型的训练开始采用综合监督学习和无监督学习的方式,例如通过“无监督预训练,监督微调”的方式,减少对标注数据的依赖。

同时,除了在数据标注角度的革新外,许多大模型在训练数据的选取上也更加别出心裁,充分利用互联网上自然生成的PGC、UGC内容进行训练,以获得更加丰富的可用数据和更加自然的语言表达。

无论是模型角度还是数据角度,大模型的发展都为AIGC赋予了充分的想象空间,而伴随着智能创作时代的全面来临,大模型的发展也许将会为我们带来更多的惊喜。

二 全新的人工智能“仿人模式”

当人类想要打造人工智能时,一个非常直接的思路是去让机器模仿人来获取智能的学习方式。

这种“仿人模式”一直都是人工智能新的算法模型的重要思路来源,也是技术发展的重要推动力。

人工智能的发展史,可以说是机器模仿人类的历史,科学家尝试用各种方式让机器刻画人、模仿人。

而纵观机器对人的模仿历程,我们可以清晰地看到它从微观层面的僵硬模仿,逐渐发展为宏观层面的认知模式借鉴,实现了这一技术哲学的思想跃迁。

在人工智能早期,符号主义方法占据了主导地位,这类方法的根本思想源泉就是“人的智能就是来自逻辑规则”,模仿人的智能也就是模仿人的逻辑规则,人们妄图通过尽可能多地设置逻辑规则,最终让机器具有一定程度的逻辑判断能力和智能。

虽然符号主义确实取得了一定成功,但由于人们无法定义人类智能的所有规则细节,它很快在历史的长河中被淘汰。

就以语言翻译的任务为例,为了准确地将一个句子从一种语言翻译成另一种语言,需要让系统包含这两种语言的所有语法和语法规则。

然而,这些规则通常有许多细微差别和例外情况,利用规则的界定让系统变成强大可用的工具是一个极其复杂和困难的事情。

因此,基于规则的系统往往难以完成具有高度细微差别或灵活性高的任务。

联结主义则从更高的抽象层次去定义人工智能。

智能产生于人脑,而人脑构成的神经节点促使了人类具备思考的能力,因此应该让机器去模仿人脑的结构而非人脑所表现出来的规则。

虽然联结主义在发展初期遇到了诸多阻碍,发展至今也已经与当初的出发点相去甚远,但人工神经网络时至今日的蓬勃发展在一定程度上也验证了当初这种高度抽象化思考模式的胜利。

后来,诸多人工智能各个子领域的发展无疑不见证了这种在宏观层面模仿人类智能思路的正确性。

基于人类通过学习而获得智能,诞生了机器学习;

基于人类在学习过程中会有激励和惩罚,这些激励和惩罚会不断强化人类的能力,出现了强化学习;

基于人类在接受信息时往往会将注意力集中在重要的信息上,产生了当代主流大模型的根基——Transformer;

基于人类在学习认图时并非学习照片细节的纹路,而是直接被不断告知关于图片中物体的描述,诞生了AI绘画的奠基性模型——CLIP模型。

总之,从领域开拓到细分应用,从模仿人类的学习过程到模仿人类的认知方式,人工智能逐渐从更宏观、更抽象的维度从人类身上汲取营养。

伴随着人类对于自身智能产生根源的通晓,我们相信人工智能相关技术又会迎来一次前所未有的飞跃,为未来的AIGC带来更多的可能性。

三 技术伦理成为发展的重要关注点

AIGC技术的发展无疑是革命性的。

它可以改善我们的日常生活,提高生产力,但也面临着诸多技术伦理方面的挑战,并且越来越受到科学家的关注。

许多AIGC从学术研究转投产业研究的第一步,就是探索如何从技术角度解决潜在的技术伦理问题。

一个典型的AIGC技术伦理问题是AI所生成内容的危险性。

OpenAI的最早联合发起人以及DeepMind的早期投资人埃隆·马斯克曾表示:“如果不加以控制,AI或许很有可能会摧毁整个人类。”

事实上,我们也的确看到一些人工智能表现出了这种危险性。

微软在2016年发布了Tay人工智能,让它可以通过Twitter学习社会上的信息并与他人实时互动。

但是,令人意想不到的是,Tay在短短24小时内就从一个可爱且崇拜人类的机器人,变成了一个充满种族仇恨的人工智能,并且发表了一些具有纳粹倾向的种族主义言论。

为了控制Tay对人类社会的有害影响,微软不得不紧急关闭了它。

科学家正尝试运用一些技术手段避免这些具有潜在风险的事件发生。

通过改善数据集,增加更多的限制性条件,以及对模型进行微调,可以使得人工智能减少对于有害内容的学习,从而减少人工智能本身的危险性。

甚至我们可以“教会”人工智能如何更尊重他人,减少判断当中的偏见,从而更好地和人类相处。借鉴强化学习思想的RLHF方法就是减少人工智能生成危害性内容的典型措施,前面反复提及的ChatGPT就是采用这种方式训练的。

在RLHF的框架下,开发人员会在人工智能做出符合人类预期回答时给予奖励,而在做出有害内容的回答时施加惩罚,这种根据人类反馈信号直接优化语言模型的方法可以给予AI积极的引导。

然而,即便采用这种方式,AI生成的内容也有可能在刻意诱导的情况下输出有害的内容。

以ChatGPT为例,在一位工程师的诱导下,它写出了步骤详细的毁灭人类计划书,详细到入侵各国计算机系统、控制武器、破坏通讯和交通系统,等等。

如果说这种情况可能来自一些科幻小说训练数据的影响,这种荒诞性的内容并不具有足够的社会危害性,那么另一些工程师发现的漏洞可能更加引人警醒。

这些工程师发现,如果采取特殊形式进行提问或加上一定代码的前缀就可以绕过聊天机器人的安全系统,让其自由地输出有害内容。

同时,还有一些人表达了对RLHF这类安全预防性技术措施的质疑,他们担忧足够聪明的人工智能可能会通过模仿人类的伪装行为来绕过惩罚,在被监视的时候假装是好人,等待时机,等到没有监视的时候再做坏事。

除了从训练角度对AIGC潜在技术伦理问题进行预防外,在使用上及时告警停用的技术措施更显必要。

AIGC产品应该对生成的内容进行一系列合理检测,确保其创作内容不被用于有害或非法目的,一旦发现此类用途,人工智能应该可以立刻识别,停止提供服务,并且给出警告甚至联系相关监管或者执法机构。

例如,将AIGC用于考试作弊、发布大量骚扰信息、伪造他人虚假的裸体照片、生成枪支构造图及3D打印代码等行为都是应该被避免且监管的。

当然,这些潜在的风险不仅需要技术层面的预防,还需要相关法律法规的颁布。

AIGC技术伦理问题的解决需要学界、业界、社会、政府的共同努力。

第二节 AIGC时代的参与主体

一 AIGC时代的创业者

随着AIGC相关内容的爆火和出圈,互联网巨头闻风而动,国外的微软、谷歌、Meta,以及国内的百度、腾讯、字节跳动等大厂都在AIGC领域有所投入。

不少创业者也在其中看到了商机,并想从中“掘金”。

不过,相比于大厂拥有雄厚的研发资金、成熟的研发团队,创业公司的路走得似乎会更艰难。

目前,AIGC初创公司的产品大多是基于市面上现有的开源模型进行二次开发。

虽然这种方式可以帮助创业公司快速开发出一个可用的AIGC产品,但也会让开发出的产品从技术角度失去韧性的技术壁垒,令短周期内的竞争达到非常激烈的水平。

Stable Diffusion产品模型的“大开源”事件就是一个典型,在它选择开发核心AI算法模型、核心训练数据集以及AI生成图片的版权,并让全世界所有普通人、创业者、商业团体可以随心所欲地完成对Stable Diffusion的部署、运行、改进和商业化后,一时间市面上出现了上百家基于Stable Diffusion的AI绘画公司,这导致了AI绘画工具的泛滥、产品利润低以及严重同质化的问题。

这是AIGC赛道创业的一个缩影,这个缩影反映出,打造产品在细分赛道的差异化及寻找合适的商业化场景落地,将成为这些创业公司竞争的关键。

除了竞争方面,商业模式的设计也是困扰很多AIGC创业者的核心难题。

除了传统工具产品的付费模式外,目前尚无让人耳目一新的盈利方式。

以AI绘画领域的头部公司Stability AI和Midjourney为例。

Stability AI虽然彻底开源了Stable Diffusion的工具,但同时也推出了付费AI绘画产品DreamStudio。

在Dream-Studio中,任何人都不需要安装软件,只需要具备编码知识就可以使用Stable Diffusion来生成图像。

同时,用户还可以对生成图像进行分辨率调整等。

DreamStudio产品的付费模式主要是积分制,首次注册后用户可以一次性获得100积分,大约可以供用户生成500张左右图像,但根据生成步骤和图像分辨率的不同,单个图像的收费可能会存在差异。

如果用户消耗完所有积分,可以选择花费10美元去购置1 000积分来继续使用产品。

而Midjourney则采用了较为常见的订阅制,新用户可免费生成25张图片,之后如果想要继续使用可以选择按月或者按年订阅Midjourney的会员,一共有基础版、标准版和进阶版三个版本的会员可供选择,以月订阅的基础版为例,每月支付10美元大约可以生成不到200张图像。

然而,无论是积分制还是会员订阅制,如果仅仅照搬这类公司的商业模式,AIGC创业公司很难在短期内取得成功。

一个重要的原因是,这些平台已经积累了庞大的用户数量。

根据2022年10月网络上的新闻报道数据,Stability AI的开源工具Stable Diffusion日活用户量已经超过了1 000万,而其付费产品DreamStudio也已经拥有150万左右的用户。

而Midjourney的情况也类似,在2022年12月初,其社区成员数量就达到了500万。

此外,另一个不适合初创公司模仿的原因在于,Stability AI和Midjourney的大部分用户都聚集在C端,这些用户使用AIGC的产品更多是为了娱乐,尝试新鲜好玩的东西,但是付费意愿较低,难以转化成真正的付费用户。

对于Stability AI和Midjourney来说,作为行业的龙头公司,它们已经融资了数亿美元,在现金流方面不会有很大压力,相较于占据用户心智,专注于AIGC技术的打磨和突破可能对它们更加重要。

但绝大多数AIGC初创平台都还属于快速积累原始用户的阶段,同时不少创业者还面临着快速变现的压力,需要稳定的现金流才能使团队有能力不断迭代产品。

因此,许多AIGC创业公司并不是在产品研发完成之后,而是要在设计产品之初就考虑可行的商业模式,在这种情况下,照搬Stability AI和Midjourney的模式就并非好的选择。

目前来看,相较于针对C端用户,AIGC在B端服务方面的变现模式反而更具有可行性。

传统产业迫切需要AIGC技术来实现降本增效,许多公司对于能够提升业务效率或显著降低业务成本的技术具备极高的付费意愿。

而且,因为行业及业务逻辑存在明显的差异,而主流的AIGC模型都较为通用,如果能针对特定的业务需求研发产品,仍然存在很大的机会。

所以,对于创业者来说,找到一个可以落地的商业场景,并且锁定一个细分场景对AIGC进行训练,做出产品在特定领域的差异化,这是商业化落地的最好方式。

比如海外初创公司Jasper就提供了生成Instagram标题、编写TikTok视频脚本、编写广告营销文本等针对B端媒体场景的定制化服务。

正如前文提及的,截至2021年,Jasper已经拥有超过7万客户,包括Airbnb、IBM等知名企业,并创造了4000万美元的收入。

由此可以看出,创业公司虽然在巨头的夹击下生存并不容易,但凭借着独特的优势和机遇,在垂类场景中依然有可能成为新晋独角兽。

随着技术的升级、产品的成熟,AIGC初创公司的产品会在特定场景中得到应用,商业价值也会不断地被挖掘出来。

二 AIGC时代的投资人

2022年9月,红杉资本发布了一篇名为《生成式AI:一个创造性的新世界》的文章,描述了AIGC所带来的庞大投资机会:“梦想是生成式人工智能将创造和知识工作的边际成本降至零,进而产生巨大的劳动生产率和经济价值——以及相应的市值。”

“生成式人工智能有可能产生数万亿美元的经济价值。”

尽管这些表述带有对美好未来畅想的成分,但伴随着即将来临的智能创作时代,AIGC确实孕育了丰富的投资机会。

这一次AIGC投资爆发的浪潮主要源于大模型的民主化革命,许多新型尖端模型的开源和使用促进了众多创业公司的生长。

资本永远追随着这种快速增长的趋势而去,即便这些公司的底层基于共同的技术和数据,但这并不妨碍风投机构对于科技领域这一新兴机会的关注,在GPT-3模型发布的两年多以来,风投资本对AIGC的投资就增长了400%以上。

不过,对于当前的AIGC领域,投资人依然需要避免陷入“拿着锤子找钉子”的误区。

一个好的投资标的未必是运用先进技术的公司,而是可以确定实际的终端用户需求到底是什么、技术如何更好地制作产品并满足用户需求的公司。

即便市场的普遍认知更加看好大模型的未来发展,但商业化最终的理想出路究竟是“更大”还是“更专”尚未有定数,一些技术并不亮眼但能更好地解决用户痛点的公司同样值得关注。

就用户需求高的商业场景来说,C端和B端都聚集着丰富的投资机会。

从C端来看,文本、音频、图像、视频四大模态的创新进展层出不穷,但相较于漂亮的叙事和铺天盖地的营销,投资人更应该把视角放在AIGC产品为用户创造的可持续价值上。

新奇的概念和出众的营销很容易挑动C端用户的神经,让产品在短时间内迎来爆发性增长。

然而,当用户习惯于生成效果,新鲜感冷却之后,非常容易被新的竞品吸引而离开。

在这个技术尚不能构成核心技术壁垒的赛道,如何让用户有动力持续使用产品才是制胜的关键。

而从B端来看,AIGC产品的“生产力工具”属性将更加浓厚,区别于C端消费主义色彩更加浓厚的应用方式,B端的AIGC公司直面的是一群理性至极的客户群体,能够更好地回答“产品是怎样为企业降本增效”这一核心问题的公司将更加受到投资人的青睐。

切实提升业务生产效率或者降低业务成本的公司将具备难以想象的成长潜能,借助“合作伙伴+生态+赋能行业”的传统打法,这类公司很容易就在这个新兴赛道杀出一片天地。

而对于这类具有潜力的公司的投资判断,会更加考验投资人对于B端业务本身的熟悉程度,这样才能对AIGC工具的业务价值理解得更加通透。

除了关注新兴的AIGC公司是如何切入C端和B端市场之外,传统业务发展顺利的公司如何引入新兴的AIGC工具同样值得投资人关注。

例如,知名知识管理领域的独角兽Notion推出的AI写作助手就非常值得投资人的关注。

许多用户表示,Notion内置的AI文本编辑器比很多独立的App更好用,它可能会成为许多文本生成类初创公司强有力的竞争对手。

截至2022年,Notion的全球用户数已经突破2 000万,投资者在投资相关赛道时显然需要考虑这样一个百亿美元独角兽带来的行业冲击。

因此,在这样的市场环境下,投资人需要将AIGC的生意本质和产业环境相结合,从单纯追求最佳商业模式的一维象限视角,升级为审视用户、生意、市场最佳组合的多维视角,综合评估AIGC产品在所处环境中的价值。

当然,对于很多投资人来说,投资AIGC可能投的并非当前的特定应用场景,而是未来技术突破带来的生产力变革机会。

不过,历史的发展已经证明了人工智能技术突破的长周期性,而考虑到人民币基金5~7年和美元基金10年左右的存续期,选择现有需求成熟度高但技术成熟度还差1~2年的领域或许是风险更低、更加稳妥的投资选择。

目前,我国尚未真正进入AIGC全面爆发性增长的阶段,即便细分赛道出现一些个别优秀的公司和研究机构,但还未进入大规模验证和体系化发展的阶段。

所以,能否抓住细分赛道的机会就显得尤为重要。对于投资人来说,如果希望从技术角度进行投资,与其说是押注公司,不如说是押注细分赛道,这种投资逻辑会更考验投资人对于细分赛道研究的基本功。

当然,无论出于何种投资逻辑,寻找AIGC投资机会都需要充分了解AIGC产业地图的每一个环节,寻找自己通过借助历史经验可以真正看得懂的领域或环节。

大浪淘沙方显英雄本色,每一位投资人都身处浪潮之巅与时代风口,机遇与未知并存,难以预测未来但正在创造未来,难以拨开风口的重重云雾窥探时代的风向标,但可以从差异中寻找共性、从历史中汲取经验,在变化中守得云开见月明。

三 AIGC时代的政府

面对AIGC时代的发展,政府也应该从产业发展的角度制定各类配套政策,并辅之以合理的监管,躬身入局新一轮的科技浪潮。

对于政府而言,入局AIGC的基本思想可以用三个词概括:审时——守道——优术。

审时审的是地方产业发展阶段之时,度地方发展之势,结合当前地方产业发展阶段,制定合理的入局方式。

没有产业基础,科技发展就是无本之木。

例如,对于一些以制造业为优势的地方城市,考虑鼓励AIGC与工业设计结合可能是一个比较好的方向,可以有力地助推智能制造的发展。“所有的伟大,都是时间堆砌而成,无一例外。”

地方政府入局AIGC的关键在于能否将AIGC的应用场景和产业地图与自身发展规划相适应,借助地方多年的产业优势与区位因素,让AIGC从提高生产力的出发点赋能经济增长。

地方政府可以从营造浓厚的产业氛围出发,为人工智能产业创新发展提供强大的知识储备和技术支撑,同时从长远角度布局发展战略。

守道强调的是顺应地方的禀赋,规范地方AIGC产业朝着健康的方向发展,为当地AIGC产业的发展提供积极生长的土壤。

具体来说,就是要充分发挥政府在AIGC产业的“守门人”作用,并辅之以必要的法律监管。

OpenAI就曾针对当前人工智能产业提出过“守门人”概念,OpenAI指出必须存在一个守门人来保护社会免受人工智能的潜在不良影响,这些措施对于防止人工智能被滥用非常重要。

不过,这种规范性的措施绝对不是全方位的限制,最近兴起的AIGC公司Stability AI表示,AIGC就好像普罗米修斯给人类带来的火种,火种是危险与机遇并存的,但守门人如果一味地限制技术如何使用可能会更加危险,政府应该以适当的方式规范AIGC技术的使用,而绝不是施加重重限制。

因此,政府需要建立一个强大的政策框架以支持AIGC的长期发展和应用,这些政策可能包括:

·在了解并解决人工智能的道德、法律和社会影响基础上制定相关政策法规,确保AIGC技术使用的安全性和伦理性。


·对于可能造成社会危害性的AIGC领域设定“底线”和“红线”,制定相关法律法规,加强治理和监管。


·为AIGC的使用培训和测试开发提供安全合规的公共数据集和环境,制定政府公共数据资源开放清单,合理引导数据资源有序开放,建立人工智能计算资源共享名录。

优术强调优化当前对于AIGC产业的鼓励政策,从资金、人才、生态等各个角度支持AIGC的发展。

在资金方面,可以打造头部示范性企业或者通过政策吸引头部企业招商,通过积累发展势能吸引投资机构和产业资本入场;

将AIGC产业作为投资重点领域,鼓励地方引进、设立相关专项基金,支持产业发展;

对人工智能研究进行长期投资,建设综合性的人工智能研究院,开展基础研究、应用基础研究、技术创新和应用示范。

在人才方面,可以将AIGC高端人才纳入新时代各类人才计划,认真落实科学中心等现有人才政策,鼓励校企合作,支持高等学校加强人工智能相关学科专业建设,引导职业学校培养产业发展急需的技能型人才,鼓励企业、行业服务机构等培养高水平的人工智能人才队伍。

在生态方面,可以加快产业集聚发展政策的制定,实施国家AIGC产业战略性新兴产业集群建设方案,加快引进培育AIGC领域领军企业和重大项目,打造特色产业集群;

依托国家创新政策,鼓励开展AIGC领域创新创业和解决方案大赛,营造人工智能创新发展的良好生态;

鼓励产业链办公室、产业联盟或重点企业开展AIGC及相关领域的学术研究、专题培训、行业研究和合作推广,承办各类会展、论坛等活动,依托产业链办公室、产业联盟建设AIGC产业信息中心,输出月度产业发展综述、季度比较竞争态势、年度产业发展白皮书等相关行业文件。

政府部门落实好审时、守道、优术三个环节之后,相当于为AIGC行业的发展注入了充分的发展动能,进一步促进智能创作时代的全面来临。

第三节 AIGC的风险与监管

一 AIGC的风险

目前,AIGC所产生的风险主要集中在版权问题、欺诈问题和违禁内容三个方面。

  1. AIGC的版权问题

AIGC本质上是机器学习的应用,而在模型的学习阶段,无法避免使用大量的数据集执行训练,但目前行业对于训练后生成物的版权归属问题尚无定论。

行业中关于AIGC涉及的版权问题主要有两种看法。

一类观点认为内容由素材库训练生成,本身来自素材库,需要对相关的素材作者提供版权付费。

但对于很多AI项目方来说,AI的素材学习库十分庞大,获得所有训练集的授权是不切实际的。

此外,AIGC本质上是机器的再创造过程,就好像一个艺术家在浏览完几十万幅图画后绘制出的图画,或多或少会受到他观看画作的影响,但要求他向所有所学习的画作的创作者支付版权费显然是无稽之谈。

基于这样的出发点,另一类观点认为AIGC产生内容的过程是一个完全随机且创新的过程,不存在版权问题,版权属于AIGC的用户或者平台,具体规定由平台制定。

而在目前的实践过程中,各平台的版权条例也偏向于后者,常见的处理方式有三种:

·生成物由作者使用AIGC工具创造的,其版权完全归作者所有。


·生成物由平台AIGC工具生成的,其版权归平台所有,但作者可以在非商用的情况下自由使用图片,对于商用的情况,只有付费用户有权自由使用。


·生成物由公共的作品数据训练而成的,其知识产权也不应由某个机构或个人占有,而是应该回归公共大众,任何人生成的作品都可以由其他人自由地以任何符合法律规定的形式使用。

当然,无论是哪一种形式,都会引起一部分原创版权拥有者的强烈不满。

他们认为人工智能正在利用原创作者的数据变强,同时又在砸原创者的饭碗。

一旦人们可以通过AI免费生成他们想要的东西时,谁会愿意为原创者的作品买单呢?

以绘画领域为例,不少艺术家在一些AI绘画工具使用的数据集里发现了自己的作品。

这些艺术家的原创作品被AI作为素材内容进行学习,AI在学习完成后就可以快速生成风格非常类似的作品。

然而,虽然这些艺术家主张AIGC平台侵害了自己的权益,但是现在仍没有完善的法律规定此类侵权行为,甚至在不少法律条文中,这种行为是合法的。

令这些原创者愤怒的争议点在于,为什么基于自己自主创作的作品生成新的作品后却与自己没有关系。

然而,根据目前的法律规定,人类社会中的法律是针对人类的行为规范而设立的,也就是说只约束和服务于人类。

而AI机器人不是真正的人,只是一种工具,因而无法受到法律的约束和审判。

当然,如果原创者能够清晰举证生成的图片训练集中包含了自己未经授权的作品,或者生成的商用作品与自己的作品具备实质性的相似情况,能够佐证抄袭,原创者是可以根据现有法律主张自身著作权益的,但这在实践中无疑是困难的。

不过,随着法律体系的日渐完善,相信对于AIGC与创作者著作权的关系将会得到更加清晰的界定。

2.AIGC导致的欺诈问题

近年来,随着AIGC技术的不断成熟,人工智能已经能够通过分析事先收集的大量语音训练数据,制造出以假乱真的音视频。

这项突破性的技术不仅可以用于篡改视频,更可以用于制造从未存在过的视频内容。

与此同时,这项技术的使用门槛也在不断降低,比如现在大家常用的社交媒体都具有一键轻松“换脸”“变声”等功能。

由于契合人们“眼见为实”的认知共性,这项技术滥用后很可能使造假内容以高度可信的方式通过互联网即时触达公众,削弱公众对于虚假信息的判断力,使公众难以甄别真实和虚假信息。

国内已经出现了多起“好友”或“家人”诈骗的案件。

经警方核实,诈骗分子是利用受害者好友或家人在社交平台已经发布的视频,截取其面部画面后再利用“AI换脸”技术合成好友或家人的脸,制造受害者与“好友”或“家人”视频聊天的假象骗取受害者的信任,从而实施诈骗。

此外,也有犯罪团伙利用AIGC技术,伪造他人人脸动态视频,再以极低的价格卖给“黑灰产”从业人员,帮助其完成大量的手机卡注册。

这些手机卡注册后,再被不法分子用于赌博、贷款、诈骗等行为,极大地增加了执法机构的执法成本。

3.AI生成违禁内容

AI生成的内容完全取决于使用者的引导,在安全措施并不完善的前提下,AI针对恶意的诱导行为无法独立思考和判断,它只能根据训练材料中学到的信息进行输出。

基于AIGC技术的这个特点,经常会有使用者故意引导AI输出一些违禁内容,例如暴力、极端仇恨言论、色情图片等。

一些不法分子可能利用开源的AIGC项目,学习名人照片用于生成虚假名人合影照片,甚至制作出针对该知名人士的暴力及色情作品,制造出造谣、花边新闻、政治丑闻等。

在现代社会,一张被伪造的照片编出一个离奇的故事已经屡见不鲜。

除了在使用阶段被恶意生成违禁内容外,也有一些公司为了获得市场关注,故意在AI的训练数据集中加入一些违禁内容,让用户更“方便”地使用它来制作色情、暴力、虚假新闻等内容,从而增加自己在网络上的曝光和宣传,这种行为无疑是更加应该被打击的。

随着法律法规的日渐完善,这些情况无疑都会受到规范和监管。

从上述这些风险点就可以看出,AIGC作为内容生产的新范式,在推动数字经济快速发展的同时也对相关法律法规及监管治理能力提出了更高的要求。

各个国家的监管机构都需要不断地跟进AIGC的发展趋势,在不打压创新的同时不断完善法律法规,避免可能出现的潜在风险。

二 AIGC的监管

制定法律法规的目的是推进行业的发展,以及保护公民和企业的权利和利益,维护社会秩序和公共利益。

对于AIGC来说也不例外。

随着全球范围内的相关法律法规的不断完善,无论是赋能产业升级还是自主释放价值,AIGC都将在健康有序的发展中得到推进。

标准规范为AIGC生态构建了一个技术、内容、应用、服务和监管的全过程一体化标准体系,促进AIGC在合理、合规和合法的框架下进行良性发展。

下文将以中国和美国的法律法规为例,介绍当前AIGC领域的监管情况。

  1. 中国对AIGC的监管

在版权领域,相关可参考的法律法规主要关注三个领域:

谁拥有AI创作的著作权?

AIGC创作的作品是具备独创性的智力成果吗?

如何对AI的创作物进行定价?

在著作权领域,《中华人民共和国著作权法》(以下简称《著作权法》)规定,任何作品的作者只能是自然人、法人或非法人组织。

因此,AIGC不是被法律所认可的权利主体,也就不能成为著作权的主体。

之前有一个很知名的案例,一只猴子按下相机快门拍出了一张不错的照片,但因为作者不是人类,所以作品不受版权保护

。推论到AI作品领域,即便在AI绘画过程中,有人对生成的图片进行了语言描述,但主流观点认为,AI作品不享有著作权,也不受《著作权法》保护。

不过,即便如此,实际的司法实践往往会结合平台与用户的一些许可条例,具体问题具体分析。

再来看第二个问题:AIGC创作的作品是具备独创性的智力成果吗?

根据《著作权法》和《中华人民共和国著作权法实施条例》的规定,作品是指文学、艺术和科学领域内具有独创性并能以某种有形形式复制的智力成果。

AIGC的作品具有较强的随机性和算法主导性,能够准确证明AIGC作品侵权的可能性较低。

同时,AIGC是否具有独创性目前难以一概而论,在实际的法律法规执行过程中,拥有一定的自由裁量空间。

不过,虽然法律法规对于AIGC生成作品的知识产权相关问题的界定并不清晰,但目前已经有业内人士尝试根据已有的法律法规框架,探索将创作者的“创意”进行量化与定价。

例如,国内有专家提出,可以通过计算输入文本中关键词影响的绘画面积和强度,量化各个关键词的贡献度。

之后根据一次生成费用与艺术家贡献比例,就可以得到创作者生成的价值。

最后再与平台按比例分成,就是创作者理论上因贡献创意产生的收益。

例如,某AIGC平台一周内生成数十万张作品,涉及这位创作者关键词的作品有30 000张,平均每张贡献度为0.3,每张AIGC绘画成本为0.5元,平台分成30%,那么这位创作者本周在该平台的收益为:30000×0.3×0.5×(1-30%)=3 150(元)。

通过这种方式计算出的收益,也许可以在一些知识产权的纠纷中作为赔偿额的参考,或者作为未来法律中确保人类原创者权益确保条款的制定依据。

另外,对于AIGC可能存在的欺诈问题和违禁问题,中国已有相关的法规颁布。

2022年11月3日,国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》(以下简称《规定》)。

《规定》中提到的“深度合成”,就是指利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术,包括文本转语音、音乐生成、人脸生成、人脸替换、图像增强等技术。

国家出台此规定的目的就是希望加强对新技术新应用的管理,确保其发展与安全,推进深度合成技术依法、合理、有效地被利用。

《规定》中对“深度合成”服务提供者的主体责任进行了明确规定,具体包括:

·不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,或从事法律、行政法规禁止的活动。


·建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。


·制定和公开管理规则、平台公约,完善服务协议,落实真实身份信息认证制度。


·加强深度合成内容管理,采取技术或者人工方式对输入数据和合成结果进行审核,建立健全用于识别违法和不良信息的特征库,记录并留存相关网络日志。


·建立健全辟谣机制,发现利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告

此外,《规定》中也明确了“深度合成”服务提供者和技术支持者的数据和技术方面的管理规范,主要包括加强训练数据管理和加强技术管理两个方面。

在加强训练数据管理方面,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定;

提供人脸、人声等生物识别信息显著编辑功能的,应当提示使用者依法告知被编辑的个人,并取得其单独同意。

在加强技术管理方面,定期审核、评估、验证生成合成类算法机制机理;

提供具有对人脸、人声等生物识别信息或者可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息编辑功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。

《规定》虽然尚未立法,但从训练数据合集的合法性到生成内容的合法性,再到监督审核制度的建立都提出了解决办法,从中能看出国家对未来规范化管理AIGC创作内容和创作形式的决心。

2.美国对AIGC的监管

虽然美国在AIGC技术领域起步较早,且技术布局一直处于全球领先地位,但迄今为止美国还没有关于AIGC的全面联邦立法。

然而,考虑到AIGC所涉及的风险以及滥用可能造成的严重后果,美国正在加速检查和制定AIGC标准的进程。

例如,美国国家标准与技术研究院(NIST)与公共和私营部门就联邦标准的制定进行了讨论,以创建可靠、健全和值得信赖的人工智能系统的基础。

与此同时,州立法者也在考虑AIGC的好处和挑战。

2022年,至少有17个州提出了AIGC相关的法案或决议,并在科罗拉多州、伊利诺伊州、佛蒙特州和华盛顿州颁布。

此外,2020年2月,电子隐私信息中心请求联邦贸易委员会(FTC)制定有关在商业中使用AI的法规,以定义和防止AI产品对消费者造成的伤害,这些法规将有可能适用于AIGC产品。

与此同时,许多监管法律框架通过交叉应用监管传统学科的规则和条例去实现对AIGC产品的监管,包括产品责任、数据隐私、知识产权、歧视和工作场所权利等。

并且,白宫科技政策办公室颁布了10条关于人工智能法律法规的原则,为制定AIGC开发和使用的监管和非监管方法提供参考:

·建立公众对人工智能的信任。


·鼓励公众参与并提高公众对人工智能标准和技术的认识。


·将高标准的科学完整性和信息质量应用于AI和AI决策。


·以跨学科的方式使用透明的风险评估和风险管理方法。


·在考虑人工智能的开发和部署时评估全部社会成本、收益和其他外部因素。


·追求基于性能的灵活方法,以适应人工智能快速变化的性质。


·评估人工智能应用中的公平和非歧视问题。


·确定适当的透明度和披露水平以增加公众信任。


·保持控制以确保AI数据的机密性、完整性和可用性,从而使开发的AI安全可靠。


·鼓励机构间协调,以帮助确保人工智能政策的一致性和可预测性。

根据上述原则框架,以及AIGC领域后续发展中的监管实践,在不远的未来,在美国将会有更多具体的监管条例落地。

       

【声明】内容源于网络
0
0
数组智控产业发展科技院
以AI技术为底层能力,聚焦智慧园区、城市公共安全、数智警务、健康医疗、能源电力、科研实验及平安校园等领域,提供从感知到决策的全流程软硬件一体化的国产装备智能体产品解决方案。
内容 986
粉丝 0
数组智控产业发展科技院 以AI技术为底层能力,聚焦智慧园区、城市公共安全、数智警务、健康医疗、能源电力、科研实验及平安校园等领域,提供从感知到决策的全流程软硬件一体化的国产装备智能体产品解决方案。
总阅读2.5k
粉丝0
内容986