大数跨境

SIICFM Insights |《智能科技月报》大模型离B端落地还有多远(2023年5月,第45期)

SIICFM Insights |《智能科技月报》大模型离B端落地还有多远(2023年5月,第45期) 上实资本科技基金
2023-05-31
4

概述

国内,从大厂到新创,纷纷下场试水,几个月过去,已经有了不少大模型产品“交卷”受评,颇有“乱花渐欲迷人眼”的架势。看客只识AI大模型百花齐放,但除了一场热闹以外,却也开始有人问出了这个问题:“AI大模型这么厉害,但它有啥用呢?”诚然,市场上不少公布的大模型,还并未开发到完全程度——甚至距离“可用”、“好用”还差着一些距离。

此外,从上世纪五十年代至今,国内人工智能经历了几次潮起潮落。每一次潮起,往往都因为更“像人”,而每一次潮落,更多是因为难以在产业端落地而收尾。大模型不是光靠兴奋就可以的,要找到这件事情对产业,对行业,对企业经营的价值。

而面对这一波浪潮,不少企业已经率先开展行动,将大模型应用到自身业务中。不过,紧接着难题也随之而来,不同厂商之间的大模型,到底应该如何选?怎么评判各家做大模型的实力?

有一种观点认为,我们从 OpenAI 和谷歌 Bard 看到的通用人工智能功能的涌现,与早期互联网普遍可用或云基础设施服务可用的情况类似,但是它还没有像提到的那样,为数亿工作者的普遍使用做好准备。


目 录 

一、大模型到生产力的必经之路

二、To B大模型与企业软件

三、大模型的算力与落地

四、人工智能并不很快取代人类工作

注:本文仅提供观点概述,原文请点击链接跳转查看。

一、大模型到生产力的必经之路

(一)理解&记忆:大模型生产力的分水岭

  • 模型的理解能力,根植于对自然语言的处理能力,能够清晰地辨别语义,尤其是一些根植于本地语言语境中的俗语、幽默,对于理解用户想要什么,进而完成文本生成和创作,至关重要。
    而模型的记忆能力——也就是多轮对话能力——越强,使用者就能更详细地对需求进行描述,进而利用 AI 完成更加复杂的工作任务。
    这是大模型比拼中最“硬”的两个科目,也是大模型提供生产力的关键保证。
    不仅如此,要大模型能够真正帮人“干活”,记忆和理解能力,都要满足更高的要求。
    但无论是“理解”还是“记忆”,都是大模型在当下的能力提升的攻关难点。
    一方面是市场的巨大痛点,一方面是技术上难攻不落的“高墙”,这对矛盾不解决,AI 的生产力就始终面临着一个艰难的瓶颈。
  • 理解能力和记忆能力,称得上是大模型产品在生产力上的分水岭——在深度理解用户需求的基础上,能够实时地完成连续对话,能越过这道坎,AI 才能开始为用户提供生产力的保证。

(二)场景优化&模型鲁棒性:好用=可用+可靠

  • 首先是数据需要“保质保量”,一方面数据要足量,支撑模型训练的要求;另一方面,数据的质量也必须够高,否则训练出来的模型,反而容易被不良数据“带跑偏”,甚至让训练起到反效果。
  • 其次,是模型的鲁棒性——即,模型在发生异常情况,或面对不良数据时,自身的“抵抗力”。鲁棒性越强的模型,自身的稳定性和有效性就越不容易受到内外的不良影响,也就自然更加“可靠”,进而能在更广泛的场景中,为使用者提供生产力提升。

(三)千亿模型:只有“一个”或许不不够

  • 在业界的普遍认识中,500-600亿规模的训练参数,是预训练大模型产生涌现现象的门槛。而参数规模越大,一般认为,模型的能力也就越强。
  • 千亿参数,目前已经成了大模型的“标配”,时下不少大模型产品,都把自己叫做“千亿模型”,以参数量见模型实力。
点击这里阅读原文 
要成为「生产力」,大模型还得跨过哪些「坎」?



二、To B大模型与企业软件

(一)把企业数据彻底用起来

  • 现在大模型的出现,尤其是AIGS(以生成式AI重构企业软件)这件事情,有机会把B端企业软件改造成“让员工与系统持续对话的新型交互范式”。
  • 当然,从企业最关心的成本角度,相较于传统开发方式,AIGS的界面通常是简洁的对话框形式,而成本压力通常被下放到大模型端。因此,企业端的定制化开发成本会大幅下降,但开发效率却能够从月级别提速到天级别。与之而来的是,业务的不停迭代也不用非得让员工延用早已过时的系统,以至于影响业务开展效率。
  • 从应用层面出发,可数字化的场景数量也会有很大的提升。胡时伟告诉雷峰网,过去第四范式构建一个模型只能在一个场景应用,譬如搜索引擎算法只适用于搜索,这就意味着开发模型要严格计算投入产出比。

(二)从AIGS+CoT中,看企业管理和组织的变革

  • AIGS不会给优秀员工添加负担,还会变成他/她的助理。用户在不断调用大模型能力的时候,自身的行为链会被大模型记录下来,然后再结合数据与行为去做标注,形成在垂直领域的任务拆分及推理能力。换句话说,优秀员工把解决问题的正确逻辑赋予了系统,而差一点的员工使用对话框时,系统便可以引导他的行为。
    有了AIGS,总经理可以在对话框中直接提出问题——如果你对某一项数据有更深刻的疑问,而对话框接收指令后,会帮你执行并及时提供反馈。企业的管理活动会发生根本的变化,真正做到数据驱动、系统驱动,而不是“我看数据,我来决策”。
    基于范式的大模型能力底座,企业软件的合作伙伴可以放手深耕自己所在的领域——不断学习某个垂直领域的数据,当在一个领域里面钻得足够深,学习到足够多的数据和攻略,就能形成所在领域的思维链。当思维链复杂度到一定程度后,该软件就能自动执行越来越复杂的功能,最终形成壁垒。
点击这里阅读原文 
To B大模型,一场重塑企业软件的大模型革命
三、大模型的算力与落地

(一)市场风向:从「迷算力」到关注「综合体验」

  • 事实上,“得算力者得大模型”这个观点,存在一定片面性。
    GPU卡数量越多,并不意味着大模型的表现就越优秀、企业使用大模型的效果就越好。厂商拥有上千、上万张GPU卡,除了“买不起”,还会有“用不好”的问题,如此大规模的集群去做训练,一旦出现bug就很难调整,这对厂商的整体调优服务能力、端到端成本的控制能力,都是一种考验。
  • 在大模型风起之初,企业判断和选择大模型厂商时,算力因素很多时候会被排在第一位,但大模型真正的使用效果和综合体验,是来自于算力、框架、模型、应用构筑的四层架构,相互配合所产生的“化学反应”。

(二)需求解码:低门槛、高效率、强安全

  • “文心千帆”结合不同企业需求,提供公有云和私有云两种部署方式,公有云部署提供推理、微调和托管三类交付模式,而私有云部署提供软件授权、软硬一体、租赁服务三种交付模式。
    这些不同的交付模式,可满足不同企业的需求。于许多企业而言,当前公司内部资深AI人才储备并没有那么充足,再加上近期通用人工智能的火爆,AI人才更是难招,许多大厂是直接重金开卷,招兵买马。
    在这种背景下,这些企业在选择大模型开发平台上,会重点关注大模型开发是否低门槛、高效率。
  • 除低门槛、高效率外,能否兼容各类大模型的开发与应用也是企业非常关心的问题。
    当前大模型赛道并未发展到一家独大的阶段,开源社区也十分活跃,再加上在To B领域,客户的选型决策有时候不只是看技术指标,而是要考虑客情、服务等等,企业往往有多样化的选型需求。
    因此,大模型开发平台最好要能适应不同的模型。

(三)产品落地:初结果实,想象空间还在未来

  • 在金融业,AI已经优化了不少从业者如投研工作者的工作流。
    过去研究人员写一份投研报告,需要在数据终端查询研报,从搜索引擎了解新闻资讯,再利用办公软件处理分析、撰写,整个流程复杂且分散。
    但升级后的投研助手产品可直接以对话形式,完成信息归集、观点辅助生成、观点写作、投资决策管理全流程,让研究员的工作重心转移到附加值更高的研究逻辑优化上,显著提升投研工作效率,实现专家经验资产化沉淀。
  • 300家产业里的生态伙伴和百度智能云探索大模型在真实场景里的落地,涵盖了工业、金融、政务、运营商、教育等行业。例如用友,将自身能力与文心一言相结合,形成B端企业管理软件系统智能助手,服务于智能知识分析,财报分析,数据报表分析实践等企业高频的需求和场景。
    在电信行业国产中间件市场占有率最高的宝兰德,也在测试中将自身的智能运维机器人与文心一言融合,提高了运维效率和自动化智能化程度,可以实现智能化故障诊断,以及智能解决方案推荐。
  • 大模型与产业相结合,所迸发的想象力远远不止于此。随着时间推移,毫无疑问将会有更多的企业迎接大模型,为业务带来新的生产力。
点击这里阅读原文 
大模型的AB面:厂商讲算力,企业要落地
四、人工智能并不很快取代人类工作
(一)即使研究人员也无法跟上 AI 创新的步伐
  • Augment 公司 AI 负责人 Matthew Kirk:“我认为 AI 行业正在发生的事情与互联网早期发生的事情类似。当时的互联网各种观点非常混乱,没有标准。人类需要时间和合作来确定人们遵循的标准。即使是像测量时间这样平凡的事情也非常复杂。”

  • 标准化是人工智能发展的痛点。用于训练模型和微调结果的方法是保密的,这使得有关它们是如何运作这一基本问题难以解答。

    OpenAI 一直在吹捧 GPT-4 通过众多标准化测试的能力 —— 但模型是真正理解了测试,还是仅仅只是训练重现正确答案呢?

    对于它能够处理新奇任务的能力,这又意味着什么呢?研究人员似乎无法就此答案达成一致,也无法就可能用于得出结论的方法达成一致。

(二)和人类一样,AI 也不会免费工作
  • 大多数基于生成式 AI 构建的服务都会对每月生成的内容量设有一个固定的上限。这些专业服务费用对于企业来说可能会增加成本,从而拖慢人们工作任务智能自动化的步伐。即使是拥有大量资源的 OpenAI,也会根据当前的负载限制 ChatGPT 的付费用户:截至本文撰写时,它所设置的上限是每 3 小时 25 次 GPT-4 查询。因而,对于任何想要依赖 ChatGPT 工作的人来说,这都是一个巨大问题。
(三)训练使用 AI 本身就是一项工作
  • 计算机革命显然就是如此:尽管许多人需要训练才能使用 Word 和 Excel 工具,但很少有人会提出打字机或图表纸可以作为更好的替代。正如未来生命研究所的信中所担忧的那样,「我们用自动化取代所有工作,包括令人满意的工作」。虽然这样的未来至少还需要半年多的时间,但人工智能革命现在正在拉开帷幕,而且从今天起的十年里,人工智能革命的画卷将会不断展开。
点击这里阅读原文 
ChatGPT等不会很快接管人类工作,易出错,AI也不会免费打工


免责声明:本文版权归原作者、原网站所有,感谢原作者辛苦创作,如有侵权,请及时告知,我们将在第一时间核实并处理。


【声明】内容源于网络
0
0
上实资本科技基金
创新绿色未来
内容 747
粉丝 0
上实资本科技基金 创新绿色未来
总阅读1.9k
粉丝0
内容747