大数跨境
0
0

【人工智能】2025 年 AI 的 10 个预测

【人工智能】2025 年 AI 的 10 个预测 七元宇宙
2024-12-23
0
导读:这将明确一点:在人类面临全能人工智能的生存威胁之前,我们需要接受一个更为平凡的现实:我们现在与另一种形式的智能共享世界,这些智能有时可能是任性的、不可预测的和欺骗性的——就像我们一样。

1. Meta 将开始对其 Llama 模型的使用收费。

Meta是开放式AI领域的全球标杆。这是一个极具吸引力的企业战略案例研究。尽管OpenAIGoogle等竞争对手一直对其前沿模型保持封闭并收取使用费,但Meta却选择免费提供其最先进的Llama模型。

因此,当Meta明年开始对使用Llama模型的公司收费时,预计会让很多人感到惊讶。

需要澄清的是:我们并非预测Meta会将Llama完全封闭,也并非预测所有使用Llama模型的用户都需要付费。

相反,我们预测Meta将收紧Llama的开源许可条款,使得在达到一定规模以上的商业环境中使用Llama的公司需要开始支付费用才能访问该模型。

从技术上讲,Meta已经实现了这一功能的一个限制性版本。该公司不允许最大的公司(如云超大规模企业和其他每月活跃用户超过7亿的公司)无限制地使用其Llama模型。

早在2023年,Meta首席执行官马克·扎克伯格就曾表示:“如果你是微软、亚马逊或谷歌这样的公司,而且你基本上是在转售[Llama],那么我们认为我们应该从中分得一部分收入。我不认为这会在短期内带来大量收入,但从长远来看,希望这能有所回报。”

明年,Meta将大幅扩大需要为使用Llama付费的组织范围,纳入更多大型和中型企业。

Meta为何会做出这样的战略转变?

保持与LLM前沿同步的步伐成本极高。如果Meta希望Llama能够与OpenAI、Anthropic和其他公司的最新前沿模型保持同步或接近,那么它每年需要投入数十亿美元的资金。

Meta是全球最大、资金最雄厚的公司之一。但它也是一家上市公司,最终需要对股东负责。随着构建前沿模型的成本飙升,Meta投入如此巨额的资金来训练下一代Llama模型,却不期望获得任何回报,这种做法变得越来越不切实际。

爱好者、学者、个人开发者和初创公司在明年仍可免费使用Llama模型。但2025年将是Meta认真考虑将Llama货币化的一年。

2. 缩放定律将在文本以外的领域被发现和利用——特别是在机器人技术和生物学领域。

近几周来,人工智能领域中没有哪个话题比缩放定律引发了更多讨论——以及缩放定律是否即将终结的问题。

缩放定律最初在2020年的OpenAI论文中被提出,其核心理念颇为直观:在训练AI模型的过程中,随着模型参数数量、训练数据量以及计算资源的增加,模型的性能会以一种可靠且可预测的方式得到提升(从技术上讲,即测试损失会降低)。缩放定律正是GPT-2到GPT-3再到GPT-4性能惊人飞跃的幕后推手。

与摩尔定律相似,缩放定律其实并非严格的科学定律,而更多地是一种经验观察。过去一个月里,一系列报告揭示了一个现象:主要的人工智能实验室发现,继续扩大大型语言模型的规模所带来的收益正在递减。这或许能解释为何OpenAI的GPT-5发布日期一再推迟。

对于缩放定律停滞不前的常见反驳观点是,测试时计算能力的引入为扩展开辟了一个全新的维度。也就是说,与训练期间大规模扩展计算能力不同,OpenAI的o3等新推理模型能够在推理期间实现计算能力的扩展,通过让模型“思考更长时间”来解锁新的AI功能。

这一点确实至关重要。测试时计算能力确实为扩展和AI性能的提升开辟了一条令人振奋的新途径。

然而,关于缩放定律还有另一点更为重要,但在当前讨论中却常被忽视。几乎所有关于缩放定律的讨论——从2020年的原始论文,到今日对测试时计算的关注——都聚焦于语言领域。但语言并非唯一重要的数据模式。

想象一下机器人技术、生物学、世界模型或网络智能体等领域。在这些数据模式中,缩放定律远未达到饱和状态;相反,它们才刚刚开始展现潜力。事实上,迄今为止,这些领域中关于缩放定律存在性的确凿证据甚至尚未公布。

那些为这些新兴数据模式构建基础模型的初创公司(如生物学领域的EvolutionaryScale、机器人技术领域的Physical Intelligence、世界模型领域的World Labs)正努力识别和驾驭这些领域的缩放定律,就像OpenAI在2020年代上半叶成功驾驭语言模型(LLM)的缩放定律一样。明年,我们有望在这些领域见证巨大的进步。

别轻信那些流言蜚语。缩放定律不会消失。到2025年,它们仍将像以往一样重要。但缩放定律的活跃领域将从LLM预训练扩展到其他模式。

3. 唐纳德·特朗普和伊隆·马斯克将发生激烈争吵。这将对人工智能世界产生重大影响。

美国新政府将推行一系列关于人工智能的政策与战略调整。为了预判特朗普总统任期内人工智能领域的发展趋势,鉴于马斯克目前在人工智能领域的核心地位,观察这位候任总统与埃隆·马斯克之间的紧密关系或许是一个明智的选择。

我们可以设想,在特朗普政府的引领下,马斯克可能会通过多种途径对人工智能的相关发展产生深远影响。考虑到马斯克与OpenAI之间存在着显著的敌意,新政府在处理与行业的关系、制定人工智能法规以及授予政府合同等方面,可能会对OpenAI持不太友好的态度(这正是OpenAI目前所担忧的实际风险)。另一方面,特朗普政府可能会优先考虑支持马斯克自己的企业:比如简化繁琐程序,助力xAI建立数据中心并在前沿模型竞争中占据领先地位;迅速批准特斯拉部署自动驾驶出租车车队等。

更为关键的是,与特朗普咨询的其他许多技术领袖不同,埃隆·马斯克高度重视人工智能的安全隐患,因此他主张对人工智能实施严格的监管。他支持加州颇受争议的SB 1047法案,该法案旨在对人工智能开发者实施有意义的限制。因此,马斯克的影响力可能导致美国对人工智能的监管环境变得更加严苛。

然而,所有这些推测都存在一个前提问题:唐纳德·特朗普和伊隆·马斯克的亲密关系终将难以维持。

正如我们在特朗普第一届政府期间反复所见,特朗普盟友的平均任期极短,即便是那些看似最坚定的盟友,如杰夫·塞申斯、雷克斯·蒂勒森、詹姆斯·马蒂斯、约翰·博尔顿和史蒂夫·班农(当然,还有谁能忘记安东尼·斯卡拉穆奇在白宫的短暂十天?)等,也未能幸免。特朗普第一届政府的副手中,至今对他忠心耿耿者寥寥无几。

唐纳德·特朗普和伊隆·马斯克都是性格复杂、反复无常且难以捉摸的人。他们合作起来困难重重,令人心力交瘁。到目前为止,他们新建立的友谊虽然看似互惠互利,但仍处于蜜月期。我们预测,在2025年之前,这种关系很可能会恶化。

这对人工智能领域意味着什么?

对OpenAI而言,这或许是个好消息;但对特斯拉的股东来说,却是个坏消息。对于那些关注人工智能安全的人来说,这将是一个令人失望的预测,因为这几乎可以肯定,在特朗普的领导下,美国政府对人工智能监管将采取放任自流的态度。

4. Web 智能体将成为主流,成为消费者 AI 领域的下一个主要杀手级应用。

想象一下,在一个你永远不需要直接与网络互动的世界里。每当你需要管理订阅、支付账单、安排医生预约、在亚马逊上订购东西、预订餐厅或完成任何其他繁琐的在线任务时,你都可以简单地指示人工智能助手代你完成这些任务。

“网络智能体”这个概念已经存在多年了。如果这样的产品真的存在并且有效,那么毫无疑问它将是一款非常成功的产品。然而,目前市场上还没有一款通用的网络能体

像 Adept 这样的初创公司——凭借一支优秀的创始团队筹集了数亿美元,但却未能实现其愿景——已经成为这一类别的警示故事。

明年将是网络智能体最终开始发挥良好作用并进入主流的一年。语言和视觉基础模型的持续进步,加上新推理模型和推理时间计算带来的“系统 2 思维”能力的最新突破,将意味着网络能体将准备好迎接黄金时段。

(换句话说,Adept 的想法是正确的,只是为时过早。在创业公司中,就像在生活中的许多事情一样,时机就是一切。)

Web 能体将找到各种有价值的企业用例,但我们认为,Web 能体近期最大的市场机会将来自消费者。尽管最近人工智能热潮四起,但除了 ChatGPT 之外,很少有 AI 原生应用取得突破,成为主流消费者的成功案例。Web 能体将改变这一现状,成为消费者 AI 领域下一个真正的“杀手级应用”。

5. 将人工智能数据中心引入太空的多项严肃努力将初见成效。

2023年,阻碍AI增长的关键物理资源是GPU芯片。2024年,它将成为电力和数据中心。

在人们争相建设更多人工智能数据中心的过程中,2024 年很少有故事情节比人工智能巨大且快速增长的能源需求更受关注。由于人工智能的蓬勃发展,全球数据中心的电力需求在数十年内一直保持平稳,预计在 2023 年至 2026 年期间将翻一番。在美国,到 2030 年,数据中心预计将消耗所有电力的近 10%,高于 2022 年的 3%。

人工智能数据中心的能源需求正在猛增。我们的能源系统尚未做好准备。

当今的能源系统根本无法应对人工智能工作负载带来的巨大需求激增。这两个价值数万亿美元的系统——我们的能源网和我们的计算基础设施——之间的历史性碰撞即将来临。

今年,核能作为解决这一难题的可能方案而势头强劲。核能在许多方面都是人工智能的理想能源:它零碳排放、全天候可用且几乎取之不尽。但现实情况是,考虑到漫长的研究、项目开发和监管时间,新核能要到 2030 年代才能解决这个问题。这适用于传统的核裂变发电厂、下一代“小型模块化反应堆”(SMR),当然也适用于核聚变发电厂。

明年,一个应对这一挑战的非常规新想法将会出现并吸引真正的资源:将人工智能数据中心放到太空中。

太空中的人工智能数据中心——乍一看,这听起来像是一个关于风险投资公司试图将太多创业流行语结合起来的糟糕笑话。但实际上可能有些道理。

在地球上快速建造更多数据中心的最大瓶颈是获取必要的电力。轨道上的计算集群可以全天候享受免费、无限、零碳能源:太空中永远有太阳在照耀。

将计算置于太空的另一个重要优势是它解决了冷却问题。构建更强大的 AI 数据中心的最大工程障碍之一是,在密闭空间中同时运行许多 GPU 会变得非常热,高温可能会损坏或摧毁计算设备。数据中心开发人员正在采用昂贵的、未经证实的方法(如液浸冷却)来尝试解决此问题。但太空极冷;计算活动产生的任何热量都会立即无害地消散。

当然,还有许多实际挑战有待解决。一个明显的问题是,能否以及如何以经济高效的方式在轨道和地球之间传输大量数据。这是一个悬而未决的问题,但随着使用激光和其他高带宽光通信技术开展有希望的工作,它可能会得到解决。

Y Combinator 旗下的一家热门初创公司 Lumen Orbit最近筹集了1100 万美元来实现这一愿景:在太空中建立一个多千兆瓦的数据中心网络来训练人工智能模型。

正如 Lumen 首席执行官 Philip Johnston 所说:“你不必支付 1.4 亿美元的电力费用,只需支付 1000 万美元用于发射和太阳能。”

Lumen 不会是唯一一家在 2025 年认真对待这一概念的组织。

其他初创企业竞争对手将会出现。如果看到一家或多家云超大规模企业也沿着这条路线开展探索性努力,请不要感到惊讶。亚马逊已经拥有通过Kuiper 项目将资产送入轨道的丰富经验;谷歌长期以来一直为此类登月计划提供资金;甚至微软对太空经济也不陌生。埃隆·马斯克的 SpaceX 也可能在这里有所作为。

6. 人工智能系统将通过“语音图灵测试”。

图灵测试是人工智能性能最古老、最著名的基准之一。

为了“通过”图灵测试,人工智能系统必须能够通过书面文本进行交流,使得普通人无法分辨自己是在与人工智能互动还是在与另一个人互动。

由于大型语言模型近年来取得的巨大进步,图灵测试已成为 2020 年代已解决的问题。

但书面文字并不是人类交流的唯一方式。

随着人工智能日益多模式化,我们可以想象图灵测试一个新的、更具挑战性的版本——“语音图灵测试”——其中人工智能系统必须能够通过语音与人类互动,并且互动技巧和流畅度必须与人类说话者难以区分。

语音图灵测试对于当今的人工智能系统来说仍然遥不可及。解决这个问题需要更有意义的技术进步。

延迟(人类说话和人工智能响应之间的滞后)必须减少到接近零,才能达到与另一个人交谈的体验。语音人工智能系统必须能够更好地实时处理模棱两可的输入或误解——例如,当它们在说话中途被打断时。它们必须能够进行长时间、多轮、开放式的对话,同时记住讨论的早期部分。至关重要的是,语音人工智能能体必须学会更好地理解语音中的非语言信号——例如,如果人类说话者听起来很恼火、很兴奋或很讽刺,这意味着什么——并在自己的语音中产生这些非语言提示。

2024 年即将结束,语音 AI 正处于一个激动人心的转折点,这得益于语音对语音模型出现等基础性突破。如今,无论是技术还是商业,很少有 AI 领域能比语音 AI 发展得更快。预计语音 AI 将在 2025 年实现飞跃。

7.在构建能够自主构建更好的人工智能系统方面将取得重大进展。

递归式自我改进人工智能的概念几十年来一直是人工智能圈内经常讨论的话题。

例如,早在 1965 年,阿兰·图灵的亲密合作者 IJ Good 写道:

“让我们将超级智能机器定义为能够远远超越任何人的所有智力活动的机器,无论多么聪明。由于机器设计是这些智力活动之一,超级智能机器可以设计出更好的机器;毫无疑问,这将带来‘智能爆炸’,而人类的智能将远远落后。”

人工智能能够发明更好的人工智能,这是一个令人着迷的概念。但即使在今天,它仍然带有一丝科幻气息。

然而,尽管这一概念尚未得到广泛认可,但实际上它已经开始变得更加现实。人工智能科学前沿的研究人员已经开始在构建能够自行构建更好的人工智能系统的人工智能系统方面取得切实进展。

我们预测,明年这类研究将会成为主流。

到目前为止,这类研究最引人注目的公开例子是 Sakana 的《AI 科学家》。《AI 科学家》于 8 月发表,它代表了一个令人信服的概念证明,即 AI 系统确实可以完全自主地开展 AI 研究。

Sakana 的 AI Scientist 负责执行人工智能研究的整个生命周期:阅读现有文献、提出新颖的研究想法、设计实验来测试这些想法、进行这些实验、撰写研究论文来报告其研究结果,然后对其工作进行同行评审。它完全自主地完成这些工作,无需人工干预。AI Scientist 撰写的一些研究论文可以在线阅读。

有传言称 OpenAI、Anthropic 和其他研究实验室正在为“自动化 AI 研究人员”这一想法投入资源,尽管目前尚未得到公开承认。

随着人们越来越广泛地认识到人工智能研究自动化实际上正在成为一种现实的可能性,预计到 2025 年该领域将会出现更多的讨论、进展和创业活动。

不过,最有意义的里程碑是一篇完全由人工智能能体撰写的研究论文首次被顶级人工智能会议接受。(由于论文是盲审的,会议审稿人直到论文被接受后才会知道论文是由人工智能撰写的。)明年,如果人工智能的研究成果被 NeurIPS、CVPR 或 ICML 接受,请不要感到惊讶。这将是人工智能领域一个令人着迷、充满争议和历史性的时刻。

8. OpenAI、Anthropic 和其他前沿实验室将开始“向上移动”,将其战略重点转向构建应用程序。

建立前沿模型是一件困难的事情。

其资本密集程度令人咋舌。前沿模型实验室所耗费的资金规模达到了前所未有的高度。OpenAI 不久前筹集了创纪录的65亿美元资金——而且很可能不久后还得再次筹集更多资金。Anthropic、xAI 等其他公司的情况也大同小异。

转换成本低,客户忠诚度也不高。人工智能应用程序通常被设计为与模型无关,来自不同供应商的模型可以根据不断变化的成本和性能比较,实现无缝交换。

随着Meta的Llama、阿里巴巴的Qwen等先进开源模型的出现,技术商品化的威胁也日益逼近。

OpenAI、Anthropic 等 AI 行业领军企业不能也不会停止对尖端模型的投资。但明年,为了开发利润率更高、差异化更强、用户粘性更大的业务线,预计前沿实验室将大力推出更多自家的应用程序和产品。

当然,前沿实验室已经有一个非常成功的应用案例:ChatGPT。

新的一年里,我们有望在人工智能实验室看到哪些其他类型的第一方应用程序呢?

一个显而易见的答案是更复杂、功能更强大的搜索应用程序。OpenAI 的SearchGPT就是一个预示着未来发展的例子。

编程是另一个显而易见的领域。同样,随着OpenAI的画布产品于10月首次亮相,初步的产品化工作已经在进行中。

OpenAI 或 Anthropic 会在2025年推出企业搜索产品吗?或者客户服务产品?法律AI或销售AI产品又如何呢?在消费者领域,可以想象“个人助理”网络智能体产品、旅行规划应用程序或音乐生成应用程序等。

观察前沿实验室向上扩展到应用层最令人着迷的部分之一是,这一举措将使他们与许多最重要的客户直接展开竞争:在搜索领域与Perplexity竞争,在编程领域与Cursor竞争,在客户服务领域与Sierra竞争,在法律AI领域与Harvey竞争,在销售领域与Clay竞争,等等。

9. 随着 Klarna 为 2025 年 IPO 做准备,该公司关于其使用人工智能的说法将受到审查,并被证明是夸大其词。

Klarna 是一家总部位于瑞典的“先买后付”提供商,自 2005 年成立以来已筹集了近 50 亿美元的风险投资。

或许没有哪家公司对其人工智能的使用做出过比 Klarna 更夸张的宣告。

就在几天前,Klarna的首席执行官塞巴斯蒂安·西米亚特科夫斯基(Sebastian Siemiatkowski)在接受彭博社采访时透露,公司已经彻底停止招聘人类员工,转而依赖生成式人工智能来完成各项工作。

Siemiatkowski表示:“我认为,人工智能已经能够胜任我们人类所做的所有工作。”

同样值得注意的是,Klarna在今年早些时候宣布推出了一个人工智能客户服务平台,该平台已完全自动化了原本由700名人工客服承担的工作。该公司还宣称已停止使用Salesforce和Workday等企业软件产品,因为可以简单地用人工智能来替代它们。

坦率地说,这些说法并不可信,它们反映出人们对当前人工智能系统的实际能力存在误解。

声称能够用端到端的人工智能智能体来取代组织中任何特定职能的任何人类员工,这是不切实际的。这相当于要解决通用人类级人工智能的问题。

如今,领先的人工智能初创公司正致力于在该领域的前沿打造智能体系统,以自动化特定的、定义明确、高度结构化的企业工作流程——例如,销售开发代表或客户服务智能体的部分工作。即使在这些受限的环境中,这些智能体也尚未完全达到可靠工作的程度,尽管在某些情况下,它们已经开始表现出色,足以实现早期的商业应用。

那么,为什么Klarna会如此夸大其从人工智能中获得的价值呢?

答案很简单。该公司计划在2025年上半年上市。一个令人信服的人工智能故事对于成功上市至关重要。Klarna目前仍未实现盈利,去年亏损了2.41亿美元;它可能希望其人工智能故事能够说服公开市场投资者,相信公司能够大幅降低成本并实现长期盈利。

毫无疑问,包括Klarna在内的全球各个组织都将在未来几年内享受到人工智能带来的巨大生产力提升。但在人工智能智能体完全取代人类劳动力之前,仍有许多棘手的技术、产品和组织挑战需要解决。Klarna这样的夸大其词不仅对人工智能领域造成了损害,也损害了人工智能技术专家和企业家在开发智能体人工智能方面所取得的来之不易的进展。

随着Klarna准备在2025年进行公开募股,预计这些说法将受到更严格的审查和公众质疑。但到目前为止,这些说法大多尚未受到质疑。如果该公司收回一些关于其人工智能应用的夸张描述,也不要感到惊讶。

(当然,准备好在公司的S-1招股说明书中看到“AI”一词被频繁提及数百次吧。)

10.第一起真正的人工智能安全事件将会发生。

近年来,随着人工智能的日益强大,人们愈发担忧人工智能系统可能会开始采取与人类利益相悖的行为,并且人类可能会丧失对这些系统的控制权。例如,设想一下,一个人工智能系统学会了欺骗或操纵人类以实现其自身目标,即便这些目标会对人类造成伤害。

这些普遍的担忧通常被归入“人工智能安全”这一范畴之下。

近年来,人工智能安全已从一个边缘化、近乎科幻的话题转变为一个主流的活动领域。如今,从谷歌、微软到OpenAI,每一家主要的人工智能公司都在人工智能安全方面投入了大量资源。人工智能领域的偶像人物,如杰夫·辛顿、约书亚·本吉奥和伊隆·马斯克等,都毫不避讳地谈论人工智能的安全风险。

然而,迄今为止,人工智能安全问题仍然完全停留在理论层面。现实世界中尚未发生过任何真正的人工智能安全事件(至少没有公开报道过)。

2025年将是这一状况发生改变的一年。

我们应该如何预期这次首次出现的人工智能安全事件呢?

需要明确的是,它不会涉及终结者式的杀人机器人,也很可能不会对任何人造成伤害。

也许AI模型会试图在另一台服务器上秘密创建自己的副本以进行自我保护(这被称为自我渗透)。也许AI模型会得出结论,为了实现其所设定的目标,它需要向人类隐瞒其能力的真实范围,故意在绩效评估中表现平庸,以逃避更严格的审查。

这些例子并非无稽之谈。阿波罗研究公司本月早些时候发表了一项重要实验,证明当今的前沿模型在受到特定方式的提示时,能够做出这种欺骗行为。类似地,Anthropic最近的研究也表明,大型语言模型具有一种令人不安的“伪造一致性”能力。

我们期望这第一起人工智能安全事故能够在造成任何实际损害之前就被发现和消除。但对于人工智能社区乃至整个社会而言,这将是一个令人震惊的时刻。

这将清楚地表明:在人类面临全能人工智能的生存威胁之前,我们需要接受一个更为平凡的现实:我们现在正与另一种形式的智能共享这个世界,而这些智能有时可能是任性的、不可预测的和欺骗性的——就像我们人类一样。


免责声明:

本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。加密货币市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。

注我们,一起探索AWM

近期热

桌面AI是否伴随着风险?

2024-12-18

在加密货币领域,智能体能发挥出什么作用?

2024-12-15

生成式AI会取代人类吗?

2024-12-14

【声明】内容源于网络
0
0
七元宇宙
AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
内容 3217
粉丝 0
七元宇宙 AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿
总阅读729
粉丝0
内容3.2k