大数跨境
0
0

理解这个小逻辑,看懂90%的AI热点

理解这个小逻辑,看懂90%的AI热点 未来科技棱镜
2025-10-28
2
导读:AI竞争就是发电厂效率战:谁的算力更便宜、内存更大、带宽更快,谁就能把Token卖得又便宜又多。

最近科技圈很热闹,巨头们官宣合作的消息不断刷屏。从OpenAI和AMD牵手,到英伟达与英特尔联姻,再到英伟达投资马斯克的xAI。


AI的大时代里,浪潮终会席卷我们每个人。怎么去理解这些合纵连横呢?希望读完这篇,我们能理解的更清晰。


AI大模型公司靠什么赚钱?卖Token


Token是什么?我们可以把它理解为AI输出的文本片段。


就像我们家交电费按“每度电几毛钱”付费,AI服务也是“按Token计费”(例如ChatGPT收费“每百万Token几块钱”)。


AI服务就是一座现代发电厂,Token就是它发出来的“电” 。用户用多少“电”,就付多少钱。


|
发电需要成本,“发Token”也一样


既然是“发电厂”,成本从哪来?三大核心要素:算力(燃料)、内存(仓库)、带宽(输电网)。理解了这三点,就能明白巨头们在抢什么。


1. 计算能力:发电厂的“燃料”

作用: 没燃料,发不了电;没算力,AI无法工作。AI生成一句话需要运行数万次矩阵运算,这些运算全靠GPU来扛。


重要性: “燃料”质量决定效率。普通电脑跑小模型可能10秒生成一句话,顶级GPU则0.01秒搞定。这就是“燃料”好坏的差距。


2. 内存容量:发电厂的“仓库”

作用: 电厂需仓库储存燃料,AI“电厂”需内存(尤其是GPU的高带宽内存)储存“知识”—— 即模型的所有参数。


重要性: 内存不足,要么跑不了大模型(如手机装不下GPT-4),要么处理不了长内容(如让AI读万字长文,内存小的话会读了后面的记不住前面的)。


3. 带宽:发电厂的“输电网”

作用:大模型太大,光靠一块GPU存不下,得成千上万个GPU一起干活(如英伟达的 AI 集群)。带宽就是GPU之间高速交换数据的“输电网”。


重要性: 带宽不足,会被拉闸限电。比如英伟达的H800,有132个流处理器,每一个都可以处理计算通信两种任务。我们以为大部分处理器在忙于“计算”?错!当任务越重、GPU越多,很可能超过一半以上的时间都在处理“通信”(数据传输)任务。


|
AI的本质:一场关于“发电”的竞争


现在再看科技新闻,逻辑就清晰了:

  • OpenAI+AMD: 寻求“更便宜的燃料”(AMD GPU算力性价比高,降低Token成本)。

  • 英伟达持续推新卡: 升级“仓库+输电网”(新显卡内存更大、带宽更快,能发更多Token)。

  • 英特尔入局: 争夺“输电网”(优化带宽,如助力英伟达扩展NVLink72支持x86架构)。


说白了,AI竞争就是发电厂效率战:谁的算力更便宜、内存更大、带宽更快,谁就能把Token卖得又便宜又多。


下次再看到AI合作新闻,不必纠结细节。记住这个万能公式:


AI = 卖电 

成本 燃料(算力) 仓库(内存) 输电网(带宽)


理解它,能看懂90%的AI热点。



END




期待,下次相遇



#AIGC #人工智能 #GPU #存储芯片 #CPO


【声明】内容源于网络
0
0
未来科技棱镜
1234
内容 8
粉丝 0
未来科技棱镜 1234
总阅读24
粉丝0
内容8