最近科技圈很热闹,巨头们官宣合作的消息不断刷屏。从OpenAI和AMD牵手,到英伟达与英特尔联姻,再到英伟达投资马斯克的xAI。
AI的大时代里,浪潮终会席卷我们每个人。怎么去理解这些合纵连横呢?希望读完这篇,我们能理解的更清晰。
AI大模型公司靠什么赚钱?卖Token。
Token是什么?我们可以把它理解为AI输出的文本片段。 就像我们家交电费按“每度电几毛钱”付费,AI服务也是“按Token计费”(例如ChatGPT收费“每百万Token几块钱”)。 |
AI服务就是一座现代发电厂,Token就是它发出来的“电” 。用户用多少“电”,就付多少钱。
既然是“发电厂”,成本从哪来?三大核心要素:算力(燃料)、内存(仓库)、带宽(输电网)。理解了这三点,就能明白巨头们在抢什么。
1. 计算能力:发电厂的“燃料”
作用: 没燃料,发不了电;没算力,AI无法工作。AI生成一句话需要运行数万次矩阵运算,这些运算全靠GPU来扛。
重要性: “燃料”质量决定效率。普通电脑跑小模型可能10秒生成一句话,顶级GPU则0.01秒搞定。这就是“燃料”好坏的差距。
2. 内存容量:发电厂的“仓库”
作用: 电厂需仓库储存燃料,AI“电厂”需内存(尤其是GPU的高带宽内存)储存“知识”—— 即模型的所有参数。
重要性: 内存不足,要么跑不了大模型(如手机装不下GPT-4),要么处理不了长内容(如让AI读万字长文,内存小的话会读了后面的记不住前面的)。
3. 带宽:发电厂的“输电网”
作用:大模型太大,光靠一块GPU存不下,得成千上万个GPU一起干活(如英伟达的 AI 集群)。带宽就是GPU之间高速交换数据的“输电网”。
重要性: 带宽不足,会被拉闸限电。比如英伟达的H800,有132个流处理器,每一个都可以处理计算和通信两种任务。我们以为大部分处理器在忙于“计算”?错!当任务越重、GPU越多,很可能超过一半以上的时间都在处理“通信”(数据传输)任务。
现在再看科技新闻,逻辑就清晰了:
OpenAI+AMD: 寻求“更便宜的燃料”(AMD GPU算力性价比高,降低Token成本)。
英伟达持续推新卡: 升级“仓库+输电网”(新显卡内存更大、带宽更快,能发更多Token)。
英特尔入局: 争夺“输电网”(优化带宽,如助力英伟达扩展NVLink72支持x86架构)。
说白了,AI竞争就是发电厂效率战:谁的算力更便宜、内存更大、带宽更快,谁就能把Token卖得又便宜又多。
下次再看到AI合作新闻,不必纠结细节。记住这个万能公式:
AI = 卖电 成本 = 燃料(算力) + 仓库(内存) + 输电网(带宽) |
理解它,能看懂90%的AI热点。
期待,下次相遇

