ChatGPT的爆火出圈直接点燃了AI时代的浪潮,行业巨头纷纷入局。微软将该模型引入BING搜索,谷歌推出Bard AI,百度也将推出“文心一言”。
在AI这个大浪潮之下,大洋彼岸又一次走在了中国的前面。随着ChatGPT的出圈,也使得大家在思考国内是否也能出现一个类似OpenAI的公司。
差距在哪?
据近期专家会议纪要提到的数据显示,目前OpenAI拥有10000张卡,购买要10亿人民币;Stability有4000张卡,而国内所有公司总共超不过10000张卡。
从目前来看,至少国内没有任何一个公司在全力投入这件事情。摆在现实的问题是,除了昂贵的成本,还面临一个更现实的问题:
2022年8月,英伟达和AMD被告知停止向中国出口部分高性能GPU芯片,其中包括英伟达A100芯片、H100芯片以及AMD M1250芯片等多款高性能显卡。
10月,美国对我国出口芯片产品的限制以算力做划分,4800TOPS以上算力受到限制。AMD的MI100/MI200和英伟达的H100都已经暂停向我国出口。
算力的需求有多大?
据中信电子测算ChatGPT对GPU算力的需求:
短期内GPU增量与市场规模:参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2.13万片A100的增量,对应市场规模2.13亿美元。假设有5家大企业推出此类LLM,则总增量为10.7片A100,对应市场规模10.7亿美元。
短期服务器增量与市场规模:单个服务器包含8个GPU,因此单个LLM带来2669台服务器需求,对应市场规模3.39亿美元,5家大企业共需要13345台,对应市场规模20亿美元。
长期市场空间:参考谷歌,若每日搜访问30亿次,需要106.74万张A100,对应13.3万台服务器DGX A100,带来市场空间200亿美元。
AI的时代浪潮下,Chiplet能成为中国突破算力限制的希望吗?
简单来说,就是通过以Chiplet为核心技术的异构堆叠技术,将大规模的SoC按功能模块分解成小的单元模块,选择最适合的制程工艺,可以大幅降低芯片设计的难度和设计成本,实现媲美乃至超越传统SOC的性能和各项表现。

去年国内壁仞科技推出首款面向云端人工智能(AI)训练及推理的7nm通用GPU算力产品BR100系列,应用了Chiplet,使其旗舰产品的峰值算力超过了英伟达目前在售的旗舰计算产品A100 GPU的3倍,达到了国际领先水平。
最关键的是由于使用了Chiplet技术,该芯片仍然在美国的限制标准下能够生产。
除此之外,华为、璧韧科技、寒武纪、AMD、apple、Intel企业都在布局chiplet并且这些企业都已经流片甚至量产了基于chiplet方案的芯片。
对于中国半导体产业的现状来说,在没有严格的功耗限制下堆叠Chiplet,并且等待国内的制程突破,可能是唯一解。
在Chiplet领域哪些上市公司值得关注?
IP:
芯原股份:公司2022 年半年报披露,芯原有望成为全球第一批面向客户推出Chiplet商用产品的企业。
设计:
寒武纪:公司思元370是首款采用Chiplet 技术的Al芯片。
先进封装:
通富微电:全球先进封测领先厂商,绑定AMD,具备Chiplet封装大规模生产能力,随先进封装技术持续发展等有望开启加速增长。
长电科技:全球先进封测领先厂商,绑定AMD,具备Chiplet封装大规模生产能力,随先进封装技术持续发展等有望开启加速增长。

