大数跨境
0
0

"帝国理工"的小镇做题家,官宣离职Intel CTO,加盟OpenAI搞AI

"帝国理工"的小镇做题家,官宣离职Intel CTO,加盟OpenAI搞AI IT知识刺客
2025-11-14
1
导读:OpenAI挖角Intel CTO,陈立武逼上梁山亲自挂帅。很有可能OpenAI要试水自研芯片了,这一次做为甲方,卡蒂可以大显身手了,用尖端制程堆算力,软、硬结合,再让软件部门死磕自家的芯片,再把算力
11月11日消息,英特尔CTO首席AI官Sachin Katti(萨钦·卡蒂),突然宣布离职,并很快宣布加入OpenAI,负责构建AGI计算基础设施。
卡蒂堪称印度小镇做题家,有着极为耀眼的学历。他大学就读印度理工学院。
印度知名励志电影《三傻大闹宝莱坞》中的“帝国理工学院”,其原型就是印度理工学院。

相当于印度的清华北大,一直以严格的入学标准著称。《三傻》中校长那句话:
每年有40万考生报考帝国理工学院,只有200人能考上这所学院。”虽有夸大成份,但并非完全是艺术虚构,现实中也有迹可循。(看来印度高中没有五五分流啊)
2003年,从印度理工学院毕业后,卡蒂进入MIT,完成了计算机科学博士学位,然后在UC伯克利完成了博士后的研究。
一路全是名校,绝对是别人家的孩子、印度天材做题家啊。

踏出校门不久,卡蒂创办了一家专攻无线通信技术的公司:Kumu Networks,并开创了自干扰消除技术,在网络技术中闯出了一片天地。


之后卡蒂又创办了一家公司:Uhana,专注于开发面向移动网络优化的AI解决方案,该公司后来被VMware收购。

一句话总结,名校毕业、连续创业者、网络技术大佬。

2021年底,卡蒂加入英特尔,负责网络业务。并于两年后升任为网络与边缘计算事业部(NEX)高级副总裁兼总经理。

随着摩尔定律逐渐逼近极限,单颗芯片算力提升愈发困难,使用快速网络将众多芯片组成AI算力网络,日益重要。以网络技术起家的卡蒂,在这方面有着得天独厚的优势。

加入 Intel 不到4年,2025 年 4 月,陈立武亲自提名卡蒂担任Intel CTO兼首席AI官,全面主导Intel AI芯片与软件战略。

所有关于卡蒂离职的新闻,都提到卡蒂离职的主要原因之一:没能实现Intel Gaudi AI加速器5亿美元收入的目标。但其实这锅扣不到卡蒂头上。

Gaudi AI加速器是Intel面向训练、推理的芯片,它算是一款DSA类型的专用芯片,专为神经网络计算内置24或64颗张量核,BF16算力每秒可以达到1835 TFLOPS。

技术细节,不过多讨论了,总之Intel官网中的资料宣称,Gaudi AI加速器算力NVIDIA H100相当,但价格仅是 NVIDIA H100 的一半。

IBM Cloud 已经全面提供了搭载Gaudi 3加速器的云服务实例,让企业能够按需使用这些算力。

国内AI头部企业、六小龙之一的Deepseek,也部署了不少Gaudi AI加速器(消息来自于Kimi)。

虽然一切“看起来很美”,但是Gaudi AI加速器的推广显然并未达到预期。

原因是多方面的,但NVIDIA CUDA,绝对是最主要的因素之一。

虽然我并没有测试过Gaudi AI加速器,不过我相信Intel官网上的资料。虽然Intel已然霸气不再,但技术底蘊还是有的。

以Intel在芯片领域的技术积累,打造一款领先的专门针对张量计算(也就是矩阵计算)的专用芯片,并非难事。

但是,算力是有了,把算力“”起来,却并非易事。

现实中神经网络的张量计算,灵活多样,矩阵大小变来变去。数据流会像拧来拧去的绳子,交织在一起。算力再强,等待数据流就位的延迟,让再强的算力也难以发挥。

在这方面CUDA绝对独步一帜,它软硬结合提供了灵活的调度策略,可以最大化使用等待时闲置算力、隐藏数据延迟。

当然,除了CUDA也有成功案例,Google的TPU也相当成功。其XLA 编译器十分强大,可以把底层芯片的算力发挥出来。

但Google TPU一开始是给自己用的。芯片是自己公司的一个部门,并不是乙方公司。

硬、软件都在一家公司,这点很重要。打个比方,拉里-佩奇、谢尔盖-布林(google的两位创始人)在听取汇报时,软件或算力部门老大如果说:“TPU芯片算力不行,而不是我们不行,锅应该芯片部门来背,。。。”。

在他说这句话时,芯片部门的老大可能就坐在他旁边。这样的形势下,他也不会乱甩锅。硬、软两个部门只会通力合作,甚至硬、软都属同一部门,大家共同打造牛B的产品。然后,TPU这种软硬结合的低成本高算力的怪兽就诞生了。

但是,如果是采购乙方公司的芯片,那就完全是另一翻景象了。假设你是软件、算力部门的老大,你们公司采购了Gaudi AI加速器,但使用效果不理想。

你可以丝滑的把锅甩给Intel:“Intel老了,不是我们不行,是Intel不行。AI算力,还得NVIDIA。”

做为乙方公司,Intel的人连参会的可能都没有。你甩锅了,他们也没办法反驳。

何况,从某种程度上说,这就是Intel没做好,不算锅。

因此,想在AI算力基础设施上有更高的成就,还得去甲方。Intel、AMD这种乙方公司,很难让甲方软件部门的人,花吃奶的力气专为某种架构的芯片优化各种AI算子。

天才做题家卡蒂去了OpenAI,负责构建AGI计算基础设施。很有可能OpenAI要试水自研芯片了,这一次做为甲方,卡蒂可以大显身手了,用尖端制程堆算力,软、硬结合,再让软件部门死磕自家的芯片,再把算力最大化的发挥出来,让算力成本降一个台阶,也不是不可能。

其实现在AI算力,硬件方面已经不怎么需要死磕了。硬件人材虽然更高端、更稀缺,但主频、内存延迟,都在哪儿摆着,上限已经焊死,跨越式提升几无可能。

反而是软件层,Google TPU的成功,离不开XLA的功劳。但Google TPU的推广也受限于软件层。XLA应对自己的需求是足够的,面对外界五花八门的需求,还是GPU+CUDA更能发挥算力。

【声明】内容源于网络
0
0
IT知识刺客
基础软件开发 HPC(高性能计算) HPC数据库研发 数据库内核 向量计算 计算机体系结构 数据库 DBA CPU原理
内容 83
粉丝 0
IT知识刺客 基础软件开发 HPC(高性能计算) HPC数据库研发 数据库内核 向量计算 计算机体系结构 数据库 DBA CPU原理
总阅读26
粉丝0
内容83