文章来源:钛媒体
作者:章橙、林志佳
新一轮人工智能(AI)热潮引发大模型算力需求大增,使得英伟达AI芯片供不应求,加之算力成本不断攀升,让AI巨头们或将选择“围剿”英伟达。
北京时间2月2日,科技巨头Meta Platforms对外证实,该公司计划今年在其数据中心部署最新的自研定制芯片,并将与其他GPU芯片协调工作,旨在支持其AI大模型发展。
研究机构SemiAnalysis创始人Dylan Patel表示,考虑到Meta的运营规模,一旦大规模成功部署自研芯片,有望将每年节省数亿美元能源成本,以及数十亿美元芯片采购成本。
更早之前,OpenAI持续推进“造芯”计划。公司CEO萨姆·奥尔特曼(Sam Altman)日前到访韩国,与芯片巨头三星、SK海力士探讨合作。据报道,双方会议讨论的主要话题之一是高带宽存储(HBM)芯片,有消息称,若合作达成三星和SK海力士可能会为OpenAI定制开发以及生产存储芯片。
不止是Meta和OpenAI,据The Information统计,截至目前,全球有超过18家用于AI大模型训练和推理的芯片设计初创公司,包括Cerebras、Graphcore、壁仞科技、摩尔线程、d-Matrix等,融资总额已超过60亿美元,企业整体估值共计超过250亿美元(约合1792.95亿元人民币)。
这些公司背后的投资方包括红杉资本、OpenAI、五源资本、字节跳动等。如果加上微软、英特尔、AMD等科技巨头和芯片龙头的“造芯”行动,对标英伟达的AI芯片企业数量最终就将超过20家。
如今,即使“杀不死”市值达1.63万亿美元的GPU(图形处理器)芯片龙头英伟达,全球也要有数十家AI公司全力“围剿”它。
不仅加速造AGI,奥尔特曼还要投资百亿下场“造芯”
目前在大模型领域,AI算力主要受限于两个方面:AI模型训练需求暴增,以及算力成本越来越高。
首先是需求增长。
据OpenAI开发平台服务状态显示,1月29日,ChatGPT平台的应用编程接口(API)出现断链,时长近20分钟,并且导致ChatGPT回答的错误率飙升。OpenAI表示,这主要是由于应用访问量激增,进而导致服务器“宕机”。
有消息称,目前ChatGPT平台主要使用英伟达A100和H100 GPU卡,训练一次大约需要2.5万块A100芯片。如果训练GPT-5,则还需要5万张H100。市场分析认为,随着GPT模型的不断迭代升级,未来GPT-5或将出现无“芯”可用的情况。
除了需求之外,算力成本也是AI芯片采购的核心要素之一。
公开数据显示,英伟达H100的价格已经飙升至2.5万-3万美元,这意味着ChatGPT单次查询的成本将提高至约0.04美元。如果要把ChatGPT能力与谷歌搜索对抗的话,不仅约481亿美元的AI芯片投入,而且每年还需要约160亿美元的芯片才能维持运作。
如今,英伟达已经成为了AI大模型训练当中必不可少的关键合作方。
据富国银行统计显示,目前,英伟达在数据中心AI市场拥有98%的市场份额,而AMD公司的市场份额仅有1.2%,英特尔则只有不到1%。
英伟达CEO黄仁勋(Photo: SCMP)
据Counterpoint Research,2023年,英伟达的营收将飙升至303亿美元,比2022年的163亿美元增长86%,跃升为2023年全球第三大半导体厂商。富国银行则预计,英伟达2024年将会在数据中心市场获得高达457亿美元的营收,或创下历史新高。
富国银行在报告中提到,尽管AMD在2023年的AI芯片营收仅为4.61亿美元,但是2024年将有望增长到21亿美元,届时市场份额将攀升至4.2%,英特尔也可能拿到将近2%的市场份额,而这将导致英伟达份额下降至94%。
对于OpenAI而言,作为大模型厂商,成本和满足需求是两个核心要素,而这两点却被“卡脖子”,受制于英伟达,因此,我们就不难理解奥尔特曼非得“自己造芯片”的原因——更安全和更长期可控的成本,减少对英伟达的依赖。
奥尔特曼曾多次“抱怨”AI芯片短缺问题,称目前英伟达的芯片产能已不足以满足未来的需求。
去年10月的WSJ Live活动上,奥尔特曼首次回应传闻称:不排除自研芯片这一选项。
“对于是否采用定制硬件(芯片),我们还在评估中。我们正努力确定如何扩大规模以满足世界的需求。虽然有可能不会研发芯片,但我们正在与做出卓越成果的伙伴保持良好合作。”奥尔特曼表示。
(详见钛媒体App前文:《OpenAI CEO首次回应:不排除自研芯片|钛媒体独家》)
那么,OpenAI如何“造芯”?就目前来看,奥尔特曼手里的牌主要有三个:找投资人建厂、与头部芯片制造商合作、投资给其他初创公司联合“造芯”。
今年1月20日,彭博报道称,奥尔特曼正在与中东阿布扎比G42基金、日本软银集团等全球投资者筹集超过80亿美元资金,成立一家全新AI 芯片公司,目标是利用资金建立一个工厂网络来制造芯片,直接对标英伟达。但目前谈判仍处于早期阶段,完整名单尚不确定。
不仅推进融资事宜,奥特曼也在加紧联系头部芯片制造商合作。1月25日,奥尔特曼与韩国存储芯片龙头SK海力士的CEO,以及SK 集团董事长会面,重点提及构建“AI芯片联盟”,双方或将在AI芯片设计、制造等方面与三星和SK集团合作。
早前《金融时报》报道称,在接触SK和三星之前,奥尔特曼就已接触英特尔,而且和台积电讨论过合作成立一家新的芯片工厂。
英特尔CEO基辛格(Pat Gelsinger)日前宣布,奥尔特曼将出席2月21日举办的首届英特尔代工业务IFS Direct Connect 活动,奥尔特曼将作为嘉宾发表演讲,双方或将公布合作事项。
事实上,除了建厂以外,奥尔特曼还至少投资了3家芯片公司。其中一家是美国知名的算力芯片公司Cerebras。
据悉,Cerebras曾推出过打破世界纪录的超大芯片产品,其第二代AI 芯片WSE-2已达到2.6万亿个晶体管,AI核心数量也达到85万个。
第二家奥尔特曼投资的公司,是基于RISC-V开源架构、模仿大脑工作方式的芯片初创企业Rain Neuromorphics。据报道,该公司既能训练算法,又能在部署时运行。尽管第一批硬件尚未向客户交付,但OpenAI早已向该公司下单了价值5100万美元的芯片。
最后一家是Atomic Semi,由芯片大神Jim Keller和Sam Zeloof共同创立,前者曾是AMD K8的首席架构师,还参与了苹果A4/A5芯片的开发。Atomic Semi目标是简化芯片制造流程,实现在快速生产,以期降低芯片成本。去年1月,Atomic Semi宣布完成OpenAI的1亿美元估值下的一轮融资。
随着大模型持续爆火,AI算力需求将不断攀升。奥尔特曼曾透露,OpenAI希望保证到2030年有足够的芯片供应。
“围剿”英伟达,新老守卫者能否脱颖而出?
除了OpenAI之外,此次“围剿”英伟达的队伍主要包括三类:
- 一是英特尔、AMD这类芯片巨头,与英伟达“亦敌亦友”很久的时间,对于GPU技术也有非常多的了解,如今希望“挑战”英伟达;
- 二是Meta、亚马逊、微软这类互联网和云服务厂商,他们对于云端大模型技术很了解,希望能借此降低成本且减少对英伟达的依赖;
- 三是近五年内成立的芯片设计初创企业,如Tenstorrent、Cerebras、Graphcore、Etched、Extropic和MatX等公司,因此其借助新一轮AI浪潮,或将推动其产品销售迅速增长。
不过,The information并不看好这么多AI芯片公司未来都持续存在。
该报道指出,上一轮2015年崛起的多个与AI、自动驾驶芯片初创公司,最终却随着大公司入局和大规模并且而倒闭消失。“这凸显了科技行业的一个模式:人才和资本流向火热的地方。”
那么,企业如何构建AI芯片技术、产品和商业化壁垒,是这场“围剿”英伟达之战的重要因素。
黄仁勋近期公开表示,华为、英特尔以及美国政府的出口管制,已经对英伟达在AI芯片市场的主导地位构成了严峻挑战。
2月1日,有消息传出,英伟达针对美国最新出口管制新规而研发的三款中国“特供版”芯片HGX H20,将于2024年第一季度开始小批量预定和交付,预计二季度开始大批量交付。据悉,H20芯片性能还不到H100的20%,而整体价格H20定价为每张卡1.2万美元至1.5万美元,最终销售价格约为11万元人民币(约合15320美元),与华为Ascend 910B定价基本持平。
另据经销商公开信息,配置8颗AI芯片的英伟达H20服务器售价为140万元。相比之下,采用8颗H800芯片服务器去年售价高达200万元左右。
对于英伟达将要发布的特定AI芯片新品,阿里巴巴、腾讯、新华三等公司早在2023年11月就开启测试。但多个消息显示,这些企业对于今年向英伟达订购的芯片数量或将远远少于此前的计划。
英伟达在中国销售高端显卡变得越来越难,而后面还有更多厂商进行“追赶”,比如OpenAI“造芯”。因此,随着AI芯片市场竞争加剧,新老守卫者当中,谁会从这场AI炒作浪潮中脱颖而出成为赢家,未来这一重要市场如何变化,这都将值得期待。
“很多人认为算力会迅速下降,商业模式会随着算力下降而成立,但我们判断,未来算力成本不会下降,很长时间算力成本仍将持续位于高位。”小冰公司CEO李笛近日对钛媒体App表示。
本文链接:https://www.aixinzhijie.com/article/6844758
转载请注明文章出处