2024-03-26 08:06

前景可期!英伟达旗下Together AI频频收获投资,估值飙升不断。

5.8万

作者:小岩

编辑:彩云

目前,AI初创领域里获得融资最多的两家大模型创业公司是OpenAI和Anthropic,二者都是闭源大模型公司,它们背后的最大投资者分别是实力强劲的微软和亚马逊。

资本头部下场入局AI领域,所付出的绝不是资金这么简单,更有不可估量且极其宝贵的云计算资源。这样“不遗余力提供支持”的做法,无疑给OpenAI和Anthropic绑上了两大科技巨头的“战车”,战斗力旺盛,马力十足。

在闭源大模型之外,还有另一个阵营是开源大模型,MetaAI的llama系列就是其中的代表。使用开源大模型做应用的创业公司,大部分希望保持自己的独立性,会使用多云策略。此时拥有一个能力强,成本低的AI云平台就非常需要,而Torgether AI便是其中的典型代表。自成立伊始,Together AI就展现出了极其昂扬的上升势头,不仅多次获得融资,其估值也在不断翻涨。更重要的是,它的背后也拥有实力强劲的头部资本——英伟达。



成立至今不过两年,以提供Navidia GPU而闻名...


Together AI究竟是何方神圣?

Together AI 成立于2022年,以提供对 Nvidia GPU 的访问而闻名,它会为AI创业公司提供训练服务云平台,推理服务云平台的服务。与此同时,它完全拥抱开源生态的全栈AI公司,拥有自己的模型和数据集,在AI底层技术方面有很深的积累。公司目前正致力于扩展其平台,帮助开发人员构建或定制他们的开源人工智能模型。根据公司首席执行官 Vipul Ved Prakash 的说法,所得到的新资金将用于扩大计算能力,并招募研究人员构建新模型架构。截至目前,Together AI已经拥有45000名注册用户,他们大多来自人工智能初创公司和跨国企业,这些客户主要因为GPU而来。对于想要使用开放模型或定制模型并将其部署到大规模应用程序的人来说,Together AI正是他们的首选。



初创公司备受青睐,成功收获多轮融资,价值翻倍至394亿。


Together AI如此受欢迎,和其与英伟达之间的亲密联系和深度捆绑密不可分。

据悉,Together AI成立于2022年6月,它所开发的主要产品包括:类ChatGPT开源模型RedPajama-INCITE,开源30万亿训练数据集RedPajama-Data-v2以及开源大语言模型训练、推理加速器FlashAttention v2等。除了英伟达以外,Together AI还与 Crusoe Cloud,Vultr等伙伴展开了合作。此外,Together AI还在欧美地区运营了一个云计算中心,可以为成式AI初创企业提供推理,训练等方面的服务。Together AI还致力于扩展一个平台帮助开发者构建或定制他们的开源 AI 模型。

因为Together AI能够提供GPU,所以一经上线就颇受欢迎,获得多轮融资也就成为了自然而然的事情。

2023年5月,Together AI获得2000万美元种子轮融资;2023年11月,Together AI再度获得由凯鹏华盈 (Kleiner Perkins) 领投,英伟达,Emergence Capital等机构跟投的1.025亿美元(约7.3亿元)A轮融资。

时隔几个月,当地时间2024年3月13日,Together AI宣布完成新一轮融资,总额达1.06亿美元,投后估值为12.5亿美元。据悉,全新一轮筹资是由云计算软件巨头Salesforce的创投公司Salesforce Ventures领投,包括聚焦科技业的美国投资管理公司Coatue;既有投资者创投公司Lux Capital,Emergence Capital在内的诸多资本相继跟投。

一番操作下来,Together AI估值较去年秋天大增一倍多,达到了惊人的12.5亿美元。这不仅说明广大资本对于TogetherAI发展前景的分外看好,更反映出在生成式AI热潮下,投资人争相支持相关创业公司开创商机的浪潮。



Together AI的核心竞争力:既拥有推理速度最快的开源AI云平台,又拥有自己的数据集和模型。


Together AI之所以能一上线便收获到如此多的拥趸,很大程度上在于它所拥有的GPU。

GPU Clusters是专门为AI模型训练专门优化的GPU算力集群。它拥有极快的模型训练速度和极高的成本效率,客户可以在平台上对模型进行训练和微调。Together AI为这个集群配备了训练软件堆栈,如此一来用户可以专注于优化模型质量,而不是把大把的时间耗费在调整软件设置上。

在速度方面,Together AI使用了FlashAttention-2,它要比PyTorch足足快9倍;在成本方面,它使用的都是NVIDIA的A100和H100高端GPU,比AWS成本降低4倍。此外,它还具有极佳的扩展性,用户可以选择16个GPU到2048个GPU的算力规模,对应不同大小的AI模型。

不可否认,AI领域的竞争是相当激烈的,基本是属于大厂,实力强劲的创业公司这一类大资本的角力,它们的水平已经明显领先于大学和学术研究机构。从类型上来说,闭源大模型在性能上也是全面领先开源大模型的。

造成这种差距的根本原因主要在于训练大模型所需要的巨量成本,诸如算力成本,人力成本,时间成本等。因为有成本方面的巨大压力,学校和研究机构只能用规模很小的模型(6B或7B)参数去做一些相对边缘的研究;又或者另辟蹊径的去卷基础理论,试图颠覆现有的格局。

基于这样的现状,“闭源大模型超越开源大模型”基本会成为不争的事实,只不过是时间的问题。在这种趋势下,AI的权利将变得越来越中心化,从而形成“几家传统巨头 (以微软和Google为代表)+几家新巨头(以OpenAI和Anthropic为代表)”的格局。



这样的情况并不利于整个AI行业的生态化发展。从某种程度上说,这也是Together AI存在的意义。首先,它们搭建算力平台,为企业提供更加便宜和快速的模型训练和推理服务;其次,它们也帮助企业打造了属于自己的定制模型,从而给予企业第三方的选择空间;更重要的是,在开源方面,它们也提供了自己的数据集,训练与推理技术栈,以及示例性的开源模型,这些努力都是为了打破“垄断”。

从这个角度来说,Together AI的确前途可期。


本文链接:https://www.aixinzhijie.com/article/6845220
转载请注明文章出处

评论
登录 账号发表你的看法,还没有账号?立即免费 注册
下载
分享
收藏
阅读
评论
点赞
上一篇
下一篇