文章来源:AI范儿
由前OpenAI首席科学家Ilya Sutskever联合创立的安全超级智能(SSI)公司,已筹集10亿美元资金,旨在开发超越人类智能的安全AI系统。
据路透社社消息,人工智能领域迎来了一位重量级玩家——安全超级智能(SSI),这家由OpenAI前首席科学家Ilya Sutskever联合创立的新公司,已经筹集到了高达10亿美元的资金。这笔资金将用于开发一种远超人类能力的安全可靠的人工智能系统,这一消息由公司高管向路透社透露。
SSI目前仅有10名员工,但计划利用这笔资金增强其计算能力并招募顶尖人才。公司将专注于打造一个规模小但高度可靠的研究和工程团队,团队成员分布在美国加州的帕洛阿尔托和以色列的特拉维夫。
尽管SSI并未公开其估值,但据接近此事的消息人士透露,公司估值已达50亿美元。这笔融资反映了即使在对长期无盈利公司兴趣普遍下降的背景下,一些投资者仍愿意对专注于基础AI研究的杰出人才进行大规模投资。
参与投资的包括顶尖风险投资公司Andreessen Horowitz、Sequoia Capital、DST Global和SV Angel。此外,由Nat Friedman和SSI首席执行官Daniel Gross运营的投资合伙企业NFDG也参与了投资。Gross在一次采访中表示:“对我们来说,重要的是要被那些理解、尊重并支持我们使命的投资者所围绕,我们的使命是直接实现安全的超级智能,特别是在将产品推向市场前,投入几年时间进行研发。”
AI安全,即防止AI造成伤害,是一个热门话题,因为人们担心失控的AI可能违背人类利益甚至导致人类灭绝。加州的一项旨在对公司实施安全法规的法案在行业内引起了分歧。该法案遭到OpenAI和Google等公司的反对,但得到了Anthropic和Elon Musk的xAI的支持。
37岁的Sutskever是AI领域最有影响力的技术专家之一。他与曾在苹果领导AI项目的Gross以及前OpenAI研究员Daniel Levy于今年6月共同创立了SSI。在SSI,Sutskever担任首席科学家,Levy担任首席研究员,而Gross负责计算能力和筹款工作。
Sutskever表示,他之所以选择新的风险投资,是因为他“发现了一个与我之前的工作略有不同的新挑战”。去年,他曾是OpenAI非营利母公司董事会成员,该董事会投票决定罢免OpenAI首席执行官Sam Altman,原因是“沟通破裂”。不久后,他改变了主意,并与几乎所有OpenAI员工一起签署了一封信,要求Altman回归和董事会辞职。但这一事件削弱了他在OpenAI的影响力。他最终离开了董事会,并在5月离开了公司。
Sutskever离开后,公司解散了他领导的“超级对齐”团队,该团队致力于确保AI与人类价值观保持一致,为AI超越人类智能的那一天做准备。与OpenAI为AI安全而设计的非常规公司结构不同,SSI采用了常规的盈利性公司结构。
SSI目前非常注重招聘能够融入其文化的人才。Gross表示,他们会花费数小时来审查候选人是否具有“良好品格”,并且更倾向于寻找具有非凡能力的人才,而不是过分强调在该领域的证书和经验。“让我们感到兴奋的是,当我们发现那些对工作本身感兴趣,而不是对行业炒作感兴趣的人时,”他补充道。
SSI表示,它计划与云服务提供商和芯片公司合作,以满足其计算能力需求,但尚未决定将与哪些公司合作。AI初创公司通常与Microsoft和Nvidia等公司合作,以满足其基础设施需求。
Sutskever是扩大规模理念的早期倡导者,这一理念认为,如果给予AI模型大量的计算能力,它们的表现将会得到提升。这一理念及其实施引发了对芯片、数据中心和能源的AI投资热潮,为像ChatGPT这样的生成性AI技术的进步奠定了基础。
Sutskever表示,他将以与他前雇主不同的方式处理规模问题,但未透露具体细节。“每个人都在谈论规模假设。但很少有人问,我们究竟在扩大什么?”他说。“有些人可以长时间工作,他们会更快地沿着同一条路走下去。但这并不是我们的风格。但如果你能做一些不同的事情,那么你就有机会做出一些特别的事情。”
本文链接:https://www.aixinzhijie.com/article/6846606
转载请注明文章出处