M系列
ballbet安卓
您现在的位置:首页 > 产品中心 > M系列

ballbet安卓:微软OpenAI联手围剿英伟达首款自研AI芯片下月发布!
发布时间:2023-10-10 19:24:08   来源:ballbet安卓版 作者:ballbet安卓版西甲赞助    点击:119

  

  知名外媒The Information独家爆料称,微软计划在下个月举行的年度开发者大会上,推出首款人工智能芯片。

  不论是为了走出算力枯竭,更高效,低成本地开发自己的模型,还是为摆脱被「利润率高达1000%」的H100盘剥。

  但是,根据业内人士爆料,英伟达对于已经推出自己芯片的公司,比如谷歌亚马逊,会控制GPU的供给。

  所以「芯片自研」的道路,是一个风险和收益都很高的选择,毕竟谁也不想未来被黄老板在GPU供给上进一步「卡脖子」。

  与英伟达的GPU类似,微软的芯片也是专为数据中心服务器设计,可用于训练和运行诸如ChatGPT这类的大语言模型。

  目前,不管是为云客户提供先进的LLM支持,还是为自家的生产力应用提供AI功能,微软都需要依靠英伟达的GPU提供算力的加持。

  而这款从2019年便开始研发的全新芯片,显然可以极大地减轻微软对英伟达GPU的依赖。

  据知情人士称,微软和OpenAI组成的联合团队,现在已经在对其来测试了。

  也是同年,微软宣布将向OpenAI投资10亿美元,并要求他们必使用微软的Azure云服务器。

  然而,当微软开始与OpenAI进行更紧密地合作时发现,依靠购买GPU来支持这家初创公司、Azure客户以及自家产品的成本,实在是太高了。

  据知情的人偷偷表示,在开发Athena期间,微软为满足OpenAI的需求,已经向英伟达订购了至少数十万块GPU。

  据称,微软希望这款代号为Athena(雅典娜)芯片,能与一直供不应求的英伟达H100 GPU相媲美。

  微软虽然还在讨论是否要向Azure云客户提供自研芯片,但该芯片在开发者大会上的首次亮相,可能预示着微软正在寻求吸引未来云客户的兴趣。

  可以肯定的是,微软将借着Athena的推出,极大缩短与另外两家巨头的距离——谷歌和亚马逊早已在自家的云服务器上大规模采用了自研的芯片。

  此外,为摆脱英伟达的「卡脖子」,微软还在与AMD密切合作,开发即将推出的人工智能芯片MI300X。

  不过,微软和其他云服务提供商普遍表示,自己并没有停止从英伟达购买GPU的打算。

  但如果他们能说服云客户更多地使用自研芯片,那么从长远来看,这可以极大地节省开支。同时,也能帮他们在与英伟达的谈判中获得更多筹码。

  对于OpenAI来说,能同时减少对微软和英伟达芯片的依赖,显然是最好的。

  据OpenAI网站上的几则招聘信息数据显示,公司正在招聘可以帮助其评估和共同设计AI硬件的人员。

  此前,CEO Sam Altman曾将获得更多AI芯片作为公司的首要任务。

  一方面,OpenAI所需的GPU十分短缺,另外,运行这些硬件时产生的成本「令人瞠目结舌」。

  如果算力成本一直居高不下,长远来看于整个AI行业来说可能并不是一个好消息。

  毕竟如果掘金的「铲子」卖的比金子本身都贵,那么还会有人去做挖金子的人吗?

  根据Stacy Rasgon的分析,ChatGPT每次查询大约需要4美分。如果ChatGPT的查询量增长到谷歌搜索规模的十分之一,那么就将需要价值约481亿美元的GPU,并且每年需要价值约160亿美元的芯片来维持运行。

  据业内资深人士分析,这将是一项投资巨大的战略举措,其中每年的成本可能高达数亿美元。而且,即使OpenAI将资源投入到这项任务中,也不能够确保成功。

  除了完全的自研之外,还有一种选择是像亚马逊在2015年收购Annapurna Labs那样,收购一家芯片公司。

  据一位知情的人偷偷表示,OpenAI已经考虑过这条路,并对潜在的收购目标进行了尽职调查。

  但即使OpenAI继续推进定制芯片计划(包括收购),这项工作也在大多数情况下要数年时间。在此期间,OpenAI还是将依赖于英伟达和AMD等GPU供应商。

  因为就算强如苹果,在2007年收购了P.A. Semi和Intristy,到2010年推出第一款芯片A4,也经历了3年的时间。

  而OpenAI,自己本身都还是一家初创公司,这样的一个过程也许走得会更加艰难。

  OpenAI不但要能设计出性能上不落后的硬件,还要在软硬件协同方面赶超CUDA,一定不是一件容易的事情。

  OpenAI要做的芯片,不需要向其他巨头推出的芯片一样,服务于整个AI行业。

  这和谷歌、亚马逊这种将自己的AI芯片放在云端提供给第三方使用的芯片会有很大的不同,因为几乎不用考虑兼容性的问题。

  这样就能在设计层面让芯片能更高效地执行Transformer模型和相关的软件栈。

  而且,OpenAI在模型训练方面的一马当先的优势和规划,能让它实际做到在未来把模型训练相关的硬件问题,用自己独家设计的芯片来解决。

  不用担心自己的芯片在「满足个人需要」的性能上,相比与英伟达这样的行业巨头会有后发劣势。

  设计自己的AI芯片,与英伟达直接「刚正面」如此之难,为什么巨头们还要纷纷下场?

  加上云提供商在中间还要再赚一笔。这样,包括OpenAI在内,使用英伟达GPU+云提供商的基础模型企业成本肯定居高不下。

  现在,购买一个使用英伟达H100 GPU的人工智能训练集群,成本约为10亿美元,其FP16运算能力约为20 exaflops(还不包括对矩阵乘法的稀疏性支持)。而在云上租用三年,则会使成本增加2.5倍。

  这些成本包括了集群节点的网络、计算和本地存储,但不包括任何外部高容量和高性能文件系统存储。

  购买一个基于Hopper H100的八GPU节点在大多数情况下要花费近30万美元,其中还包括InfiniBand网络(网卡、电缆和交换机)的分摊费用。

  同样的八GPU节点,在AWS上按需租用的价格为260万美元,预留三年的价格为110万美元,在微软Azure和谷歌云上的价格可能也差不多。

  因此,如果OpenAI能够以低于50万美元的单价(包括所有成本)构建系统,那么它的成本将减少一半以上,同时还能掌握自己的「算力自由」。

  将这些费用削减一半,在投入资源不变的情况下,OpenAI的模型规模就会扩大一倍;如果成本能减少四分之三,则翻四倍。在模型规模每两到三个月翻倍的市场中,这一点非常重要。

  所以长远来看,也许任何一个有野心的AI大模型公司,都不得不面对的一个最基本问题是——如何尽可能的降低算力成本。

  对于OpenAI和微软下场造AI芯片的做法,一些网友似乎持不同的意见,认为AI芯片是一个「陷阱」。

  逼得OpenAI等模型公司造硬件,一个最大的原因是其他芯片公司完全不给力,英伟达基本上没有竞争。

  如果AI芯片是一个竞争充分的市场,OpenAI这类的公司就不会自己下场做AI芯片。

  而有些想法更加激进的网友认为,大语言模型未来将集成到芯片当中,人类可以用自然语言和计算机直接对话。所以设计芯片是走到那一步的自然选择。

上一篇:OpenAI造芯计划打算直接收购芯片公司? 下一篇:芯片测试

 首页

 关于我们

 新闻中心

 产品中心

 联系我们

 网站地图

总部热线:

0722-3288562

企业邮箱:

xff@www.czhccw.com

ballbet安卓微信平台