在全球人工智能行业竞相从英伟达获取宝贵芯片的背景下,埃隆·马斯克(Elon Musk)近日透露了xAI的一项重大计划:构建由100,000台NVIDIA Hopper GPU组成的“世界上最强大的”AI训练集群。这一举措旨在加快AI开发的进展,使xAI在与Microsoft支持的OpenAI等竞争对手的较量中保持领先。
据马斯克透露,xAI在与甲骨文分道扬镳后,决定依靠自己的力量来构建这一庞大的GPU集群。此前,甲骨文已向xAI提供了24,000个NVIDIA Hopper GPU用于训练Grok 2 AI模型,该模型预计将于8月发布。然而,马斯克表示,xAI的目标是构建一个更加庞大的系统,以实现“最快的完成时间”,并赶上其他人工智能公司的发展步伐。
为了实现这一目标,xAI正在内部积极构建其100,000 GPU的AI系统。马斯克认为,拥有比任何其他人工智能公司都快的训练集群对于xAI的“基本竞争力”至关重要。此前,他曾透露xAI计划使用NVIDIA的Blackwell芯片构建数十亿美元的系统,并估计该系统将使用大约300,000个B200 GPU,成本可能高达90亿美元。
然而,马斯克现在表示,xAI将首先构建一个基于H100 GPU的系统,而不是直接使用Blackwell芯片。他认为,通过自行构建这一系统,xAI可以实现更快的训练速度,并赶上其他竞争对手。该系统预计将于本月开始训练,并将成为“世界上最强大的训练集群”。
在人工智能行业的主要参与者在2024年纷纷升级和推出新模型的背景下,xAI的这一举措无疑将为其在竞争激烈的市场中占据有利地位。马斯克表示,Grok 2模型的大部分开发已经完成,xAI正在进行最后的调整和错误更正,以确保其在下个月上市时能够表现出色。
随着人工智能行业的不断发展,对高性能芯片的需求也日益增长。英伟达作为全球领先的GPU制造商,在不到一年的时间里已成为全球第三大最有价值的公司。其他科技巨头如Meta、Alphabet、Microsoft和亚马逊等也在积极积累AI芯片,以推动其AI平台的发展。
马斯克的这一计划无疑将进一步推动人工智能行业的竞争和发展。通过构建庞大的GPU集群,xAI有望在未来的人工智能领域占据领先地位,并为全球用户带来更加先进和智能的产品和服务。
网友评论