NVIDIA于周一宣布推出HGX H200 Tensor Core GPU,采用Hopper构架,旨在加速AI应用。H200是继去年推出的H100后的新作,后者曾是NVIDIA最强大的AI芯片。若H200得到广泛应用,可能会在不久的将来使AI模型变得更加强大,并加快现有模型如ChatGPT的反应速度。
专家指出,过去一年,计算能力不足一直是AI发展的主要瓶颈,阻碍了现有AI模型的部署并放缓了新模型的开发。导致这一问题的主要原因是强大的GPU(加速AI模型的芯片)短缺。解决计算瓶颈的方法之一是制造更多芯片,另一种则是提升AI芯片的性能。后者可能使H200成为云端服务提供商的理想选择。NVIDIA的超级计算与高性能计算副总裁Ian Buck在新闻稿中表示:「为了用生成性AI和HPC应用创建智能,必须使用大型、快速的GPU內存,高效处理大量数据。」他还提到,凭借NVIDIA H200,这一行业领先的端到端AI超级计算平台的速度更快,可以解决一些世界上最重要的挑战。
例如,OpenAI曾多次表示其GPU资源不足,这导致ChatGPT的延迟。该公司不得不依赖速率限制来提供任何服务。从理论上讲,使用H200可能会为运行ChatGPT的现有AI语言模型提供更多空间,以服务更多客户。
据NVIDIA称,H200是首款提供HBM3e內存的GPU。凭借HBM3e,H200提供了141GB的內存和每秒4.8TB的宽带,NVIDIA认为这是2020年发布的NVIDIA A100的內存宽带的2.4倍。尽管A100已经上市多年,但由于更强大芯片的短缺,它仍然需求旺盛。
NVIDIA将以多种形式推出H200,包括四路和八路配置的NVIDIA HGX H200服务器板,兼容HGX H100系统的硬件和软件。它还将作为NVIDIA GH200 Grace Hopper超级芯片的一部分推出,该超级芯片将CPU和GPU结合在一起,为AI提供更大的性能提升。
Amazon Web Services、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure将是首批部署基于H200的实例的云服务提供商,预计将于明年开始。NVIDIA表示,H200将于2024年第二季度开始「在全球系统制造商和云服务提供商」处可用。