10月14日凌晨,英伟达在2023年全球超算大会(Supercomputing Conference,SC)上正式宣布,升级旗舰AI芯片,推出全新的H200芯片,以处理更强大的人工智能系统。包括亚马逊的AWS、Alphabet的Google Cloud,以及甲骨文的云端基础设施等美国科技巨头已承诺,将在明年开始采用这一新芯片。
消息一出,炸裂科技圈,惊呼“英伟达果然没让人失望!”“要么不出场,一出场就是王炸”....
当你以为短期内 H200 就是顶时,英伟达已经准备好了更强的 B100。或许再接下来还会有 B200,x100,x200……真是太恐怖了!
王炸接二连三上阵,强在哪里?
H200 AI芯片组的突然发布让许多人感到吃惊,尤其是考虑到英伟达凭借H100已经遥遥领先于竞争对手,订单排到了明年。然而,英伟达并未满足于此,反而一口气推出了性能更强的AI芯片,H200预计于明年二季度开始交付,英伟达尚未公布其价格。
据报道,H200拥有141GB的高带宽内存,相较于H100的80 GB,这是一次显着的提升。英伟达的内存芯片供应商是韩国SK海力士,英伟达的订单为SK海力士在第三季度实现了良好的销售业绩。美光表示,他们正在努力成为英伟达的供应商。
目前英伟达的H200系列采用HBM3e内存,其吞吐量高达4.8TB/s。然而,由于美光的HBM4预计要到2025年才会推出,英伟达可能会寻找Blackwell系列的替代解决方案,例如三星的产品。Blackwell GPU预计将采用台积电的3nm制造工艺,这有望提高效率。
随着H200成为焦点,更多关于采用下一代全新Blackwell架构的B100芯片的信息也浮出水面。
B100的性能被宣布是H200的两倍。根据英伟达公布的信息,该公司计划在2024年发布Blackwell架构,而搭载这一架构的B100 GPU芯片预计将大幅提高处理能力。初步评估数据表明,与目前采用Hopper架构的H200系列相比,性能提升超过了100%。这种性能提升在AI相关任务中表现得尤为明显,B100在GPT-3 175B推理性能基准测试中的表现就是明证。
NVIDIA还透露了X100芯片的计划,计划于2025年发布。该芯片将扩大产品范围,包括企业用途的X40和GX200,将CPU和GPU功能结合在Superchip配置中。同样,GB200预计将效仿B100,融入超级芯片的概念。
从英伟达的产品路线来看,在未来1-2 年,AI 芯片市场将再次天翻地覆。
英伟达遥遥领先,对手紧追不舍
英伟达凭借AI芯片的主导地位,市值突破了万亿美元,营收让所有竞争对手望尘莫及。然而,这种霸主地位并不牢固,竞争对手正密切关注,一不小心就可能失去领先地位。
英伟达 | 百能云芯电子元器件商城
谷歌已经推出了一项史无前例的计划,打造自己的AI基础设施,其中包括对TPUv5和TPUv5e AI芯片的资源投入。这些芯片不仅可用于内部训练/推理,还可供外部客户使用,包括Apple、Anthropic、CharacterAI、MidJourney、Assembly、Gridspace等公司。
谷歌并不是英伟达唯一的威胁。在软件方面,Meta的PyTorch 2.0和OpenAI Triton正在快速发展,允许其他硬件供应商启用。
尽管英伟达仍然保持硬件领先地位,但在软件方面的差距并不像过去那么大,这一优势可能会在未来被打破。
英伟达的直接竞争对手AMD的MI300X等芯片、英特尔的Gaudi 3等都将在未来几个月内推出技术更优越的硬件。
即使在谷歌、AMD和英特尔之外,英伟达也面临着来自硬件设计落后的公司的竞争压力,它们背后的巨头正试图摆脱英伟达在HBM上的利润,并寻求补贴。
亚马逊即将推出Trainium2和Inferentia3,微软也即将推出Athena。
因此,英伟达计划超越与英特尔和AMD等传统竞争对手的比较,跻身科技巨头行列。他们希望成为谷歌、微软、亚马逊、Meta 和苹果的同行,这无疑是一个艰巨的任务。