英偉達(dá)11月13日宣布,在目前頂級人工智能(AI)芯片H100的基礎(chǔ)上進(jìn)行一次重大升級,發(fā)布新一代的H200芯片。
相較于H100,H200的內(nèi)存帶寬提高1.4倍、容量提高1.8倍,顯著提升處理密集型生成式人工智能(AI)工作的能力。
英偉達(dá)表示,H200采用高帶寬內(nèi)存(HBM3e)規(guī)格,使GPU內(nèi)存帶寬從H100的每秒3.35TB提高至4.8TB,內(nèi)存總?cè)萘恳矎腍100的80GB提高至141GB,與H100相比,對Llama 2模型的推理速度幾乎翻倍。
值得注意的是,H200還能與已支持H100的系統(tǒng)兼容。H200預(yù)計(jì)將于明年第二季度開始交付。英偉達(dá)尚未公布價(jià)格。
英偉達(dá)沒有透露新的內(nèi)存芯片供應(yīng)商,但美光科技9月份表示,它正爭取成為英偉達(dá)的供應(yīng)商。
此外,英偉達(dá)還從韓國SK海力士購買了內(nèi)存。SK海力士上個(gè)月表示,因英偉達(dá)訂單挹注,讓該公司第三季度的銷售寫下了好成績。
英偉達(dá)表示,亞馬遜網(wǎng)絡(luò)服務(wù)、谷歌云、微軟Azure和甲骨文云基礎(chǔ)設(shè)施都將成為首批購買H200芯片的云服務(wù)提供商。